前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >css中如何做到容器按比例缩放

css中如何做到容器按比例缩放

作者头像
用户1097444
发布于 2023-07-14 07:04:25
发布于 2023-07-14 07:04:25
83600
代码可运行
举报
运行总次数:0
代码可运行

在说容易按比例缩放前,我们先说下图片按比例缩放。

对于图片,默认只设置图片的一个宽或高,那么另一个值就会按照图片真实比例缩放,如

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
<img class="demo1" src="http://placehold.it/200x150" alt="">
<img class="demo2" src="http://placehold.it/400x300" alt="">.demo1{
width: 100px;/* 只设置宽度,根据等比例缩放得到高度为75px */
}
.demo2{
height: 150px; /* 只设置高度,根据等比例缩放得到宽度为200px */
}

图片因为本身存在宽高比,所以设置一个值,另一个值自动也就根据真实的比例对应上,但是如果是视频呢?

一般在响应式中,我们会要求视频的宽高比为16:9或4:3,这么一来就比较头大了。当用户改变浏览器宽度的时候(改变高度不考虑),视频的宽度变了,那么高度也得根据我们要求的16:9或4:3改变。

这里老外提供了一个很巧的方案:Creating Intrinsic Ratios for Video

核心思想为:提供一个容器,设置容器的高度为0,再设置padding-bottom为56.25%(因为padding的百分比是按照容器宽度计算的,所以由padding来撑开容器高度,而不是height,保证了容器的宽高比例),最后设置视频绝对定位,其宽高为容器的100%

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
.wrap{
height: 0;
padding-bottom: 56.25%; /* 16:9 */
position: relative;
width: 100%;
}
.wrap .video{
position: absolute;
left: 0;
top: 0;
width: 100%;
height: 100%;
}

根据上述思想,我们再将其扩展下,应用到其他地方,如:

这是一个移动端页面的一部分,要求全屏里面正好三张图片,左右图片宽度是相等的,第一个图片和第三个图片下面要对齐,图片之间的间距为10px。鉴于移动端的屏幕大小不等,所以使用定宽不合适。

详细请参考容器等比缩放demo

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2016-06-16,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 腾讯IMWeb前端团队 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
从自监督学习主流方法、最新工作进展,看未来前景研究方向
本文作者来自东北大学,他通过整理自监督学习的一系列工作,把主流方法分成三大类,方便大家更全面的了解自监督学习的定义、方法、用途。
AI科技评论
2020/08/10
1.6K0
从自监督学习主流方法、最新工作进展,看未来前景研究方向
自监督学习之对比学习
自监督学习主要是利用辅助任务(pretext)从大规模的无监督数据中挖掘自身的监督信息,通过这种构造的监督信息对网络进行训练,从而可以学习到对下游任务有价值的表征。(也就是说自监督学习的监督信息不是人工标注的,而是算法在大规模无监督数据中自动构造监督信息,来进行监督学习或训练。因此,大多数时候,我们称之为无监督预训练方法或无监督学习方法,严格上讲,他应该叫自监督学习)。
全栈程序员站长
2022/10/05
1.1K0
自监督学习之对比学习
自监督学习详细介绍(学习笔记)
fast.ai上面关于自监督学习的资料:Self-supervised learning and computer vision. GitHub上面每年使用自监督学习的论文列表:Awesome Self-Supervised Learning. 相关微信推送
全栈程序员站长
2022/10/05
5.3K0
自监督学习详细介绍(学习笔记)
自监督学习: 人工智能的未来
[1] 2015 (ICCV) Unsupervised Learning of Visual Representations Using Videos
全栈程序员站长
2022/10/05
8670
自监督学习: 人工智能的未来
自监督学习(self-supervised learning)(20201124)
半监督(semi-supervised learning):利用好大量无标注数据和少量有标注数据进行监督学习;
全栈程序员站长
2022/10/05
1.1K0
自监督学习(self-supervised learning)(20201124)
自监督学习 —— MoCo v1
这里得到的I_pos的维度是**(N,1,1), N个数代表N**张图片的自己与自己的增强图的特征的匹配度。
为为为什么
2022/08/09
1.4K0
自监督学习 —— MoCo v1
再介绍一篇最新的Contrastive Self-supervised Learning综述论文
自监督学习(Self-supervised learning)最近获得了很多关注,因为其可以避免对数据集进行大量的标签标注。它可以把自己定义的伪标签当作训练的信号,然后把学习到的表示(representation)用作下游任务里。最近,对比学习被当作自监督学习中一个非常重要的一部分,被广泛运用在计算机视觉、自然语言处理等领域。它的目标是:将一个样本的不同的、增强过的新样本们在嵌入空间中尽可能地近,然后让不同的样本之间尽可能地远。这篇论文提供了一个非常详尽的对比自监督学习综述。 我们解释了在对比学习中常用的前置任务(pretext task),以及各种新的对比学习架构。然后我们对不同的方法做了效果对比,包括各种下游任务例如图片分类、目标检测、行为识别等。最后,我们对当前模型的局限性、它们所需要的更多的技术、以及它们未来的发展方向做了总结。
对白
2022/04/01
1.5K0
再介绍一篇最新的Contrastive Self-supervised Learning综述论文
对比自监督学习浪潮迅猛来袭,你准备好了吗?
近年来,自监督学习逐渐成为了备受人们关注的应对标注缺乏问题的热门解决方案,科研人员在基于对比学习的自监督方法方面进行了大量研究。本文是 PyTorch Lightning 创始人 William Falcon 的对比学习综述,对自监督学习、对比学习等基础概念进行了简要的回顾,介绍了 CPC、AMDIM、BYOL、SimCLR、Swav等最近较为著名的对比学习方法,并提出了一种名为 YADIM 的新型对比学习算法。
AI科技评论
2020/10/09
1.3K0
对比自监督学习浪潮迅猛来袭,你准备好了吗?
自监督学习的知识点总结
监督学习:机器学习中最常见的方法是监督学习。在监督学习中,我们得到一组标记数据(X,Y),即(特征,标签),我们的任务是学习它们之间的关系。但是这种方法并不总是易于处理,因为-
deephub
2022/04/14
4410
自监督学习的知识点总结
自监督学习 对比学习了解
自监督学习是近几年(2020年)流行起来的一种机器学习方法,很多人认为自监督方法未来一段时间将取代现有的监督方法,成为深度学习中占据主导地位的方法。现在已经有不少采用自监督-对比学习的方法取得了领先的效果。目前(2020.10)来说这个领域貌似还比较新,没有找到很系统的讲解介绍资料。
全栈程序员站长
2022/10/05
7150
自监督学习 对比学习了解
2021最新对比学习(Contrastive Learning)在各大顶会上的经典必读论文解读
我为大家整理了对比学习在最新各大顶会上的论文合集及相应代码,所列举的论文涉及领域包括但不限于CV, NLP, Audio, Video, Multimodal, Graph, Language model等,GitHub地址:
对白
2022/04/01
1.5K0
2021最新对比学习(Contrastive Learning)在各大顶会上的经典必读论文解读
自监督:对比学习contrastive learning「建议收藏」
自监督方法将取代深度学习中占主导地位的直接监督范式的预言已经存在了相当一段时间。Alyosha Efros打了一个著名的赌,赌在2015年秋季之前,一种无监督的方法将会在检测Pascal VOC方面胜过有监督的R-CNN。但四年之后,他的预言现在已经实现了。目前,自监督方法(MoCo, He et al., 2019)在Pascal VOC上的检测性能已经超越了监督方法,并在许多其他任务上取得了良好的效果。
全栈程序员站长
2022/10/05
1.9K0
自监督:对比学习contrastive learning「建议收藏」
一文读懂对比学习在CV进展
对比学习在计算机视觉的发展历程大概分为四个阶段(1)百花齐放:有InstDisc(Instance Discrimination)、CPC、CMC代表工作。在这个阶段方法模型都还没有统一,目标函数也没有统一,代理任务也没有统一,所以是一个百花齐放的时代。(2)CV双雄:这个阶段的代表工作就是MoCo v1、SimCLR v1、MoCo v2、SimCLR v2以及还有CPC CMC它们的延伸工作,还有SwAV。(3)不用负样本:这个阶段主要就是BYOL这个方法以及它后续的一些改进,最后SimSiam出现,把所有方法归纳总结了一下,都融入到了SImSiam这个框架之中,算是卷积神经网络做对比学习的一个总结性的工作。(4)Transformer:这里会提到MoCo v3和Dino。
CristianoC
2022/11/18
1.7K0
一文读懂对比学习在CV进展
【机器学习】--- 自监督学习
机器学习近年来的发展迅猛,许多领域都在不断产生新的突破。在监督学习和无监督学习之外,自监督学习(Self-Supervised Learning, SSL)作为一种新兴的学习范式,逐渐成为机器学习研究的热门话题之一。自监督学习通过从数据中自动生成标签,避免了手工标注的代价高昂,进而使得模型能够更好地学习到有用的表示。
凯子坚持C
2024/09/23
1120
从MoCo入门自监督学习与对比学习
最近有一些基于对比学习的无监督学习的工作取得了不错的效果,这类对比学习方法的本质上是构造一个动态的字典。我们先解释一下对比学习。
CristianoC
2022/11/18
1.4K0
从MoCo入门自监督学习与对比学习
自监督、半监督和有监督全涵盖,四篇论文遍历对比学习的研究进展
机器之心分析师网络 作者:仵冀颖 编辑:Joni 本文通过四篇相关论文对自监督学习中的对比学习(Contrastive Learning)进行了深入的探讨。 自监督学习意思是使用非人工标记数据进行学习。在机器学习中,比较著名的自监督方法就是自然语言处理中的 word2vec。由此可见,与无监督学习不同,自监督中仍然存在标记,只不过,这些标记不是人类参与生成的,而是从输入数据中生成的,通常可以使用启发式算法生成标记。 而在机器视觉领域,自监督学习主要有两类方法,生成类方法(Generative)和区别类方法
机器之心
2023/03/29
1.3K0
自监督、半监督和有监督全涵盖,四篇论文遍历对比学习的研究进展
图解自监督学习,人工智能蛋糕中最大的一块
如果人工智能是一块蛋糕,那么蛋糕的大部分是自监督学习,蛋糕上的糖衣是监督学习,蛋糕上的樱桃是强化学习。
石晓文
2020/03/12
1.2K0
图解自监督学习,人工智能蛋糕中最大的一块
自监督学习(Self-supervised Learning)
前段时间在杭州参加华尔兹,在会场听报告和看Poster的时候,我发现AI领域的论文研究不再跟前几年一样专注于某个特定的任务提出全监督的网络模型(比如语义分割、目标检测和风格迁移等)。因为这些年深度学习的发展使得在数据充足情况下,经典任务的模型已经能达到很好的效果了,但是对于数据和标签匮乏的特定任务,这种监督学习的模型的效果就很受限。
全栈程序员站长
2022/10/05
2.3K0
自监督学习(Self-supervised Learning)
自监督学习(一)自监督学习介绍
自监督学习本质上是一种无监督学习的方法,通常会设置一个“Pretext tasks”,根据数据的一些特点,构造Pesdeo Labels来训练网络模型。通过自监督得到的模型,可以作为其他学习任务的预训练模型,为其提供更好的训练初始区域。因此,自监督学习也可以看作是为了学习图像的通用视觉表示。
全栈程序员站长
2022/10/05
1.2K0
自监督学习(一)自监督学习介绍
自监督学习 —— MoCo v2
file:///C:/Users/issuser/Downloads/202205291635050.pdf
为为为什么
2022/08/09
9730
自监督学习 —— MoCo v2
推荐阅读
相关推荐
从自监督学习主流方法、最新工作进展,看未来前景研究方向
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档
本文部分代码块支持一键运行,欢迎体验
本文部分代码块支持一键运行,欢迎体验