前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >直播带货系统,滚动视图,上滑隐藏,下滑显示

直播带货系统,滚动视图,上滑隐藏,下滑显示

原创
作者头像
yunbaokeji柯基
修改于 2020-10-15 09:51:40
修改于 2020-10-15 09:51:40
1K00
代码可运行
举报
文章被收录于专栏:直播知识直播知识
运行总次数:0
代码可运行
代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
- (void)scrollViewDidScroll:(UIScrollView *)scrollView{
    CGFloat offsetY = scrollView.contentOffset.y;
    BOOL flag = NO;
    if (_offsetY < offsetY) { // 需要隐藏
        flag = YES;
    }
    if (_button.alpha == 1  // 没有隐藏
        && flag  // 需要隐藏
        && offsetY > 0  // 处理顶部下拉回弹
        ) {
        [UIView animateWithDuration:0.25 animations:^{
            _button.alpha = 0;
        }];
    }
    else if (_button.alpha == 0  // 已经隐藏
             && !flag   // 需要显示
             && (scrollView.mj_footer.state == MJRefreshStateIdle // 正常状态(刷新状态不)显示
             ||  scrollView.mj_footer.state == MJRefreshStateNoMoreData // 没有更多数据
             )) {
        [UIView animateWithDuration:0.25 animations:^{
            _button.alpha = 1;
        }];
    }
    _offsetY = offsetY;
}

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

评论
登录后参与评论
暂无评论
推荐阅读
深度剖析Google数据中心如何利用神经网络压榨PUE——下
理论模型与实验结果高度吻合 综前所述,可通过控制变量法建模仿真,从而得知各个运行变量参数对数据中心PUE的影响。这种灵敏度分析被用于评估某一参数变化带来的影响,并用于确定其最佳的设定值。下面的这些所有测试结果已被实际得到了验证。 图8(a)IT负载和PUE之间的关系 图8(b)运行冷机数量和PUE之间的关系 图8(a)展示PUE和服务器IT负载之间的关系,在0%到70%负载范围内PUE值快速降低。但在70%以上负载范围时PUE值却逐渐平缓。这个特点也在Google数据中心的历史PUE数据中得到验证: 由
腾讯数据中心
2018/03/16
2K1
深度剖析Google数据中心如何利用神经网络压榨PUE——下
如何避免数据中心冷却水缺水?
导语 冷却水在制冷系统中起到十分重要的作用,是冷量传递的媒介。冷却水系统如果发生缺水现象,会产生严重的后果,轻则导致空调送风温度升高,重则导致冷机停机,甚至导致服务器宕机。为了保证数据中心安全平稳运行,腾讯某数据中心经过多年运营经验,采取报警+维保+巡检多管齐下,避免冷却水缺水现象的发生。 1.报警 冷却水系统出现缺水问题首先会触发一些先头报警,先头报警出现后可能会触发其他相关联报警,另一方面,这些相关联报警如果发生,报警的原因之一可能是冷却水缺水问题,二者存在相互关联的关系。 先头报警&可能触发的其
腾讯数据中心
2018/03/16
1.4K0
数据中心 PUE 优化模型生成服务:AI 浪潮下的数据中心的省钱攻略,就用这几招
一般来说,数据中心 3 年的电费可以再造一个数据中心,因此节电是数据中心的一个永恒的话题。传统的节电技术基本已经触及到了天花板,AI 节电是现在以及将来的技术趋势。AI 调控的是数据中心制冷系统,不仅要控的好能节能,还要控的安全。本文我们将分享华为 NAIE 数据中心 AI 节能技术,以及如何支持技术在不同局点的复制。
白鹿第一帅
2022/04/13
1.4K0
数据中心 PUE 优化模型生成服务:AI 浪潮下的数据中心的省钱攻略,就用这几招
腾讯青浦二期数据中心为啥得到了USGBC的青眼?
2019年10月11日,全球知名绿色认证组织USGBC(美国绿色建筑委员会),以及旗下的绿色数据中心委员会等多个机构的业内专家应邀前往腾讯青浦二期数据中心,共同见证了其运营成果:在诸多节能措施的作用下,腾讯青浦二期数据中心实现了年度PUE值为1.29(2018年1月1日-2018年12月31日)。最低的月度PUE值达到1.24,最热月度PUE值控制在1.33以下。 注:美国绿色建筑委员会(USGBC)是目前全球最具影响力的绿色建筑组织之一,它致力于推动全球建筑行业的绿色化进程。其推出的LEED认证体系是当
腾讯数据中心
2019/10/17
8721
腾讯青浦二期数据中心为啥得到了USGBC的青眼?
三大谷歌欧洲数据中心究竟如何做到100%自然冷却
分析谷歌公布的这些图表(a)、(b),纵向看,它在全球各地的多个数据中心 PUE 控制都已游刃有余;横向看,PUE曲线波浪向下,说明谷歌数据中心的运营仍在逐步改进、不断优化,这种运营是长期的精细化调优的过程。这些图表的另一个显著信息是,其各个数据中心的 PUE 有着一个规律的生物钟,不管是以季节,还是以天、小时为时间颗粒度单位,都表现出较大的波动性规律。这说明 Google 数据中心的自然冷水平高超。它基于室外自然环境温度,尽量利用外界冷源带走热量而不启动机械制冷,在散热方面只给够用的冷量,躬行节俭。
腾讯数据中心
2018/03/16
2K0
三大谷歌欧洲数据中心究竟如何做到100%自然冷却
上海数据中心要求PUE小于1.3,怎么办?-孙长青
1、事件背景 《上海市推进新一代信息基础设施建设助力提升城市能级和核心竞争力三年行动计划(2018-2020年)》的通知,引起了数据中心基础设施圈内各个层面的人热烈解读,从中,有人看到希望,有人看到了危机,有人看到了数据中心发展的趋势,有人看到了上海有关部门对数据中心的态度。 其中有一段话,深深的吸引了大家的眼球,是关于基础设施的要求:推进数据中心布局和加速器体系建设。统筹空间、规模、用能,加强长三角区域协同,布局高端、绿色数据中心,新建机架控制在6万个,总规模控制在16万个。推动数据中心节能技改和结构调整,存量改造数据中心PUE不高于1.4,新建数据中心PUE限制在1.3以下。开展计算资源布局规划和资源配置方案研究,实施技术试验及模式研究。依托数据中心布局,建设基于中央处理器(CPU)、图形处理器(GPU)等的计算中心,面向人工智能的计算加速资源占新增数据中心机架总量的50%。 其中最让人揪心的,是新建数据中心PUE限制在1.3以下,这个数值代表什么,对数据中心行业熟悉的人们都心里有数,那是上海有关部门对节能的极致追求,如果按照传统的成熟方案进行设计,几乎是不可能达到1.3的要求的,那就是要逼迫从业者采用更加有效的节能方案。 由此,可能给全国数据中心行业带来一次节能技术的革命。 2、PUE的前世今生 首先,让我们来看看PUE的由来,在2007年的时候,美国绿色网格(The Green Grid,IT专业人士的非营利性贸易组织,旨在满足数据中心和整个信息服务交付生态系统的电力和冷却要求,不支持任何特定于供应商的产品或解决方案,提供有关旨在提高整体数据中心效率的最佳实践,指标和技术的建议。)为了更好地了解和提高现有数据中心的能效,认识到建立数据中心效率指标的重要性,并由此为提高每瓦性能的技术指导提供理论支持。理想情况下,这些指标和流程将有助于确定在需要新数据中心之前是否可以优化现有数据中心。由此,提出了PUE的概念,即Power Usage Effectiveness(能源使用效率),从那时起,PUE已在业界得到广泛采用。 下面来看PUE的定义:能源使用效率,数据中心IT设备和配套基础设施的电量或能量和除以由设计人员按企业采用的标准计算获得的IT设备电量或能量之和。业内一般通用的,多指整个数据中心包括IT设备和配套基础设施的年耗电量除以IT设备年耗电量。 PUE计算公式如下: PUE =机械负载系数(MLC)+电气负载系数(ELC)+ 1.0 这里所有因素都是按IT负荷除以的比率: •1.0表示标准化的IT负载。实际上,这是IT负载因子(ILF),但始终为1.0。 •机械负载系数(MLC)是制冷设备、泵、风机等消耗的总能耗除以IT能耗,如下:
数据中心DATACenter_PUE-POE
2019/08/20
4.5K0
上海数据中心要求PUE小于1.3,怎么办?-孙长青
致敬经典——腾讯第三代数据中心
序言 伴随着腾讯业务的不断发展壮大,腾讯数据中心走过了21年的光辉历程,期间不断地推进了数据中心技术架构的迭代和升级。为了适应海量服务器快速、低成本的部署和运营要求。早在2012年,腾讯就推出了第三代数据中心架构——微模块架构。经过八年的应用实践和优化完善,微模块技术架构已经发展成为数据中心行业的主流技术;为腾讯第四代T-Block技术架构升级奠定了坚实的基础。本文将从运营实践的视角带领大家去回顾腾讯第三代数据中心技术的最佳实践。 什么是微模块? 微模块(Modular Data Center,MDC)是
腾讯数据中心
2020/10/19
3.7K1
冷却水泵变频节能分析与实证
濒临秃头运营组(8) 萌新小运维 老斯基,冷却泵变频设计可以实现节能吗? 小Q老斯基 对比我们此前介绍的冷冻泵变频节能分析,相信大家心里隐约有一些答案。 萌新小运维 但有人说冷却水泵降频会使冷机功耗增加,得不偿失,是这样的吗? 小Q老斯基 别着急,今天我们将通过理论计算以及实际运营数据来综合分析。 可滑动屏幕查看对话哟 【关联阅读】 1. 御水而行,点水成金 2. 冷冻水温度提升与节能分析实证 序言 冷冻水系统节能优化是个系统工程,牵一发而动全身,一个参数的变化可
腾讯数据中心
2020/09/07
4.9K0
深度剖析Google数据中心如何利用神经网络压榨PUE——上
互联网的飞速发展拉动了对大规模数据中心的胃口,同时也带来能耗的巨幅上升,目前数据中心的能耗已经超过了全球能源使用量的1.3%。Google的数据中心以高能效著称,通过创新的市电直供、热空气隔离、水侧节能等技术和大量的运营优化,PUE达到了令人称奇的1.12领先水平。 “压榨PUE不停歇” 但是他们“贪心不足”,在新加坡举办的Datacenter Dynamics 2014会议上,Google数据中心副总裁Joe Kava和天才小子Jim Gao介绍了Google是如何利用机器学习和人工智能进一步改进数据中心
腾讯数据中心
2018/03/16
2.3K0
深度剖析Google数据中心如何利用神经网络压榨PUE——上
天津数据中心群英传——之呼风唤水篇(上)
开天辟地: 在距离腾讯总部较远的北方城市天津,有一座规模庞大的“城堡”,她就是腾讯迄今为止最大的自主规划、设计和运营的数据中心——天津数据中心。 天津数据中心共4栋楼,总建筑面积8万多平米(约11个足球场面积),满载可容纳20万台服务器,为华北地区乃至全国提供全方位综合服务,其规模之大、分量之重当屈一指。 在这座规模罕见的“云基地”里,深居着数以万计的服务器和网络设备,她们日夜不停地工作,承载着公司的核心业务。在这些服务器的身后,同样也隐居着另外一个规模庞大的家族,她们隐姓埋名,默默无闻地为这数以万计的服务
腾讯数据中心
2018/03/16
1.1K0
天津数据中心群英传——之呼风唤水篇(上)
积水成渊——数据中心用水效率分析
引言 现在人们一提起数据中心,首先想到的关键词是PUE(数据中心电力使用效率的衡量指标),由此可见人们对数据中心电力资源的重视程度。而另外一种资源——水,却往往被人们所忽视。 水,在维基百科中有这样一句解释:“水(化学式:H2O)是包括人类在内所有生命生存的重要资源,也是生物体最重要的组成部分”。水也被称为人类生命的源泉。 同样,对于数据中心来说,水好比人的血液。水出了问题的数据中心是无法正常运营的。那么,在数据中心有哪些地方会用到水呢?接下来我们以腾讯某数据中心为例做详细说明。 腾讯某数据中心用水项分析
腾讯数据中心
2018/03/16
3.5K0
积水成渊——数据中心用水效率分析
京东自建数据中心核心技术解密——基础设施篇
京东第一个自建数据中心是位于宿迁的京东云华东数据中心,整体由4个模块和1栋综合大楼组成,总占地面积将近6万平方米,总投资30亿元。 可以提供20万台的服务器安装和运营能力,存储能力不小于32EB,计算
京东技术
2018/04/10
2.9K0
京东自建数据中心核心技术解密——基础设施篇
腾讯天津数据中心余热回收应用初探
引言 随着人工智能、云计算,大数据等信息技术高速发展,大型数据中心不断涌现。当前全球数据中心数量已超过400万个,其中超大数据中心已超过500个;预计2020年,全球数据中心耗电量将占全球总用电量的5%;截止2018年底,中国数据中心服务器装机量为1200万台,国内数据中心总耗电量高达613亿度。如何在高能耗数据中心寻找节能空间,缓解当前社会能源需求紧张,促进全球能源合理利用,是数据中心从业者不断探索的方向。本文以腾讯天津数据中心为例,介绍余热回收原理及其成熟应用方案,秉持“科技向善”的愿景,提出数据中心
腾讯数据中心
2020/01/03
5.9K0
腾讯天津数据中心余热回收应用初探
数据中心蓄冷系统选择-孙长青
摘要:在数据中心的大型空调水系统中,为了达到连续制冷的功能,采用的措施主要是蓄冷技术。在Uptime 对于T4等级的数据中心要求里,明确要求了连续制冷功能;在其他规范和标准里面,对于这个功能没有明确而具体的要求。但针对非有计划的失电时,仍然需要保证空调系统提供正常冷却功能的数据中心来说,设置蓄冷系统不失为一个既技术可行又经济的选择。那么,到底选择什么蓄冷形式适合作为数据中心的蓄冷系统呢? 关键词:数据中心 水蓄冷 冰蓄冷 蓄冷罐 一次泵 二次泵
数据中心DATACenter_PUE-POE
2019/08/20
1.3K0
数据中心蓄冷系统选择-孙长青
数据中心蓄冷罐放冷演练
背景介绍 蓄冷罐顾名思义是用于蓄冷的设备。其原理是通过媒介将数据中心空调系统运行中的富余冷量进行储藏,在需要时再将冷量释放出来。 某夜, 腾讯某数据中心进行了一期蓄冷罐放冷演练。此数据中心一期的冷水机组中有高压冷水机组和低压变频机组;根据现有的负荷开一半冷水机组已满足负荷需要,关闭的冷机处于备用状态。 1. 演练目的 通过进行蓄冷罐放冷测试,测试空调系统设备存在的隐患,使现场人员更好的熟悉应急预案及了解应急预案的实施性、可行性,缩短突发故障处理时间,确保数据中心运营安全;也可以测试运维人员熟练程度,提高运维
腾讯数据中心
2018/03/16
2.4K0
数据中心蓄冷罐放冷演练
集腋可否成裘?——浅谈IDC余热利用
如果把数据中心视作一套规模巨大的能源转换的设备,它在能量转化的过程中会释放出大量的余热。逾98%的电力损耗变成了低质量的热能,那么这些余热是否可以再利用,又如何利用呢?
腾讯数据中心
2018/09/04
5.4K5
数据中心并联冷机负载不均案例分析
制冷冷机为数据中心提供冷量,是保证数据中心安全有效运行的核心,但是在实际冷机运行过程中,常常会出现并联引起负载不均衡的问题,如果处理不当,可能引起冷机停机,数据中心供冷中断,威胁数据中心的安全运行。 一、某数据中心冷机负载率不均案例回顾 某数据中心某时机负荷偏大问题的发现及解决回顾: 第一周 某数据中心3、4号冷机并联运行期间,4号冷机的负载率比3号冷机高20%以上,且为持续现象。 第二周 某数据中心机切换到1、2号冷机之后,联合冷机厂家对冷机冷凝器做了通炮(即拆开4号机的冷凝器端盖板,清洗内部的铜管水路)
腾讯数据中心
2018/03/16
1.6K0
数据中心并联冷机负载不均案例分析
“电老虎”数据中心,AI如何发挥作用?
在过去几年,一座座数据中心拔地而起,大规模的服务器串联而成的计算系统支撑了海量的数据处理和运算。数据中心机架数量由2016年的124万架上升至2019年的227万架,四年间上涨了83.1%。
科技云报道
2022/04/16
4230
“电老虎”数据中心,AI如何发挥作用?
腾讯数据中心制冷节能的十八般武艺——下
(本文内容接《腾讯数据中心制冷节能的十八般武艺——上》) (备注:图片带播放图标的均有视频介绍,视频链接为: http://v.qq.com/vplus/51389fdde8883a85bcfe344f11a106c5/foldervideos/em6000001jms4px, 视频搬运来自youtube) 三、数据中心制冷节能技术现状与趋势 1、海水自然冷却,位置为功能服务 Green Mountain Data Center: 位于挪威西南角,常年利用8℃的深层海水(75米以下),对数据中心进行制
腾讯数据中心
2018/03/16
1.9K0
腾讯数据中心制冷节能的十八般武艺——下
首台自主创新全空冷机组在三峡运行,图扑数字孪生机体
采用全空冷系统的三峡右岸电站26号机组,是目前世界上采用全空冷技术的最大容量等级发电机组,并且结构布置简单、运行可靠、安装维护方便、成本低。全空冷系统区别于水冷系统,是指对水轮发电机的定子绕组、铁心和转子绕组均采用空气冷却方式的发电机冷却系统。
数字孪生
2022/08/29
6020
首台自主创新全空冷机组在三峡运行,图扑数字孪生机体
推荐阅读
相关推荐
深度剖析Google数据中心如何利用神经网络压榨PUE——下
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档