首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

将GetDC代码移动到线程中时,性能会大大降低

。这是因为GetDC是一个Windows API函数,它用于获取与指定窗口相关联的设备上下文(Device Context)。

将GetDC代码移动到线程中可能导致性能下降的原因主要有两个:

  1. 线程切换开销:将GetDC代码放在一个独立的线程中,需要进行线程间的切换。线程切换会带来一定的开销,包括上下文切换、寄存器保存和恢复等。尤其是在频繁调用GetDC的情况下,线程切换的开销会更加明显。
  2. 窗口操作的限制:GetDC函数需要与特定的窗口关联,因此在多线程环境下,可能出现多个线程同时调用GetDC的情况。但是,Windows操作系统对于某些窗口操作是有限制的,例如只能在创建该窗口的线程中调用。如果多个线程同时调用GetDC函数,可能会导致操作系统的限制,并且可能引发错误。

为了解决这个问题,可以考虑以下解决方案:

  1. 减少线程切换开销:可以通过使用线程池来管理线程,避免频繁地创建和销毁线程。另外,可以使用异步编程模型,将GetDC代码放在一个异步任务中执行,从而避免线程切换的开销。
  2. 优化窗口操作:可以将GetDC操作移到主线程中执行,或者通过消息传递的方式将获取到的设备上下文传递给其他线程使用。这样可以避免多个线程同时调用GetDC函数的问题。

总结起来,将GetDC代码移动到线程中可能会导致性能下降,主要是因为线程切换开销和窗口操作的限制。为了提高性能,可以减少线程切换开销,并优化窗口操作。关于GetDC函数的更多详细信息,可以参考GetDC函数的官方文档

页面内容是否对你有帮助?
有帮助
没帮助

相关·内容

编译过程的并行性优化概述

多核处理器: 近年来,由于摩尔定律的限制,仅仅提高单核芯片的速度产生过多热量且无法带来相应的性能改善,因此引入了多核芯片来增加并行性。...多核处理器对应于线程级并行性。本文主要涉及指令级并行,因此不做过多的介绍。...因此,尽量降低寄存器使用数量的目标与最大化指令并行性的目标直接冲突。 寄存器分配阶段与代码调度阶段的顺序也影响并行性与存储器数量。...在软件流水中再次应用循环展开,使同一刻可以运行多个循环,可以使软件流水实现分数值的启动间距,同时基于展开的优化技术可以降低程序的资源需求和关键路径的长度。...但是,循环展开也会引起代码量增长和寄存器需求增大,代码量的增长导致缓存的性能变差,寄存器需求的增大则有可能使软件流水失败。因此,软件流水的核心问题之一就是展开因子的确定。

78350

Kotlin|这些隐藏的内存陷阱,你应该熟记于心

介于此,本篇根据个人开发经验,聊一聊 Kotlin 那些隐藏的内存陷阱,也希望每一个同学都能在 性能 与 优雅 之间找到合适的平衡。...其原理也比较简单,在调用时将我们的代码移动到调用处使用,从而降低方法调用时的 栈帧 层级。...Jvm在执行方法,每执行一个方法会产生一个栈帧,随后将其保存到我们当前线程所对应的栈里,方法执行完毕再将此方法出栈, 所以内联后就相当于省了一个栈帧调用。...如果上述描述,你只记住了后半句,降低栈帧 ,那么此时你可能已经陷入了一个使用陷阱?...不是说内联可以提高性能吗,那么不应该任何方法都应该加 inline 提高性能吗?(就是这么倔强) 上面我们提到了,内联是会将代码移动到调用处,降低 一层栈帧,但这个性能提升真的大吗?

79630
  • WPF 从最底层源代码了解 AllowsTransparency 性能差的原因

    当前的 WPF 的源代码完全开放,本文将从最底层的 WPF 代码告诉大家为什么设置了 AllowsTransparency 之后性能变差,以及 WPF 透明的原理 特别感谢 少珺 的研究,我只是将他告诉我的内容写出来...,告诉大家 本文将会告诉大家 AllowsTransparency 设置为 true 之后,为什么整体渲染性能降低,将会占用更多 CPU 资源。...通过上面代码,就可以了解为什么占用内存比较多的一个原因,那就是在内存重新开辟了一段内存,内存的大小就是窗口的大小。...DX 窗口渲染内容拷贝出来放在内存,然后使用 GDI 进行渲染。...而通过 GDI 的再次渲染将会降低整个应用的渲染性能 说道这里,是否有方法可以提升性能

    1.4K20

    【专业技术】Win32 SDK编程:我们如何输出文本

    在使用Win32编程,我们常常需要输出文本窗口上,Windows所有的文本字符或者图形输出都是通过图形设备接口(GDI)进行的,Windows的三大组件之一的GDI32.dll封装了所有的文本和图像输出函数...在windows窗口上输出有两种方式来获取设备上下文句柄,一种是在处理WM_PAINT消息通过BeginPaint函数获取,另外一种就是通过主动获取上下文句柄函数GetDC或者GetWindowDC,...使用WM_PAINT还有一个好处,就是windows自己计算哪些区域需要更新,也就是说只有真正变化的地方才会更新,这样更新的代价降低到最小。...下面的实例,我们用了这两种方式获取设备上下文句柄来输出文本: #include staticTCHAR szAppName[] = TEXT("HelloWin32"); staticLRESULT...获取设备上下文句柄画出来的文本消失了,而在处理WM_PAINT消息通过BeginPaint函数获取设备上下文画出来的文本依然存在。

    1.9K50

    为什么说存储和计算分离的架构才是未来

    为了解决数据的快速访问,Google 创造性地提出来了计算和存储耦合的架构,在同一个集群实现计算和存储功能,并将计算的代码移动到数据所在的地方,而不是数据传输到计算节点,有效解决了分散在各个弱连接的存储节点间的海量数据访问的困难...经过 10 年的发展,网络的性能发生了巨大的变化,从之前主流 100Mb 10Gb,增长了100倍,而同时期的 HDD 硬盘的性能基本没有太大变化,倒是单盘的容量增大了很多。...; 当存储空间或计算资源不足,只能同时对两者进行扩容,导致扩容的经济效率比较低(另一种扩容的资源被浪费了); 在云计算场景下,不能实现真正的弹性计算,因为计算集群也有数据,关闭闲置的计算集群丢失数据...2013 年我初到 Facebook ,隔壁组的同事就做了一个这方面的研究,看在关闭 Hadoop 的数据本地化优化的情况下,对性能究竟有多少影响。...Databricks 一开始就是采用了计算和存储分离的架构(直接使用 S3 作为存储),给产品带来了非常大的灵活性,按需创建和自动弹性伸缩的 Spark 集群是一大卖点(还能最大限度使用 Spot 节点来大大降低计算成本

    55920

    高并发风控技术解密(下)

    •配置动态化——配置动态化可以考虑虚拟表的形式,通过虚拟表任意表的结构存储一个统一的表结构中去,从而完成配置的动态化,有些类似nosql的文档化思想。 如何降低响应时间提高吞吐量?...基于动态流程配置,主系统3个外部调用合并为一个之后,sy和wa大大降低,不再出现被压垮的情况,而被合并的剩下两个调用,放到kafka解耦之后继续调用。 ?  ...•降低线程数量,从而降低系统cpu时间,异步网络调用--netty的客户端应用   为保障主线程的吞吐和执行时间,经常需要把网络调用异步化,一些重要的异步化网络调用也需要占用线程池中大量线程线程数量一多...如下图,左边是每个线程一个连接等待,耗费大量线程在等待,导致sy和wa提升,采用基于netty框架的客户端之后,连接线程限制一个很小的数目,而回调的业务线程保持在一个较小范围并且保持忙的状态,...另一种方式是关系直接存储为图,即顶点和边关系,查询极其简单,这方便的代表是图数据库neo4j,由于存储需要再导入,因此并未做深入研究,同样供有兴趣的同学参考 如何保持系统稳定性?

    1.1K40

    高并发风控技术解密(下)

    •配置动态化——配置动态化可以考虑虚拟表的形式,通过虚拟表任意表的结构存储一个统一的表结构中去,从而完成配置的动态化,有些类似nosql的文档化思想。 如何降低响应时间提高吞吐量?...基于动态流程配置,主系统3个外部调用合并为一个之后,sy和wa大大降低,不再出现被压垮的情况,而被合并的剩下两个调用,放到kafka解耦之后继续调用。  ...如下图,左边是每个线程一个连接等待,耗费大量线程在等待,导致sy和wa提升,采用基于netty框架的客户端之后,连接线程限制一个很小的数目,而回调的业务线程保持在一个较小范围并且保持忙的状态,...分布式的TOPK问题比较有意思,ES的原理阐述了这一点,有兴趣的人可以研究 另一种方式是关系直接存储为图,即顶点和边关系,查询极其简单,这方便的代表是图数据库neo4j,由于存储需要再导入,因此并未做深入研究...限流   •大促期间如遇大流量可以针对业务渠道限流开关推送标志以限流 降级   •在高峰期间一些运营查询相关的需求停止,减小数据系统负担,并调度半夜12点继续查询 预案   •每次大促前都得准备预案

    60250

    高效的无锁引用计数结构:lockref

    “锁定-改变引用变量-解锁”的操作,这期间很可能出现spinlock和引用计数跨缓存行的情况,这将会大大降低性能。...此时由于lockref强制对齐,只涉及1个缓存行,因此性能比原先的spinlock+ref_count的模式要高。...关于cmpxchg_loop   在改变引用计数,cmpxchg先确保没有别的线程持有锁,然后改变引用计数,同时通过lock cmpxchg指令验证在更改发生,没有其他线程持有锁,并且当前的目标lockref...的值与old变量存储的一致,从而将新值存储目标lockref。...这种无锁操作能极大的提升性能。如果不符合上述条件,在多次尝试后,退化成传统的加锁方式来更改引用计数。

    60610

    百微秒延、超百万IOPS是如何炼成的?

    此时由于用户空间没有访问硬件的权限,触发 vm exit 进入内核空间。 qemu 请求写入母机上对应的设备,数据继续经过母机内核的一系列 IO 协议栈发送给母机 cbs 组件。...RDMA 技术支持在多个服务器进行通讯的时候,从一台机器的内存直接访问另一台主机的内存,而无需 CPU 的参与,大大降低了 CPU 的开销。...,大大提高了 CPU 性能。...经过 RDMA 适配改造后,进一步降低了整体链路的 IO 延,提升了 CBS 的性能。 3. 用户态协议栈 ZTCP 架构升级 ?...结语 为了让大型 SQL 数据库、NoSQL、视频编解码、推理训练等业务的存储有更好的稳定低延及高性能,后续我们依旧围绕着稳定高性能存储建设产品能力,专注更多方面的提升优化,迎接更艰巨的挑战。

    2.9K10

    架构高性能网站秘笈(六)——构建数据缓冲区

    那么,数据想要进入数据库,首先需要进入缓冲区,当缓冲区存满,一次性地写入数据库,从而降低了数据库操作的频率;同理,从数据库出来的数据也进入该缓冲区,那么下次需要相同数据的时候直接从缓冲区取即可。...要知道,从内存取数据要比从数据库取数据快多了,因此缓冲区能大大提升数据插入和查询的性能。 如何构建数据缓冲区? 根据刚才对缓冲区的介绍,我们可以数据缓冲区分为:读缓冲和写缓冲。...构建写缓冲区 场景假设:实现点击量的记录 最Low的做法是每有一个用户点击,就把数据库的相关值加1.但这种每次更新数据库的做法显然不够高效,当访问量很大,需要不断更新数据库,大大降低服务器的整体性能...因此,访问量的登记完全可以存入写缓存,当访问量存到1000,一次性写入数据库,从而数据库更新频率从1000次降低到1次,大大节省了开销。 当然,使用缓存随之带来数据实时性降低的问题。...但对于像访问量这种无关紧要的数据来说,用降低实时性来换取服务器性能开销,还是相当划算的。 注意:小心线程安全问题!

    94660

    深入解析JVM内存分配优化技术:TLAB

    这种同步操作是非常昂贵的,大大降低系统的性能。 1.3 TLAB的作用 为了减少对堆内存的同步访问,JVM引入了TLAB。TLAB是每个线程私有的内存区域,用于分配小型对象。...三、TLAB的优势分析 3.1 减少锁竞争 如前所述,TLAB通过为每个线程分配独立的内存空间,消除了多线程之间的内存分配竞争。这大大降低了锁竞争的可能性,提高了系统的并发性能。...如果设置得过大,浪费内存资源;如果设置得过小,导致频繁的TLAB空间不足,从而影响性能。因此,需要根据应用的实际需求和硬件环境来合理设置TLAB的大小。...在实际使用,应该根据具体的JVM版本和应用程序的需求来选择合适的参数配置。 4.2 关注TLAB的填充和回收 当TLAB空间不足,JVM进行TLAB的填充和回收操作。...诚邀关注公众号 『 码三十五 』 ,获取更多技术资料。

    17610

    线程安全的集合类(ConcurrentHashMap面试超高频考点)

    CopyOnWrite容器即写复制容器: 当往一个容器添加元素的时候,不往该容器中直接添加元素,而是先将该容器进行复制一个新的容器,添加的时候往复制的容器添加 添加完后,原容器的引用指向新复制的容器...CopyOnWrite容器是一种读和写分离的思想,读和写的容器是不同的 优点:在读多写少的情况下,性能高 缺点:占有内存多,新写的数据不能被第一间读到 多线程环境下使用队列(Queue) 使用阻塞队列...对象,就会出现竞争锁,造成锁冲突 缺点: 因为方法加上了锁,所以每次使用的时候都要获取锁,释放锁,性能效率比较低下 ️ConcurrentHashMap 底层数据结构为数组+链表+红黑树,红黑树和链表在某种条件下互相发生转换...⏲️对于写操作,写操作仍然使用synchronized加锁,但是锁的不是整个数组,如果数组是链表,锁头结点,如果数组是红黑树,锁根节点,这样大大降低了锁冲突发生的概率,即多个线程操作不同的结点还是并发并行执行的...,就搬几个元素新数组 新老数组是同时存在的 后续的线程参与搬几个元素新数组的过程 待老数组的所有元素都搬完,删除老数组 对于扩容的操作,插入只往新数组插,查找需要同时查找新数组和老数组

    13030

    浅谈window桌面GUI技术及图像渲染性能测试实践

    提供 Win32 API的dll被加载到应用程序的进程,应用程序通过这些API来创建线程、窗口和控件。...Win32程序,所有窗口和控件都是一个窗口类的实例,都拥有一个窗口句柄,窗口对象属于内核对象,由Windows子系统来维护。...,在渲染过程快速截图,实时比较两幅图片是否完全相等,如果相等并结束计时并写入响应时间。...DPI设置,机器的DPI设置为120%,100x100大小的控件显示为120x120像素 当在远程桌面上运行测试,远程连接的选项“字体平滑”影响控件显示和输出的图片 大屏幕可视化WPF应用 由于大屏幕的分辨率...近100MB的图片实时截图并进行判断,本身两个动作就会对机器的计算资源消耗巨大,严重影响性能测试准确性。

    3.7K30

    AI生成代码加速代码屎山噩梦?

    研究者们也确实发现了一些变化趋势,显示代码的添加、删除、更新和复制/粘贴量都有显著增加,但是代码移动的比例则有所减少。他们还发现代码重复率大幅增加,从2020年的3.3%提高目前的7.1%。...通常来说,代码移动是开发者重构代码的一个重要标准。具体来说,就是要在改善代码设计和结构的同时,确保不会改变原有的功能。...但可以确定的是,AI 编码助手绝对不会消失,相反它会像所有新工具一样不断进行改进,开发者学习如何优化它的思路,提高它的使用效果。实际上,现在的开发者们已经开始认识代码质量的重要性。...根据GitHub和Wakefield Research的调查报告显示,在被调查的程序员,当被问及“在积极使用人工智能,应该根据哪些指标进行评估?”,“代码质量”被认为是最重要的问题。...生成代码可直接复制IDEA。

    16710

    BP-Wrapper:无锁竞争的缓存替换算法系统框架

    如果缓存管理的页替换算法不支持扩展,则可能严重降低系统的性能。大多数替换算法会使用锁来保护数据结构,但并发访问也会引起大量锁竞争。...(2)大多数替换算法会在每次页访问更新它们的数据结构,因此一个线程必须在每次页访问请求获取锁,并执行替换算法操作。高度的锁竞争可能严重降低多处理器系统上DNMS系统的性能。 III....例如,当在 Altix 350服务器上使用两个处理器,在3个负载下,平均降低了pg2Q上82.4%的平均锁竞争,当处理器数目为4降低的锁竞争的百分比减少60.2%;当处理器数目为8降低的锁竞争的百分比减少...当继续增加处理器的数目,在常见的多核处理器,锁竞争变得更严重,这种情况下,pgBat-Pre可以帮助进一步降低锁竞争,提升系统性能。 E....总体性能 本节,我们评估当PowerEdge 1900上的处理器数为8,3个系统pgClock, pg2Q 和 pgBat-Pre的整体性能

    1.1K20

    分布式队列编程优化篇

    如果由于某种原因队列服务不可用,或者性能恶化,随着新请求的到来,生产者的处理线程就会产生堆积。这可能导致如下两个问题: 系统可用性降低。...生产者接收线程在收到请求之后第一间不去处理,直接请求缓存在内存(牺牲一致性),而在后台启动多个处理线程从缓存读取请求、进行处理并写入分布式队列。...消息确认机制往往大大降低队列的吞吐量以及响应时间。 如果在处理请求和写队列之间添加一层缓存,消息写入程序批量消息写入队列,可以大大提高系统的吞吐量。...对于需要确认机制的消息,确认机制往往大大降低队列的吞吐量以及响应时间,某些高敏感的消息需要多个消息中间件代理同时确认,这近一步恶化性能。...在多线程或者多进程的系统中考虑完整性和一致性往往大大地增加代码的复杂度和系统出错的概率。 单例服务优化 几乎所有串行化理论真正解决的问题只有一个:性能

    92540

    jvm系列--锁

    4.如果轻量级锁失败,表示存在竞争,升级为重量级锁(常规锁) 在没有锁竞争的前提下,减少传统锁使用OS互斥量产生的性能损耗 在竞争激烈,轻量级锁多做很多额外操作,导致性能下降 。...如果同步块很长,自旋失败,降低系统性能。...使用OS互斥量在操作系统层挂起  七.减少锁粒度 大对象,拆成小对象,大大增加并行度,降低锁竞争  偏向锁,轻量级锁成功率提高 ConcurrentHashMap : HashMap的同步实现  Collections.synchronizedMap...HashEntry put操作 先定位Segment,锁定一个Segment,执行put  在减小锁粒度后, ConcurrentHashMap允许若干个线程同时进入  八.锁分离 根据功能进行锁分离...当多个线程同时使用CAS操作一个变量,只有一个胜出,并成功更新,其余均会失败。失败的线程不会被挂起,仅是被告知失败,并且允许再次尝试,当然也允许失败的线程放弃操作。

    10010

    程序员过关斩--请不要误会redis 6.0 的多线程

    线程机制使得redis内部代码实现的复杂度和难度大大降低,请求都是按照串行化的顺序来依次执行,这大大降低了由于线程切换带来的资源消耗,而且又可以避免锁带来的一系列问题。...redis单线程瓶颈 redis所有数据放在内存,在充分利用pipelining技术的情况下,QPS可达百万,这个量级对于普通的中小公司已经足以,就算是再大一点的请求量,利用redis集群方式也能抗住...为了直观的更好了解整个流程,一般分为以下几个步骤: 当客户端有新的socket连接,主线程负责接收连接,并把socket放入全局的等待队列,当主线程处理完读事件之后,通过轮训的方式这些连接分配给...redis6.0多线程测试 Redis 作者 antirez 在 RedisConf 2019 分享曾提到:Redis 6 引入的多线程 IO 特性对性能提升至少是一倍以上。...国内也有大牛曾使用 unstable 版本在阿里云 esc 进行过测试,GET/SET 命令在 4 线程 IO 性能相比单线程是几乎是翻倍了。

    45340

    详解Android UI线程卡顿收集

    希望实现的效果为: 非侵入式,不需要到处打点,破坏代码的优雅性 精准定位,直接定位行 不影响App性能 1.3卡顿监控系统整体结构 整个系统分成4部分: 主线程卡顿采集SDK 性能数据上报SDK 服务端收集数据后...执行前采样线程要先休眠一段时间,这样做的主要原因就是为了不对主线程的短消息(即执行时间很短的message)进行干扰,避免抢夺cpu资源,降低性能的影响。 采样示意图: ?...主线程:发生卡顿后需要从采样线程的对象池中将属于T2-T1间段的堆栈等采样信息保存起来,数据传递给缓存池。...关键行:客户端过滤堆栈内容,找到带有jd或者jingdong包名的代码行,标记为关键代码行,关键行做为数据聚合的依据,这样做可以大大减轻服务端的数据聚合压力。...2.4 开发过程遇到的问题 1、 Printer替换:由于任何一个模块都可以设置主线程的Printer,测试发现,经常有其他未知模块替换掉主线程的Printer,最典型的就是WebView类,WebView

    2K60
    领券