站在巨人的肩膀上,才能看得更远。 If I have seen further, it is by standing on the shoulders of giants. 牛顿
这是向MIPS架构移植软件的问题系列之第二篇。上一篇《MIPS架构深入理解8-向MIPS架构移植软件之大小端问题》中,我们讨论了大小端对于移植代码的影响。那么本文,我们再从Cache理解一下对于移植代码的影响,尤指底层代码或操作系统代码。
在之前的文章《MIPS高速缓存机制 》中,我们已经了解了初始化和正确操作Cache的方法。本段主要讲解一些可能出现的问题,并解释如何处理这些问题。
大部分时候,Cache对软件都是不可见的,只是一个加速系统执行的工具。也就是编程人员无需干预。但是,当需要处理DMA控制器及其类似的事物时,考虑把Cache作为一个独立的内存缓存会很有帮助,如下图所示:
我们知道,Cache和内存之间的传输总是以16字节或32字节对齐的内存块作为传输单元。即使CPU只是读取一个字节,仍然会加载这样的内存块到Cache行中。
理想情况下,内存的状态与CPU请求的所有操作都是最新的,每个有效的Cache行都保存一份正确的内存备份。不幸的是,实际的系统根本就达不到这种理想的情况。假设每次复位之后都初始化缓存,并且也不存在《MIPS高速缓存机制》一文中提到的Cache重影问题。Cache和内存之间还是会存在数据不一致的问题。如下:
为此,MIPS架构提供了Cache指令,可以根据需要调用它们,消除这种内存和Cache的不一致性。这些指令可以将最新的Cache数据写回到内存中,或者根据内存的最新状态失效对应的Cache行中的内容。
当然了,我们可以把数据映射到非Cache的内存区,比如kseg1
区域。比如,网络控制器,映射一段非Cache的内存区保存读写的数据和标志位;这样可以方便快速的读取数据,因为不需要同步Cache和内存中的数据。相同的,内存映射的I/O寄存器,最好也映射到非Cache的内存区,通过kseg1
或其它非Cache内存区中的指针进行访问。如果为I/O使用经过Cache的内存区,可能发生坏事情。
如果你需要使用TLB映射硬件寄存器,从而进行访问,你可以标记页转换为非Cache内存区(当然了,这不经常使用)。当I/O寄存器的内存地址不在低512M物理地址空间的时候,该方法是非常有用的。
还有的使用情况就是映射类似图像帧缓冲区为使用Cache的内存区,充分利用CPU的Cache充填和回写的block读写速度,提高像素帧的刷新频率。但是,每次图像帧的访问,都需要失效和回写Cache,显式地管理Cache。有一些嵌入式CPU,可能会提供一些奇怪但好用的Cache选项,请仔细检查对应芯片的手册。
Cache管理和DMA数据传输是一个很容易出错的地方,即使很有经验的编程者也常常会犯错。对此,不要犯怵;只要清晰地知道自己想干什么以及怎么干,就能让Cache和DMA传输正常工作。
比如,当从网络上接收到数据后,DMA设备会直接把数据存进内存,大部分MIPS系统不会更新Cache–即使某些Cache行中持有的地址落在DMA传输更新的内存区域中。随后,如果CPU读取这些Cache行的数据,将会读取Cache中旧的、过时的数据;就CPU而言,没有被告知内存中已经有了新数据,Cache中的数据仍然是合法的。
为了避免这种情况,你的程序必须在CPU尝试读取落在DMA缓冲区对应地址范围的数据前,主动失效对应Cache行中的内容。应该将DMA缓冲区的边界和Cache行的边界对齐,这样更容易管理。
对于通过DMA向外传输数据,比如网络通信,你必须在允许DMA设备传输数据之前,完全确保Cache中的数据都已经更新到对应的内存发送区域里了。也就是说,在你的程序写完需要由DMA发送的数据信息之后,必须强制写回所有的落在DMA控制器映射的内存地址范围的Cache行中的内容到内存中。只有这样,才能安全启动DMA传输。
有些MIPS架构CPU,为了避免显式的回写操作,配置为直写式Cache。但是,这种方案有一个缺点,直写式Cache会造成总体性能上更慢,也会增加系统的电源功耗。
当然,你也可以通过映射DMA的传输数据区到非Cache内存地址区,避免显式的失效和回写操作。这也是不推荐的一种方式,因为从整体上会降低系统的性能。因为使用Cache读写内存的速度肯定要快于直接从内存读取数据。最好的建议就是使用Cache,只有下面的情况避免使用Cache:
移植性比较好的操作系统,比如Linux,不管是复杂的、不可见的Cache,还是简单的Cache,都能很好的适配。即,Linux一般提供一组很完备的API,供驱动编写者使用。
假设,我们想在程序的执行过程中,产生新的代码,然后跳转到新代码中执行。常见的示例有在线更新程序。必须确保正确的Cache行为。
如果不注意,这个过程中,可能会在两个阶段带来非预期的结果:
当然了,你也可以使用非Cache区域保存新的代码指令,然后执行它们。但是,这毕竟放弃了Cache的加速效果不是。
我们在《MIPS高速缓存机制》一文中描述的Cache管理指令都是协处理器CP0指令,只有特权级的代码才能使用。一般情况下,DMA操作也是内核完成的,这些都没有异议存在。但是,当用户态的应用程序也想要这样写指令,然后执行的话(比如,现在的即时性的解释性语言),却无法访问这些指令。
所以,MIPS32/64提供了synci
指令,它可以执行D-Cache的回写操作和I-Cache的失效操作。具体可以参考MIPS指令集参考。
如果你混合使用Cache和非Cache程序地址访问同一段物理内存空间,你需要清楚这意味什么。使用非Cache程序地址往物理内存中写入数据,可能会造成D-Cache或I-Cache中保留一份过时的拷贝(相同地址)。使用非Cache程序地址直接从内存中加载数据,可能是旧数据,而最新的数据还停留在Cache中。
上电复位后,在引导系统进入一个已知状态的底层代码中,使用Cache和非Cache程序地址引用同一段物理地址空间是非常有用,甚至是有非常有必要的。但是,对于运行中的代码,一般不要这样做。而且,不管是使用Cache程序地址,还是使用非Cache程序地址访问物理内存,一定要保证它的一致性。
我们在《MIPS高速缓存机制》一文中已经描述了Cache重影的根源。L1级Cache使用虚拟地址作为索引,而使用物理地址作为Tag标签,如果索引的范围大于、等于2个page页,就可能发生Cache重影。索引范围等于一组Cache的大小,所以,使用4KB大小的page页的话,在8KB大小的直接映射Cache或着32KB大小的4路组相关的Cache上就可能会发生Cache重影。
发生Cache重影会有什么后果呢?在进程上下文切换的时候,必须首先清空Cache,要不然,上个进程映射的物理地址,可能与新进程映射的物理地址相同,导致同一物理地址在Cache上有2份拷贝,可能会导致意想不到的后果。再比如,使用共享内存的时候,多个进程的虚拟地址都可能引用这个数据,如果发生Cache重影,那么也会导致共享内存中的数据不正确。
为此,聪明的软件工程师们想了一个巧妙的技巧:页着色技术
,又称为Cache着色,其实都是一回事,叫法不一样而已。具体的做法就是,假定page页的大小是4K,然后给每一个page页分配一个颜色(此处的颜色就是一种区分叫法而已,没有任何实际动作),使用虚拟地址的某几个比特位来标记颜色。当然,也可以选择使用物理地址中的某些比特位标记颜色。相同颜色的虚拟地址对应一组Cache。所以,两个虚拟地址想要指向同一个物理地址的数据,必须具有不同的页颜色。也就是说,页着色技术要求页分配程序把任一给定的物理地址映射到具有相同颜色的虚拟地址上。
颜色数是否与Cache的way数相等?应该是相等的。
比如说,Linux操作系统,多个虚拟地址可能都会访问一个物理页(共享库)。
大部分时候,操作系统OS对于共享数据的虚拟地址的对齐肯定满足要求-共享进程也可以不使用相同的地址,但是,我们必须保证不同的虚拟地址必须是64K的倍数,所以不同的虚拟地址具有相同的颜色。也就避免了Cache重影。这可能消耗更多的虚拟内存,但是虚拟内存又不值钱,对吧?😀
想象一下,加入数据都是只读的,Cache重影还会有影响吗?当然是没有什么问题了。但是,必须保证你的程序知道,在失效某个数据的时候,Cache的其它地方还有一份拷贝。
随着带有虚拟内存管理的操作系统OS在嵌入式和消费者电子产品市场的广泛应用,越来越多的MIPS架构CPU,在硬件层面就消除了Cache重影。相信随着时间的推移,这个问题也许就不存在了吧。
本文我们主要是从MIPS32/64架构规范展开讨论的,在实际的芯片设计开发过程中,越来越多的公司,考虑硬件层面消除Cache的副作用。毕竟,要软件人员时刻保持Cache的一致性太难了。这也是MIPS架构硬件从简,软件辅助的设计思路带来的弊端;也是与X86和ARM架构的竞争中败下来的原因。所以,对于Cache,我们可以不必过多忧虑,针对具体的芯片具体分析就可以了。
但是,对于上面的知识点,如果掌握了的话,不管是在开发驱动程序,还是开发操作系统,亦或是移植别的软件工程到MIPS架构上,都是有百利无一害的。
本文分享自 嵌入式ARM和Linux 微信公众号,前往查看
如有侵权,请联系 cloudcommunity@tencent.com 删除。
本文参与 腾讯云自媒体同步曝光计划 ,欢迎热爱写作的你一起参与!
扫码关注腾讯云开发者
领取腾讯云代金券
Copyright © 2013 - 2025 Tencent Cloud. All Rights Reserved. 腾讯云 版权所有
深圳市腾讯计算机系统有限公司 ICP备案/许可证号:粤B2-20090059 深公网安备号 44030502008569
腾讯云计算(北京)有限责任公司 京ICP证150476号 | 京ICP备11018762号 | 京公网安备号11010802020287
Copyright © 2013 - 2025 Tencent Cloud.
All Rights Reserved. 腾讯云 版权所有