[发明专利]用于高带宽缩放的一致数据高速缓存有效
申请号: | 201910463512.4 | 申请日: | 2019-05-30 |
公开(公告)号: | CN110908929B | 公开(公告)日: | 2023-06-09 |
发明(设计)人: | W·A·甘地;T·曼达尔;R·K·马尼亚姆;S·S·拉奥 | 申请(专利权)人: | 辉达公司 |
主分类号: | G06F12/0844 | 分类号: | G06F12/0844;G06F12/0877;G06F12/0897 |
代理公司: | 北京市磐华律师事务所 11336 | 代理人: | 高伟;张建 |
地址: | 美国加利*** | 国省代码: | 暂无信息 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 用于 带宽 缩放 一致 数据 高速缓存 | ||
公开了一种用于分布式高速缓存的方法、计算机可读介质和系统,其使多个处理单元快速访问存储在本地存储器中的一部分数据。分布式高速缓存由多个较小的高速缓存组成,并且每个较小的高速缓存与至少一个处理单元相关联。除了通过其在处理单元和较小的高速缓存之间传输数据的共享交叉网络之外,在形成伙伴高速缓存集的两个或更多个较小高速缓存之间提供专用连接。通过专用连接传输数据可减少共享交叉网络上的拥塞。减少共享交叉开关网络上的拥塞增加可用带宽并允许处理单元的数量增加。定义了一致性协议,用于访问存储在分布式高速缓存中的数据,以及用于在伙伴缓存集的较小高速缓存之间传输数据。
技术领域
本发明涉及数据高速缓存,更具体地涉及一致数据高速缓存。
背景技术
当处理器中包括多个处理单元时,每个处理单元可以包括直接耦合到本地存储器切片(silce)的高速缓存。换句话说,每个处理单元包括分布式高速缓存的切片。通常,只有直接耦合到本地存储器切片的高速缓存可以高速缓存存储在本地存储器切片中的数据。处理器内的处理单元通过处理器内的交叉开关网络访问高速缓存(和本地存储器切片)。交叉开关网络上的拥塞限制了增加处理器中处理单元数量的能力,从而限制了提高性能的能力。高速缓存的物理布局受到制约,因为高速缓存应位于交叉开关网络附近,以最小化交叉开关网络中用于高速操作的线路的长度,并最小化交叉开关网络所消耗的芯片面积。需要解决这些问题和/或与现有技术相关的其他问题。
发明内容
公开了一种用于分布式高速缓存存储器的方法、计算机可读介质和系统,包括耦合到第一存储器切片的第一高速缓存存储器和耦合到第二存储器切片的第二高速缓存存储器。第一高速缓存存储器包括第一高速缓冲线,其存储来自第一存储器切片中的第一位置的第一数据并且与第一位置一致,其中第一高速缓存存储器通过专用连接直接耦合到第二高速缓存存储器并且通过共享连接间接耦合到第二高速缓存存储器。第二高速缓存存储器包括第二高速缓冲线,其存储来自第二存储器切片中的第二位置的第二数据并且与第二位置一致,其中第一高速缓冲线通过专用连接被写入第二数据。
附图说明
图1A示出了根据实施例的包括两个处理器的子系统的框图,每个处理器包括多个处理单元和经由交叉开关网络连接相应的高速缓存。
图1B示出了根据实施例的通过专用连接直接耦合的伙伴集中的高速缓存的框图。
图1C示出了根据实施例的用于数据的一致高速缓存的方法的流程图。
图2A示出了根据实施例的逐出高速缓冲线的方法的流程图。
图2B示出了根据实施例的用于完成读取请求的伙伴集内的一致高速缓冲线访问点的方法的流程图。
图3示出了根据实施例的并行处理单元。
图4A示出了根据实施例的图3的并行处理单元内的通用处理集群。
图4B示出了根据实施例的图3的并行处理单元的存储器分区单元。
图5A示出了根据实施例的图4A的流式多处理器。
图5B是根据实施例的使用图3的PPU实现的处理系统的概念图。
图5C示出了可以实现各种先前实施例的各种架构和/或功能的示例性系统。
具体实施方式
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于辉达公司,未经辉达公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910463512.4/2.html,转载请声明来源钻瓜专利网。
- 上一篇:用于内燃发动机的发动机缸体
- 下一篇:汽车共享和出租车服务的综合识别和认证