[实用新型]融合非易失多值存储与逻辑运算功能的动态可控器件单元有效
申请号: | 201920091563.4 | 申请日: | 2019-01-18 |
公开(公告)号: | CN209231927U | 公开(公告)日: | 2019-08-09 |
发明(设计)人: | 任天令;李宇星;梁仁荣;赵瑞婷;刘厚方;王方伟;熊本宽;杨轶 | 申请(专利权)人: | 清华大学 |
主分类号: | G06F15/78 | 分类号: | G06F15/78;G11C11/22;G11C5/12;G11C5/14 |
代理公司: | 北京清亦华知识产权代理事务所(普通合伙) 11201 | 代理人: | 张润 |
地址: | 10008*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 非易失 可变性 栅极控制 主晶体管 阻抗 多值存储 控制晶体管 存储单元 单元整体 可控器件 运算单元 运算功能 输入端 与逻辑 本实用新型 传统芯片 计算过程 有效解决 阻抗并联 阈值电压 融合 分立 控时 漏极 源极 搬运 串联 架构 芯片 | ||
本实用新型公开了一种融合非易失多值存储与逻辑运算功能的动态可控器件单元,包括:主晶体管,主晶体管的栅极控制端串联有一个的两端非易失多值可变性阻抗,两端非易失多值可变性阻抗的两端分别为所属主晶体管的栅极控制端与单元整体栅极控制输入端;控制晶体管,控制晶体管的源极和漏极与两端非易失多值可变性阻抗并联;两端非易失多值可变性阻抗,用于当其维持在不同阻抗值时,通过单元整体栅极控制输入端对主晶体管进行栅控时的阈值电压不同,进而实现多值存储的功能。该单元有效解决传统芯片架构中运算单元与存储单元分立实现,使得在计算过程中数据在运算单元与存储单元之间搬运限制了芯片速度进一步提升的技术问题。
技术领域
本实用新型涉及半导体技术领域,特别涉及一种融合非易失多值存储与逻辑运算功能的动态可控器件单元。
背景技术
计算机芯片计算力增长主要来源于两大因素——摩尔定律和硬件架构创新。随着摩尔定律的发展,工艺制程进一步缩小能给芯片技术带来的推动越来越小,摩尔定律的发展速度也开始逐渐放缓甚至有达到尽头的趋势,于是硬件架构创新对计算力的进一步提升将愈发重要,人们开始试图从芯片架构上进行创新来进一步推动芯片技术的发展。在摩尔定律不断减缓甚至会停止的情况下,计算机芯片架构的创新会对计算能力增长起到更为关键的作用。
与此同时,摩尔定律的发展也促使了计算机芯片计算能力的飞速提升,进而在近年来诱发了人工智能的第三次大爆发。在初期,人们使用各种已有的通用芯片技术与架构来实现人工智能神经网络的各种算法,比如CPU(Central Processing Unit,中央处理器)、GPU(Graphics Processing Unit,图形处理器)或者FPGA(Field-Programmable GateArray,现场可编程门阵列)。其中,GPU和FPGA两者各有好处:GPU比较适合在云端,从计算的有效性角度看FPGA更有优势。英特尔、微软等公司,在自己没有GPU的情况下,曾努力推进FPGA的方案。但从应用、做程序的难度看,由于GPU的使用面比FPGA的使用面要更广,做FPGA比做GPU更加困难。然而随着人工智能的进一步飞速发展,已有的传统芯片架构均已不能满足人们对更高、更快、更强计算力的无限渴求,所以人们已经把目光投向可自行定制的ASIC(Application Specific Integrated Circuit,专用集成电路)芯片技术,同样试图对芯片架构进行创新来满足人工智能神经网络对计算力提升的需求。
无论是通用芯片的进一步发展,还是做人工智能ASIC芯片创新,二者均必须要面临一个至关重要的挑战,就是数据在逻辑运算单元和存储单元之间的反复来回搬运,人们称之为存储墙。得益于摩尔定律的发展,处理器逻辑运算单元的运算速度以每年约55%的速度提升,然而存储单元速度仅仅以每年约10%的速度提升,运算单元和存储单元之间的性能差距越来越大,数据搬运的效率不因摩尔定律的发展而提高,甚至可以说相对于运算单元的性能正在逐渐降低。以往常用的传统冯·诺依曼芯片架构和哈佛芯片架构,均将逻辑运算功能与存储功能分开在两个分立的单元中实现,芯片在高速运算过程中需要将大量数据在逻辑单元和存储单元之间进行多次反复的搬运。另一方面,对于面向人工智能神经网络的ASIC芯片来说,随着相关算法的发展和运算数据量的爆炸式增长,人工智能芯片对存储带宽的需求也飞速升高。以谷歌的TPU(Tensor Processing Unit,张量处理器)为例,它所使用的是DDR3SDRAM(Double-Data-Rate Three Synchronous Dynamic RandomAccess Memory)存储架构,访存或者说数据搬运带宽只有30GB/s左右,由于人工智能芯片的独特需求,数据搬移需要的能量在整个计算中占非常大的比重,由于访存带宽极大地限制了TPU性能的发挥,很多时候运算处理单元其实是在停下来等待从存储通过总线搬运过来的运算数据。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于清华大学,未经清华大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201920091563.4/2.html,转载请声明来源钻瓜专利网。
- 上一篇:一种中文字典搜索设备
- 下一篇:一种车载计算单元主板