AI、5G和大内存在数据时代并列称王
集成电路设计领域的“世界奥林匹克大会” ISSCC 一贯是全球半导体设计领域的一个盛会,根据官网最新的预告页面显示,ISSCC 2019的重头戏将不再聚焦摩尔定律和微处理器,而机器学习、高速网络和大内存则在这个数据时代并列称王。
三星和英特尔将详细介绍5G/LTE组合芯片;在快闪记忆体(NAND Flash)方面,东芝将展示一款1.33太比特芯片,西部数据公司将谈论一款有128个芯片层的处理器;在DRAM方面,海力士和三星会汇报DDR5和LPDDR5的情况,另外三星也将单独展示一款用于智能手机深度学习的加速器。
三星的深度学习加速器在0.5伏电压下的速度高达11.5TOPS,仅占据8nm处理器5.5mm2的面积,以双核设计封装了1,024个乘累加单元,性能与以往技术相比提升了10倍。东芝16nm的SoC适用于机器车,一个面积仅为94.52mm2的晶粒就囊括了10个处理器、4个DSP和8个加速器,能释放20.5 TOPS的速度,其图像识别满足ASIL-B的安全等级,控制处理器满足ASIL-D的安全等级。
今年的ISSCC没有关于5nm工艺SRAM芯片的论文发布,尽管有少量关于7nm高速网络集成芯片讨论,而过去的突破中也没有出现涉及旗舰CPU的论文。负责微处理器演示会议的一名组织者表示,他们并不认为这会是一个持续的趋势,但这表明了该行业在产品周期中的地位。
ISSCC邀请了IBM工程师来讲解目前世界上最强大的超级计算机Sierra,处理器演示会议上还将详解一篇有趣的论文,一款功率范围在37-238mW和睿频在80-365MHz的机器人控制器,这款控制器搭载英特尔22nm处理器,旨在与SOI晶片一较高下。
脸谱网AI研究部负责人将讲述如何利用卷积神经网络实现无监督学习,使机器像人类一样自主地从环境中学习。而内存计算作为AI加速的研究热点,清华大学的一款芯片在使用电阻式RAM时的二进制运算性能达到53.17 TOPS/W,而操作延迟只有14.6ns。