IT时报 -V11 未来篇-
11未来篇
  • ·无标题
  • ·算力2.0:无限向人脑靠近

算力2.0:无限向人脑靠近

  对于AI的未来,调整算法固然可以减少对数据量和算力的需求,但根本而言,AI仍然是一个需要大算力的技术,尤其在生物、气象等大自然领域,海量的数据依然要靠大型超算夜以继日地运算,而量子计算和AI的结合,则很可能让算力呈现爆发式增长。
量子人工智能将真正认知自然
  2000年,因为对计算理论的贡献,姚期智被授予图灵奖,而他的回国填补了国内计算机学科的空白。在这位年过古稀的老科学家眼中,量子物理是最美丽的物理法则,如果有一个足够强大的量子计算机,也许有可能模仿大自然量子法则,从而理解自然智能。当人工智能与量子计算机结合,人们对世界甚至宇宙的探索会有更加深刻的认识,“深度学习的发展给了科学家一个如何看待计算机科学的新角度,是不是可以将量子计算和人工智能结合,进行量子人工智能,量子计算本身就能扩大了人类获得知识、认知宇宙的能力,也许通过两者的结合,人类可以真正有机会‘攻克’自然界。”
  姚期智把着眼点放在量子人工智能不难理解,量子计算是他上世纪90年代开始主攻的研究领域。
  抛去多粒子纠缠、量子比特、多量子系统等晦涩难懂的名词,具有超快的并行计算和模拟能力的量子计算机令人兴奋。量子计算机的计算能力有多强?有人打了个比方:如果将现在的计算机速度比作自行车,那么量子计算机的速度就是飞机。
人工智能可与多学科结合
  量子计算机什么时候出现?何时能与人工智能相结合?对于看好这一产业的人来说,这是必须要思考的问题。迄今为止,科学家们还并没有对开发量子计算机的最佳方法达成一致。面对场景多元化的人工智能,其他学科已经率先与之结合。“人工智能刚刚开始,需要做的不只是把机器的计算能力再提升,还有许多科学问题亟待突破,要把心胸放大,深度学习需要和很多学科结合在一起,数学、计算机、神经科学等等。”姚期智说。
  值得注意的是,学术界已经注意到交叉学科为人工智能发展带来的更多可能性,开始汇聚计算机、统计、心理学、人文社科等领域的力量与人工智能相结合。比如,通信和计算机的交叉学科云计算,把云计算的运作模式与人工智能深入融合,可以把庞大的人工智能运行成本转移到云平台,从而降低终端设备使用人工智能技术的门槛。另外,神经科学提供的神经网络模型,对人工智能的发展也颇有贡献,2018世界人工智能大会的学者不乏生物领域的专家,一些企业甚至已经喊出“神经科学是人工智能领域创新关键”的口号。
  数据显示,2011年,人工智能识别图像的错误率是26%,2016年的错误率下降到3%,比人类的识别能力要高出2%,这样的数字源于神经网络和深度学习在人工智能领域的爆发。
类脑芯片让机脑超越人脑
  人工智能正在改变各行各业,而芯片是实现人工智能的载体,但传统芯片却遇上冯·诺依曼结构瓶颈。
  目前,计算机采用的是冯·诺依曼体系结构,而满足这个结构必须有一存储器、一个控制器、一个运算器、必须有输入设备和输出设备用于人机通信,另外,程序和数据统一存储并在程序控制下自动工作。有人将这称之为“内存墙”,意思是CPU再快,也要等内存。
  如今,越来越多的人工智能应用需要专门的AI加速器或计算卡,从业认识开始关注专门用于处理人工智能应用中的大量计算任务的模块,与通用芯片不同,AI芯片主要用于处理专用任务,比如安防中高清视频的识别、自动驾驶时的数据计算等等。这类的处理器主要分为GPU、FPGA、ASIC等类型,其中专用定制的ASIC芯片被认为是人工智能芯片的主要方向,寒武纪的GPU,地平线的BPU都属于ASIC芯片。
  值得关注的是,在ASIC芯片里还有一个特殊的群体——类脑计算,正如尤瓦尔·赫拉利的《未来简史》中传达出的观点,人类开始复制自身,几十年来,科学家一直“训练”电脑,使其能够像人脑一样思考,而类脑芯片就是模拟人类大脑处理信息的新奇的微芯片。“为了应对各种认知任务,大脑要在短时间内保存和处理各种感兴趣的信息,完成这个过程的大脑系统就是‘工作记忆’。工作记忆是形成语言理解、学习与记忆、推理和计划等复杂认知能力的基础。此外,基于生物层面的神经突触信号传递作用机制、脑区间环路特征、脑信息表达与处理、脑结构和功能图谱、脑重大疾病发病的环路机制等成为研究热点,这些都为人工智能的突破性发展提供了新的方向。”在9月18日至19日复旦大学举办的类脑人工智能主题论坛上,复旦大学校长许宁生说。
  研究表明,人类大脑平均每秒可执行1亿亿次操作,所需能量只有10~25瓦特,如果让一台超级计算机来完成同样的工作,需要消耗的能量超过人脑的1000万倍。科学家们试图通过模拟人脑运转机制,利用神经元进行传输数据,使计算机能低能耗高功效地进行计算。
  类脑芯片的研发非常困难,许宁生表示,复旦大学已经布局了四年,期望通过脑科学的深入研究和神经机制的系统解析,“破译”大脑信息处理与神经编码的原理,再通过信息技术予以参照、模拟和逆向工程,形成新一代人工智能通用模型与算法、类脑芯片器件和类脑智能各类工程技术应用等新型研究领域。
异构计算:“后摩尔定律时代”的新选择
  “摩尔定律”究竟还能走多远?一旦摩尔定律正式成为历史,半导体产业该如何继续向前迈进?过去30年里,集成电路的工艺进步经历了多个现象级的飞跃提升,例如,工艺从毫米、微米、纳米级进步,到现在的3-5nm工艺,接近现有电子材料及光刻技术的极限,然而,芯片厂商们突然发现,按照“摩尔定律”继续提升芯片性能所付出的成本也变得越来越庞大,甚至已经成为当前集成电路行业面临的最大挑战:芯片设计和应用的编程开发越来越复杂,研发投入(IP、设计团队等)和工艺制造越来越昂贵,而市场却开始呈现碎片化的趋势。
  然而,在AI领域,却呈现出另一种新的现象,不少企业纷纷宣布推出自己的AI芯片,在本次WAIC上,地平线、寒武纪、酷芯等公司都展出了自己的AI芯片,且研究方向各有不同。记者发现,酷芯的AR8000系列芯片组,采用自己研制开发的无线通信协议,可以在4G等移动蜂窝网络信号弱的时候传输高清图像,2014年起,全球出货的中高端民用无人机中,70%以上都是使用酷芯方案,而酷芯在WAIC上新发布的AR9201芯片组,是通信与边缘智能处理的融合SoC(系统集成芯片),采用自主研发的远距离无线基带和射频、高性能ISP (Image Signal Processing)、神经网络专用加速器、视频编解码等核心技术;地平线的自动驾驶软硬体一体化计算平台Matrix则在WAIC上入围了世界人工创新大赛,也是入围该榜单的唯一一个软硬结合嵌入式人工智能计算平台,其二代自动驾驶处理器也已经基本成型,预计于明年1月流片,其算力从一代的1T提升至4-5T。
  成本与需求的同步增加,使半导体行业越来越需考虑一个问题:能否通过芯片架构的创新,实现大幅提升性能和降低功耗的同时,显著降低设计制造费用和芯片设计、应用编程开发的门槛,一个更小的设计团队能不能完成复杂芯片的设计、应用开发的复杂度能不能大幅度降低。
  在目前所有的架构创新中,量子计算、类脑计算等离大规模商用还有相当长的距离,而最近十分火热的“异构计算”成为近年来架构创新的主赛道。
  国内第一家从事下一代异构计算处理器芯片设计的集成电路企业华夏芯相关人士告诉记者,广义来说,不同指令架构的计算单元(如CPU与GPU)之间实现高效协同计算都可以称之为“异构计算”。全球异构系统架构(HSA)联盟主席John Glossner认为,面对大数据、人工智能对计算性能的爆发式需求,各种创新的神经网络算法及相应的计算实现架构层出不穷,传统芯片设计架构已经难以满足应用对计算能力的需求,因此以异构计算为代表的架构创新正在成为一个新的风口,并且正在成为新一代软硬件计算体系和高端复杂芯片的主流设计平台。
  但由于产品设计难度大、生态系统需要重新构建等挑战,在过去很长一段时间里,异构计算一直处于不断演进中,John Glossner认为,必须要走建立相关标准和规范、众多厂商协同合作这一途径。
  在中国,异构标准化行动也已开始,由HSA联盟成员中国电子技术标准化研究院和华夏芯(北京)通用处理器技术有限公司牵头,组建了HSA中国区委员会(CRC),目前成员单位已有40余家,涵盖中国本土知名的半导体企业、高校和科研院所,CRC主要针对中国异构计算的实际需求,对HSA标准进行扩展、适配和修订,这些工作成果将反馈回HSA联盟,成为全球标准的一部分。