大参考

 找回密码
 立即注册

QQ登录

只需一步,快速开始

搜索
查看: 7553|回复: 0

戍天九思:新赛道新突破!我国研制出全球神经元规模最大的类脑计算机!

[复制链接]
发表于 2020-9-4 08:49:11 | 显示全部楼层 |阅读模式
  9月1日,浙江大学联合之江实验室在杭州发布一款包含1.2亿脉冲神经元、近千亿神经突触的类脑计算机。该计算机使用了792颗由浙江大学研制的达尔文2代类脑芯片,神经元数量规模相当于小鼠大脑,典型运行功耗只需要350-500瓦,这是目前国际上神经元规模最大的类脑计算机。与此同时,团队还研制了专门面向类脑计算机的操作系统——达尔文类脑操作系统,实现对类脑计算机硬件资源的有效管理与调度,支撑类脑计算机的运行与应用。

  笔者认为,类脑计算是芯片技术和计算模式的重大革命!在中美科技战的特殊背景下,这种重大突破可能为我国芯片技术变道超车、彻底扭转芯片技术受制于人的被动局面带来新机遇新希望!

  类脑计算机与传统计算机的区别

  传统计算机的运算模式叫做冯诺依曼体系,其特点是数据的存储和运算是分开进行的。比如,传统计算机,数据存在内存里,运算要在CPU的运算模块里进行。每次运算时,CPU的控制模块,根据软件的命令,把数据从内存里调到CPU的运算模块进行运算,这个过程效率非常低。

  因此,现在传统计算机有一个很严重的问题叫存储墙,就是说内存里的数据量越来越大,CPU的处理能力越来越快,但它们之间的信息通道却非常狭窄。于是,99%的计算时间和能耗都花在了数据的传输上,真正用于计算的只有1%。说明普通计算机的算力浪费十分惊人,算力利用有巨大的提升空间。

  这种运算模式与我们大脑的运算完全不一样。大脑的运算模式叫做“存算一体”,都是在神经元里面进行的。因此,人的大脑有多达900亿个神经元,进行如此复杂的抽象和推理运算,只有20瓦的功耗,远远低于现在的CPU芯片。

  类脑计算机就是要仿照大脑的模式进行运算,类脑芯片的关键点就是存算一体,可有效避免大量算力浪费在数据交换上。怎么实现呢?据专业讲,现在有好几种技术都能做到了,有一种技术叫做阻变存储器。

  所谓阻变是说器件的电阻会发生变化,电阻值会根据流过的电流来改变,换句话说就是你上一次的运算结果会以电阻值的形式保存在这个电阻里,来影响我下一次的计算。这个机制跟我们大脑中神经元的工作机制是一样的。利用这种新的器件结构和运算模式,类脑芯片很有希望实现高性能低功耗的智能运算,将来甚至可能会有新的智能现象涌现出来。

  因此,类脑计算是一种颠覆传统计算架构的新型计算模式,被视为解决人工智能等领域计算难题的重要路径之一,同样集成度的类脑计算机的算力将比普通计算机高出几个数量级。

  浙江大学类脑计算机的重大突破

  近年来,浙江大学聚焦人类智能与机器智能等核心领域,实施了简称为“双脑计划”的脑科学与人工智能会聚研究计划,希望借鉴脑的结构模型和功能机制,将脑科学的前沿成果应用到人工智能等研究领域,建立引领未来的新型计算机体系结构。

  2015年和2019年浙大分别研制成功达尔文1代和达尔文2代类脑计算芯片,用芯片去模拟大脑神经网络的结构与功能机制,在图像、视频、自然语言的模糊处理中具有优势。而这次的成果是将792颗我国自主产权的达尔文2代类脑计算芯片集成在3台1.6米高的标准服务器机箱中,形成了一台强大的机架式类脑计算机。

  浙大类脑计算机的重大突破,不仅拥有自己知识产权的类脑计算芯片,而且同时研发了专门面向类脑计算机的操作系统——达尔文类脑操作系统。目前该类脑计算机已经实现了多种智能任务,例如将类脑计算机作为智能中枢,实现抗洪抢险场景下多个机器人协同工作;模拟不同脑区建立神经模型,为科学研究提供更快更大规模的仿真工具;实现“意念打字”,对脑电信号进行实时解码等。

  浙江大学校长吴朝晖院士在发布会上表示,人工智能浪潮正加快智能增强时代的到来,类脑计算机将成为未来计算的主要形态和重要平台,将在模拟脑功能、高效实现AI算法、提升计算能力等方面发挥重要的独特作用。面向未来,学科交叉会聚将成为解决重大问题的新方法,基于多学科、多领域的系统创新将成为研制类脑计算机的有效形式。希望今天浙江大学和之江实验室的创新一小步,可以成就人类美好生活的发展一大步。

  世界各国类脑计算研究动态

  近年来,各国对类脑计算高度重视,纷纷制定了发展计划。

  2013年4月,时任美国总统奥巴马宣布启动了名为《通过推动创新型神经技术开展大脑研究》的科研计划。该计划最重要的一个任务便是绘制包括近1000亿个神经元、100万亿个突触的人脑活动图谱。

  2013年,欧盟也推出了一项《人脑计划》。由15个欧洲国家参与,旨在开发信息和通信技术平台,致力于神经信息学、大脑模拟、高性能计算、医学信息学、神经形态的计算和神经机器人研究。

  2015年,我国的“脑科学与类脑科学研究”项目提上日程。包括“三大支柱”和一体两翼”部署:基于认知方面的神经机制的基础研究;神经性疾病早期诊断和介入的研究成果转化;用于发展人工智能以及机器人的类脑研究。“一体”就是以阐释人类认知的神经基础为主体和核心,“两翼”是指脑重大疾病的研究、通过计算和系统模拟推进人工智能的研究。

  目前,各国类脑研究开始从最初的理论研究转向实践突破。比如,2014年8月7日,IBM在《科学》上发表文章,宣布研制成功TrueNorth神经形态芯片,内含100万个神经元和2.56亿个突触,该成果入选2014年十大科学突破。

  2018年3月,德国海德堡大学在一个8英寸硅片上集成了20万神经元和5000万突触,采用这种神经形态处理器的计算机已经成功运行,其神经元采用模拟电路实现,功能比IBM方案更接近生物神经元。

  2019年8月,清华大学施路平教授团队题为《面向人工通用智能的异构天机芯片架构》的论文登上《自然》杂志封面。论文中,施路平教授团队介绍了一款结合了类脑计算和基于计算机科学的人工智能的新型芯片,该芯片含有4万个神经元和1000万个突触。基于这一设计,自行车实现了自动驾驶。

  2020年9月1日,浙江大学联合之江实验室发布的类脑计算机包含1.2亿脉冲神经元、近千亿神经突触。无疑,是类脑计算研究史上的又一次重大突破。

  由于类脑计算机的器件速度是生物神经元和突触的百万倍以上,一旦超过人类大脑的900亿个神经元这个临界点,类脑计算机不仅会全面超过人脑,还可能就会通过涌现方式产生智能。

回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则




QQ|手机版|小黑屋|大参考 |

GMT+8, 2024-5-17 08:50 , Processed in 0.109378 second(s), 16 queries .

 

Powered by 大参考 X3.4 © 2001-2023 dacankao.com

豫公网安备41010502003328号

  豫ICP备17029791号-1

 
快速回复 返回顶部 返回列表