首页 > 智能网

超异构驱动数据,数据释放AI价值

来源:智能网
时间:2021-07-16 20:07:23
热度:92

超异构驱动数据,数据释放AI价值AlphaGo的出现,掀开了人工智能发展的新一轮高潮。在这六年当中,以数据为主要驱动力的AI技术,已经从学术热点变成了产业焦点。上海作为中国人工智能

AlphaGo的出现,掀开了人工智能发展的新一轮高潮。在这六年当中,以数据为主要驱动力的AI技术,已经从学术热点变成了产业焦点。

上海作为中国人工智能发展领先地区之一,秉持着“智联世界”的理念,自2018年开始,上海就着手举办了一年一度的世界人工智能大会。每一届世界人工智能盛会总能将知名企业聚集在一起,共同推助AI的发展。

芯片作为数据处理的核心之一,也占据了本届大会的C位——大会同期举办的智能芯片定义产业未来论坛吸引了众多与会者。

英特尔研究院副总裁、英特尔中国研究院院长宋继强以《异构集成:释放人工智能超级力量》为主题发表了演讲。他表示,以GPU和深度学习模型为基础的AI技术并不足以支撑未来人工智能模型,而超异构计算、架构创新则会成为计算创新的关键驱动力。

超异构计算,“超”在哪里?

随着AI的发展,芯片需要承载更多的数据处理功能。而此时摩尔定律发展遇到瓶颈,让业界开始寻求依赖先进工艺而使芯片性能得到提升的方式。于是,可将不同架构的处理芯片整合到一个系统当中,从而达到在控制成本的同时,提升产品性能和效率目的的异构计算,开始受到了市场的关注。异构计算也被视为是支持复杂芯片设计的关键技术之一。

将CPU、GPU、FPGA或其他组合集成到一个板上,也可以说是一种板级异构计算方式。而超异构计算的出现,则促生了 “下一个等级”市场需求的到来。

宋继强表示:“从直观上看,这个等级是将不同架构的计算架构芯片封装在统一个芯片内,但从其内部结构上看,其实是将不同的Die整合起来。所以它能够利用不同架构芯片,在处理不同的数据、不同的任务的时,还拥有独特的性能和在功耗方面的优势。”

宋继强指出,超异构计算当中,强调的是异构封装和构建软件方面的能力。即超异构计算利用异构封装将不同的计算架构的芯片整合到一起,同时,在这个基础上还要构建软件能力。

但软件层面的提升往往被业界所忽略。而软件层面的缺失,则会影响硬件全面发挥其性能。宋继强表示:“经过优化的软件,会百倍提升底层硬件的性能。在I/O、Memory、Cache上的编程瓶颈,会成为底层硬件的软肋。”

尤其是异构计算的出现,进行跨不同处理器单元的芯片设计,也对软件提出了更好的要求。这需要解决跨不同处理单元之间的同步问题,从而使芯片性能得到大幅度的提升。

针对超异构计算中的瓶颈,英特尔推出了适用于超异构计算的异构封装技术。一方面,英特尔推出了EMIB 2.5D的封装技术,另一方面,其所推出的Foveros 3D还可以在计算的Die与计算的Die之间建互连,而不是像传统的方式只能在计算的Die和Memory的Die之间互连。同时,这两项技术还可以互相整合,例如英特尔推出的包括Hybrid Bonding等技术会进一步缩小封装时裸片之间的凸点间距和功耗。而这些技术都已经在英特尔的产品中得以应用。

此外,英特尔还推出了名为One API的开放软件平台,期以利用软件性能的提升来实现硬件的升级。

前沿技术赋能AI发展

作为半导体行业多年以来的领导者,英特尔除了利用超异构计算来促进AI芯片的发展,还在研究更为前沿的技术为未来AI芯片的发展提供可能。

量子计算、神经拟态芯片都是英特尔对未来AI芯片发展探究的一部分。

宋继强表示,虽然量子计算还需要很长的一段路要走,但如果量子计算能够达到中等规模,这种技术将驱动基于数据的大规模模型训练的成长——它可能会有幂数级的加速效应。同时,他也指出,量子计算的应用需要重构现有的算法,算法上的匹配才能驱动硬件发挥更大的价值。

“神经拟态计算为AI芯片带来的突破性好处是能效比”,宋继强表示:“在提供同等算力的条件下,原来需要两千瓦来完成的计算,利用神经拟态计算仅需要几十毫瓦或者是几百毫瓦。”

具有128核、13万神经元、1.3亿突触的Loihi是英特尔推出的神经拟态计算芯片。宋继强指出,英特尔的神经拟态计算芯片内含自学习的机制,以此为基础,硬件本身的性能也能在应用的过程当中得以不断提升。

“它可以在一个多个芯片构成的系统内模拟多个脑区,而这是目前利用深度学习还无法达到的目标,因为模型和模型之间没有好的机制去互通。”宋继强表示:“但在神经拟态计算可利用SNN模型,让它们的输入输出互相关联。”

如果神经拟态计算芯片可发展到10亿级别的神经元(目前是1亿级别的神经元),便可模拟不同的脑区功能。杰夫·霍金在他的《On Intelligence》(中译本《人工智能的未来》)中提到,多层的皮层,实际上在底层需要多种不同的输入感知,包括触觉、视觉、听觉等等。通过神经计算芯片的模型,可将这些输入数据最终归结为一个符号(而不是利用深度学习的方法,通过拍摄很多张照片来进行训练 ),从而实现未来类脑芯片真正要达到的目标。

英特尔研究院为AI插上翅膀

英特尔研究院是他们研究前沿技术的主要的部门之一,同样,研究院也支持了大量的AI技术的发展。

据宋继强介绍,英特尔将AI定位于三个角色。其一,对于产品部门来说(这里指AI硬件部门),AI是一个工作负载,它需要紧跟现在流行的和未来可能要发生的趋势。在这其中,英特尔研究院的职责是针对AI发展趋势,在算法层面进行升级,包括像谷歌推出的新的框架、学术界新的算法。英特尔研究院在算法的基础上进行创新,并通过某些形式给映射到硬件的架构设计当中。即通过工作负载的方式影响未来的硬件架构。

其二,AI被当做一种效率工具去提升设计、生产流程当中的效率,以及实现成本的降低。其三探求下一代的AI可能的突破,而这需要与学术界加强合作。

据宋继强介绍,英特尔全球研究院的人数中至少有一半的员工参与到了与AI相关技术的工作中。从成绩上看,整体而言,英特尔研究院占整个公司发专利的比例是20%。

英特尔中国研究院是英特尔在美国本土以外的重要研究机构之一。其中,AI技术也是英特尔中国研究院的重点研究方向之一。

“英特尔中国研究院对AI技术的研究,主要集中的算法方向”,宋继强表示:“国内算法人员能力比较强,所以,中国研究院结合了这一优势,针对计算机视觉算法方面,进行了一些深度模型的优化,并实现了大量的创新。”

据了解,在过去几年中,英特尔中国研究院已经为多种不同的硬件都提供了算法级和架构级的输入,这是中国研究院主要的贡献方式,同样也是中国研究院区别于英特尔其他研究院的特点之一。

此外,在前沿技术方面,英特尔中国研究院还承担着对神经拟态芯片Loihi的拓展。宋继强表示,在这方面,中国研究院所要做的是,将Loihi对接到中国一些领先的,和神经拟态计算相关的学校或者是企业当中的研究机构,进行相应的硬件方面的平台对接。从而推动下一代AI技术的到来。

结语

从这一轮AI概念的兴起,到现在AI技术逐步实现落地,并进入下一代AI技术研究的阶段。英特尔认为推动AI的规模化创新加上应用,必须要做好三件事:

第一是抓紧数字化转型的趋势,用高性能、高能效的架构去支持多种数据。在这当中,需要解决硬件方面的基本问题。

第二是要真正地去拥抱异构集成。异构集成不只是代表封装,它实际上是指用多种组合拳去解决产品的领导力,time to market的问题。所以英特尔会有架构创新、光互连技术、先进封装技术,再叠加一些软件方面的技术,组合起来解决这个问题。

第三是垂直整合。瞄准一些可以规模化,通过软硬件结合可以创造更大价值的领域,利用应用去拉动多种AI技术的垂直整合。这种方式推动AI创新是大有可为的。

Baidu
map