vlambda博客
学习文章列表

阿里达摩院发布2020十大科技趋势!人工智能、区块链、芯片成焦点

智东西1月2日消息,今天,阿里达摩院发布2020十大科技趋势:

1、人工智能从感知智能向认知智能演进;

2、计算存储一体化突破AI算力瓶颈;

3、工业互联网的超融合;

4、机器间大规模协作成为可能;

5、模块化降低芯片设计门槛;

6、规模化生产级区块链应用将走入大众;

7、量子计算进入攻坚期;

8、新材料推动半导体器件革新;

9、保护数据隐私的AI技术将加速落地;

10、云成为IT技术创新的中心。

以下为十大趋势的概要及解读:

一、人工智能从感知智能向认知智能演进

人工智能在听、说、看等感知智能领域已达到或超越人类水准,但在需要外部知识、逻辑推理或者领域迁移的认知智能领域还处于初级阶段。

实现认知智能是当下人工智能研究的核心,也是未来人工智能热潮进一步打开天花板、形成更大产业规模的关键。

认知智能将结合人脑推理过程,进一步解决复杂的阅读理解问题和少样本的知识图谱推理问题,协同结构化的推理过程和非结构化的语义理解,以及多模态预训练问题。

认知智能的出现使得AI系统主动了解事物发展的背后规律和因果关系、而不再只是简单的统计拟合,从而进一步推动下一代具有自主意识的AI系统。

二、计算存储一体化突破AI算力瓶颈

传统冯·诺依曼计算机架构中存储单元和计算单元分离,而在大数据驱动的人工智能时代,AI运算中数据搬运更加频繁,导致算力瓶颈和功耗瓶颈成为对更先进算法的限制因素,形成“内存墙”问题。

人工智能要进一步突破,必须采用新的计算架构来解决这一瓶颈,而类似于人脑的计算存储一体化能显著减少数据搬运,极大提高计算并行度和能效,成为下一代AI系统的入口。

广义上计算存储一体化计算架构的发展,近期策略关键在于通过芯片设计、集成、封装技术拉近存储单元与计算单元的距离,增加带宽,降低数据搬运的代价,缓解由于数据搬运产生的瓶颈。

中期规划,通过架构方面的创新,设存储器于计算单元中或者置计算单元于存储模块内,可以实现计算和存储融合。

远期展望,通过器件层面的创新,实现器件即是存储单元也是计算单元,不分彼此,融合一体,成为真正的计算存储一体化。

计算存储一体化的出现将通过迫使产业升级,重构现在处理器和存储器的相对垄断的产业格局。在此过程中,可帮助更多芯片行业中小企业发展,为国产芯片弯道超车创造了机会。

三、工业互联网的超融合

5G、IoT设备、云计算、边缘计算的迅速发展将推动工业互联网的超融合,实现工控系统、通信系统和信息化系统的智能化融合。

工业互联网主要解决三个问题:

(1)将制造企业内部的IT软件系统与OT设备系统打通,进行自动派单,实现柔性制造;

(2)在工厂外实现上下游产业链的优化组合;(3)产品的设计和产品生命周期的管理。

随着5G和边缘计算以及IoT PaaS的成熟以及区块链技术的进步,可以突破单个工厂的限制,将价值网络中的上下游企业工厂的制造系统连接起来,进而实现工厂上下游制造产线的实时调整和协同,避免不必要的生产和库存。

工业系统通过工业互联网连接起来,大幅提升工厂的生产效率及企业的盈利能力,如果按照提高5%-10%的效率计算,就会产生2-4万亿人民币的价值。

四、机器间大规模协作成为可能

在大规模智能设备网络中,机器与机器之间的交流与协作将十分重要。这种协作将优化整体的长期目标,涌现群智,从而进一步将智能系统的价值规模化放大。

传统单体智能无法满足大规模智能设备的实时感知、决策。物联网协同感知技术、5G通信技术的发展将实现多个智能体之间的协同。

多智能体协同及群体智能这样全新的人工智能范式的发展和普及,将会带来整个经济社会的升级,让人工智能不再只是单个的工具,而是协调整个人类工作生活网络的核心系统。

五、模块化降低芯片设计门槛

传统芯片设计模式无法高效应对快速迭代、定制化与碎片化的芯片需求。芯片行业格局正逐渐被比市场灵敏度、比需求适配、比速度和价格的“快鱼吃慢鱼”格局所取代。

在应用驱动的趋势下,谁能快速推出专用芯片,就能抢占市场先机。越来越多的系统和应用服务公司在推出专用芯片。

现有的芯片设计模式存在研发成本高、周期长等问题,开发一款中档芯片,往往需要数百人、数千万甚至上亿美元的研发投入,受到成本和市场压力的驱使,半导体产业在积极寻找新的芯片开发模式,来满足低成本、快速的需求。

近年来,以RISC-V为代表的开放指令集及其相应的开源SoC芯片设计、高级抽象硬件描述语言和基于IP的模板化芯片设计方法,推动了芯片敏捷设计方法与开源芯片生态的快速发展,越来越多芯片企业开始尝试开源硬件架构进行设计。

此外,基于芯粒(chiplet)的模块化设计方法正成为新的行业趋势,它用先进封装的方式将不同功能“芯片模块”封装在一起,可跳过流片快速定制出一个符合应用需求的芯片,进一步加快了芯片的交付。

未来计算机的系统结构,可能不是由单独封装的芯片制造的,而是在一块较大的硅片上互连成芯片网络的Chiplets制造的。

六、规模化生产级区块链应用将走入大众

2019年是区块链里程碑的一年,区块链技术正式被定位为国家战略,为区块链产业的发展打开了巨大的想象空间。

区块链的路线之争逐步清晰,从颠覆到补充,从去中心到去中介,联盟链架构成为行业主流技术路线。

展望2020,区块链BaaS(Blockchain as a Service)服务将进一步降低企业应用区块链技术的门槛,区块链网络的“局域网”和“数据孤岛”问题将被新型的通用跨链技术所解决。

专为区块链设计的端、云、链各类固化核心算法的硬件芯片等也将应运而生,实现物理世界资产与链上资产的锚定,进一步拓展价值互联网的边界、实现万链互联。

未来将涌现大批创新区块链应用场景以及跨行业、跨生态的多维协作,日活千万以上的规模化生产级区块链应用将会走入大众。

七、量子计算进入攻坚期

2019年,“量子霸权”之争让量子计算在再次成为世界科技焦点。

谷歌在硬件上的进展大大增强了行业对超导路线和对大规模量子计算实现步伐的乐观预期。2020年的量子计算将蓬勃发展,主要特点是技术上进入攻坚和产业化的加速阶段。

技术方面,超导量子计算仍将继续占据中心舞台,并对其他硬件路线造成严峻的压力。

作为两个最关键的技术里程碑,容错量子计算和演示实用量子优势将是量子计算实用化的转折点。未来几年内,真正达到其中任何一个目标都十分艰巨,量子计算将进入技术攻坚期。

产业和生态方面,政府、企业和学术机构的规划和投入将升级、扩大。竞争将在多个维度激化:领军团队规模扩充的同时透明性下降;人为设障的风险上升。

产业分工将进一步细化:制冷、微波、低温电子控制、设计自动化、制备代工等领域在资本推动、政策扶植和生态滋养下蓬勃发展。各行龙头企业会加力探索应用,助长算法和软件。

八、新材料推动半导体器件革新

在摩尔定律放缓以及算力和存储需求爆发的双重压力下,以硅为主体的经典晶体管很难维持半导体产业的持续发展,各大半导体厂商对于3nm以下的芯片走向都没有明确的答案。

一个可以确定的趋势是,越来越多新材料将通过全新物理机制实现全新的逻辑、存储及互联概念和器件,推动半导体产业的革新。

从近期来看,新材料如锗和III-V族材料可能会代替传统的硅作为晶体管的通道材料以提升晶体管的速度。

从更长远的角度来看,更具挑战性的材料及全新的物理机制将是半导体产业能够保持甚至加速指数式的增长的关键。

材料的生长、器件的制备以及电路的工作原理都会发生根本性的变化。这对设备厂商,晶圆厂及电路设计公司都会带来历史性的挑战和机遇,也会为新兴的公司及产业提供振奋人心的发展机会。

九、保护数据隐私的AI技术将加速落地

数据流通所产生的合规成本越来越高,大量的数据因需依法保护而无法被联合在一起计算。

使用AI技术保护数据隐私正在成为新的技术热点,其能够在保证各方数据安全和隐私的同时,联合使用方实现特定计算,解决数据孤岛以及数据共享可信程度低的问题,实现数据的价值。

保护数据隐私的AI安全技术可通过多种技术结合保护数据安全,包括安全多方计算、差分隐私、同态加密、混淆电路、加密搜索与计算、可信软硬件等;也可利用人工智能保障模型鲁棒与安全性,如模型加固、数据毒化防御、对抗性样本防御等。

十、云成为IT技术创新的中心

云已经远远超过IT基础设施的范畴,渐渐演变成所有IT技术创新的中心。

云已经贯穿新型芯片、新型数据库、自驱动自适应的网络、大数据、AI、物联网、区块链、量子计算整个IT技术链路。

云计算的含义不断扩展,这使得广义上的云计算成为数字经济基础设施。

在All-in-Cloud的时代,基于软硬一体化重新设计的云计算基础设施以及通过云原生的崭新资源交付方式,在提高计算效率、易用性的同时降低计算和运维成本,进一步巩固云成为数字经济时代基础设施。