2019年,是新兴科技发展史上的重要年份。
这一年,各大公司的AI、云计算、大数据走向下沉市场,空中博弈进入到地面作战,技术的商业化成为生意成败的重要考量。其间,产业与场景成为大漏斗,好的技术得以被筛选重用。
回首相望,过去的365天,产业AI与产业互联网成为AI落地的关键词,AI芯片规模化应用,专用芯片起势,机器学习、深度学习在工业、能源等各个场景进行实战;云计算成为百行千业数字化转型的核心纽带,云一跃成为巨头的核心赛道;5G在2019年迎来正式商用,牌照相继发放,5G也在带动物联网、车联网的爆发,城市的数字化、孪生化成为共识;此外,区块链在2019年褪去热火,进行理性时代,并上升至国家战略,想象空间巨大···
这些,也刚好在此前阿里达摩院发布的《2019十大科技趋势》中被言中。
但是,在2019这一整年,科技发展形势“一片大好”的背后,我们也试图追索那些深藏在暗处的隐忧,并为之提出更好的应对之策,对未来尽责。
2020年1月2日,一元初始、万象更新的时刻,阿里达摩院又再度重磅向业界发布《2020十大科技趋势》,对AI、芯片、云计算、区块链、量子计算以及工业互联网等科技领域的未来发展做了重要预测。
这些趋势分别为:
-
1、人工智能从感知智能向认知智能演进
-
2、计算存储一体化突破AI算力瓶颈
-
3、工业互联网的超融合
-
4、机器间大规模协作成为可能
-
5、模块化降低芯片设计门槛
-
6、规模化生产级区块链应用将走入大众
-
7、量子计算进入攻坚期
-
8、新材料推动半导体器件革新
-
9、保护数据隐私的AI技术将加速落地
-
10、云成为IT技术创新的中心
总体而言,最新的十大科技趋势不仅是总结过去多年的技术面貌,同时对技术发展瓶颈进行了一针见血的点评,对产业走向、技术协同进行了辩证思维的考量,称得上是一份值得重点研读的报告。
1
什么在掣肘技术的发展?
阿里达摩院作为致力于探索科技未知,以人类愿景为驱动力的,立足于基础科学、创新性技术和应用技术的研究院,从诞生第一天起,就有3个重要使命:“活得要比阿里巴巴长”、“服务全世界至少20亿人口”、“必须面向未来、用科技解决未来的问题”。
在2年多的科研经历中,达摩院在机器智能、数据计算、机器人、金融科技等领域进行了诸多前沿的探索,并在此期间引进技术大牛,建立了完善的多学科人才基础,在技术前瞻性上,达摩院走在业界前列。
达摩院也注意到,AI领域在取得不错成绩的今天,“拦路虎”依然众多。
比如,AI的感知智能虽然超越人类水准,但是认知智能天花板依然存在,须从认知心理学、脑科学以及人类社会的发展历史中汲取更多的灵感,并结合跨领域知识图谱、因果推理、持续学习等研究领域的发展进行突破,以推动下一代具有自主意识的AI系统的建设。
再比如,存储和计算中的冯·诺伊曼“瓶颈”(或“内存墙”)问题依然严峻,越往后,AI运算中数据搬运更加频繁,需要存储和处理的数据量远远大于之前常见的应用,AI要有突破,须对设计模式、计算架构维度做出创新。
芯片是计算的核心,受到成本和市场压力的驱使,半导体产业在积极寻找新的芯片开发模式,来满足低成本、快速的需求。特别是随着芯片制程从10nm缩减到7nm,接下来还要进一步缩减到5nm,每一次制程缩减所需要的成本和开发时间都在大幅提升,但模块化将是个好思路。此外,随着摩尔定律逐渐失效,以硅为主体的经典晶体管缩放已经越来越难以维持,这对芯片材料提出挑战。
在目前,工业互联网发展迅猛,甚至推动第四次工业革命的到来,但其依然面临制造企业内部的IT软件系统与OT设备系统须打通、厂外上下游产业链须优化组合、产品的设计和产品生命周期须优化管理等问题。
当然,今天的芯片、数据库、网络、物联网等技术都无法离开云。
随着传统IT接口开始逐渐被云端接口取代,软件技术和硬件技术之间的依赖程度被大幅度降低,云平台、技术开源、云用户三者形成驱动技术创新的新三角。全面上云时代,应用复杂、算力要求极高,算法、软件和硬件的隔阂造成巨大算力的浪费,已经无法满足在超大规模计算场景下提升IT计算效率、降低计算成本的诉求。
此外,区块链技术应用已延伸到数字金融、数字政府、智能制造、供应链管理等多个领域,主流厂商纷纷进入区块链领域推动技术突破和商业化场景落地。区块链将正式面对海量用户场景的考验,这将对系统处理量提出了更高的要求,并加剧参与节点在信息存储、同步等方面的负担。
2
达摩院看到的“2020十大科技趋势”
侠之大者,为国为民
技术发展有瓶颈,但不应成为止步不前的理由。面对科技向前的浪潮,总有人在理性思考,明灯指路。
此次达摩院2020十大科技趋势报告,就是对以上掣肘技术发展问题的最好回答。回答中,还将诸多前沿性技术进行解构、彼此串联,以找到牵引产业创新的最新逻辑,值得详读。
| 附报告全文:
趋势一、人工智能从感知智能向认知智能演进
人工智能已经在“听、说、看”等感知智能领域已经达到或超越了人类水准,但在需要外部知识、逻辑推理或者领域迁移的认知智能领域还处于初级阶段。认知智能将从认知心理学、脑科学及人类社会历史中汲取灵感,并结合跨领域知识图谱、因果推理、持续学习等技术,建立稳定获取和表达知识的有效机制,让知识能够被机器理解和运用,实现从感知智能到认知智能的关键突破。
趋势二、计算存储一体化突破AI算力瓶颈
冯诺伊曼架构的存储和计算分离,已经不适合数据驱动的人工智能应用需求。频繁的数据搬运导致的算力瓶颈以及功耗瓶颈已经成为对更先进算法探索的限制因素。类似于脑神经结构的存内计算架构将数据存储单元和计算单元融合为一体,能显著减少数据搬运,极大提高计算并行度和能效。计算存储一体化在硬件架构方面的革新,将突破AI算力瓶颈。
趋势三、工业互联网的超融合
5G、IoT设备、云计算、边缘计算的迅速发展将推动工业互联网的超融合,实现工控系统、通信系统和信息化系统的智能化融合。制造企业将实现设备自动化、搬送自动化和排产自动化,进而实现柔性制造,同时工厂上下游制造产线能实时调整和协同。这将大幅提升工厂的生产效率及企业的盈利能力。对产值数十万亿乃至数百万亿的工业产业而言,提高5%-10%的效率,就会产生数万亿人民币的价值。
趋势四、机器间大规模协作成为可能
传统单体智能无法满足大规模智能设备的实时感知、决策。物联网协同感知技术、5G通信技术的发展将实现多个智能体之间的协同——机器彼此合作、相互竞争共同完成目标任务。多智能体协同带来的群体智能将进一步放大智能系统的价值:大规模智能交通灯调度将实现动态实时调整,仓储机器人协作完成货物分拣的高效协作,无人驾驶车可以感知全局路况,群体无人机协同将高效打通最后一公里配送。
趋势五、模块化降低芯片设计门槛
传统芯片设计模式无法高效应对快速迭代、定制化与碎片化的芯片需求。以RISC-V为代表的开放指令集及其相应的开源SoC芯片设计、高级抽象硬件描述语言和基于IP的模板化芯片设计方法,推动了芯片敏捷设计方法与开源芯片生态的快速发展。此外,基于芯粒(chiplet)的模块化设计方法用先进封装的方式将不同功能“芯片模块”封装在一起,可以跳过流片快速定制出一个符合应用需求的芯片,进一步加快了芯片的交付。
趋势六、规模化生产级区块链应用将走入大众
区块链BaaS(Blockchain as a Service)服务将进一步降低企业应用区块链技术的门槛,专为区块链设计的端、云、链各类固化核心算法的硬件芯片等也将应运而生,实现物理世界资产与链上资产的锚定,进一步拓展价值互联网的边界、实现万链互联。未来将涌现大批创新区块链应用场景以及跨行业、跨生态的多维协作,日活千万以上的规模化生产级区块链应用将会走入大众。
趋势七、量子计算进入攻坚期
2019年“量子霸权”之争让量子计算在再次成为世界科技焦点。超导量子计算芯片的成果,增强了行业对超导路线及对大规模量子计算实现步伐的乐观预期。2020年量子计算领域将会经历投入进一步增大、竞争激化、产业化加速和生态更加丰富的阶段。作为两个最关键的技术里程碑,容错量子计算和演示实用量子优势将是量子计算实用化的转折点。未来几年内,真正达到其中任何一个都将是十分艰巨的任务,量子计算将进入技术攻坚期。
趋势八、新材料推动半导体器件革新
在摩尔定律放缓以及算力和存储需求爆发的双重压力下,以硅为主体的经典晶体管很难维持半导体产业的持续发展,各大半导体厂商对于3纳米以下的芯片走向都没有明确的答案。新材料将通过全新物理机制实现全新的逻辑、存储及互联概念和器件,推动半导体产业的革新。例如,拓扑绝缘体、二维超导材料等能够实现无损耗的电子和自旋输运,可以成为全新的高性能逻辑和互联器件的基础;新型磁性材料和新型阻变材料能够带来高性能磁性存储器如SOT-MRAM和阻变存储器。
趋势九、保护数据隐私的AI技术将加速落地
数据流通所产生的合规成本越来越高。使用AI技术保护数据隐私正在成为新的技术热点,其能够在保证各方数据安全和隐私的同时,联合使用方实现特定计算,解决数据孤岛以及数据共享可信程度低的问题,实现数据的价值。
趋势十、云成为IT技术创新的中心
随着云技术的深入发展,云已经远远超过IT基础设施的范畴,渐渐演变成所有IT技术创新的中心。云已经贯穿新型芯片、新型数据库、自驱动自适应的网络、大数据、AI、物联网、区块链、量子计算整个IT技术链路,同时又衍生了无服务器计算、云原生软件架构、软硬一体化设计、智能自动化运维等全新的技术模式,云正在重新定义IT的一切。广义的云,正在源源不断地将新的IT技术变成触手可及的服务,成为整个数字经济的基础设施。
版权申明:图文来源于网络,转载意在分享,版权归原创者所有。除非无法确认,我们都会标明作者及出处,如有侵权烦请告知我们,我们会立即删除并表示歉意。谢谢!
联系邮箱:1025462917@qq.com