第三轮人工智能浪潮经过几年的发展,今年在业界听到最多的词就是“场景”。在科技界,AI技术逐渐成熟;在应用界,对AI的价值逐渐认可。人工智能产业进入了技术兑现、技术红利的关键阶段。
AI快速增长的背后,是算力指数级的增长。在今年2021人工智能计算大会(AICC2021)上,IDC联合业界领导厂商浪潮信息一起发布《2021-2022中国人工智能计算力发展评估报告》(以下简称:报告),IDC已经连续第四年对AI算力进行分析,透过数据看到了明显的变化。
“第一是政策上越来越重视,而且国家开始投资做智算中心了。第二是应用方面的落地比以前越来越成熟。第三是算力本身相比几年前有了很大的提高。”IDC企业研究助理副总裁周震刚表示。
中国工程院院士、浪潮首席科学家王恩东
从技术成熟度曲线来看,人工智能处于一个稳步爬升期。算力作为AI发展的支撑,“计算产业面临着多元化、巨量化、生态离散化交织的趋势与挑战。”中国工程院院士、浪潮首席科学家王恩东认为,一方面多样化的智能场景需要多元化的算力,巨量化的模型、数据和应用规模需要巨量的算力,算力已经成为人工智能继续发展的重中之重;另一方面从芯片到算力的转化依然存在巨大鸿沟,多元算力价值并未得到充分释放。如何快速完成多元芯片到计算系统的创新,已经成为推动人工智能产业发展的关键环节。吃AI红利,透过算力看潜力
AI的价值不仅在于其技术本身,而是AI赋能传统产业带来的社会经济全面升级。全球各国都在加速AI布局,已有60多个国家和地区出台人工智能政策,发布高级AI 战略。其中,美国和中国在AI的发展上领跑全球。
对于AI的发展,算力就像是之前的电力一样,是智能时代的支撑,赋能数字经济的方方面面。可以说,算力在一定程度上决定AI的进度。IDC 预测,2021 年全球企业在人工智能软件、硬件和服务的总投资将超 850 亿美元;预计将在2025年增至2,045亿美元,五年复合增长率(CAGR)达24.5%。全球科技巨头未来会持续加大算力的投资,以亚马逊、Facebook、谷歌、阿里、腾讯、百度为代表的头部企业在基础设施的投资规模将超过全球的一半。IDC 预测,到 2025 年,全球排名前八位的CSP将消耗50%以上服务器和存储基础架构。
中国科技产业起步较晚,过去几十年在很多领域都处于跟跑阶段。AI是一个全新的机遇,也是中国科技产业反超的机会,中国起点不低。同时通过AI赋能传统产业也是中国经济转型的机会点,无论是科技产业还是传统产业,对AI的发展都充满期待。
算力已经成为数字时代的核心生产力,是拉动数字经济向前发展的新动能。对于AI算力的投入,也将加快人工智能这一重要的数字化技术与实体经济的融合,赋能传统产业转型升级,催生新产业新业务新模式,为我国数字经济做强做优做大做出应有的贡献。IDC认为,拥有较高算力基础建设能力的企业/组织或国家,将更有可能在人工智能带来的红利中更多地获利。
从算力的角度来评估,中国服务器厂商成为全球服务器市场的中坚力量,特别是浪潮信息在全球AI服务器的市占率位居第一。受疫情影响,中国服务器市场仍保持高增长势头,IDC 最新发布的《全球人工智能市场半年度追踪报告》显示,中国人工智能服务器头部厂商市场规模同比增长率可超 50%。显然,在AI算力方面中国是有一定优势的。接下来就是把算力转化为潜力,吃到AI红利。所以报告中通过对算力的评估分析了一些城市、行业的AI程度,透视其潜力。
从城市来看,各个城市间人工智能角逐加剧,算力基础设施是重要竞争力。2021年中国人工智能城市排行榜,排名前五城市依次为北京、杭州、深圳、南京,上海。与2020年相比,南京进入前五,济南进入前十名。在这个排名中我们看到南京处于很靠前的位置,这正是由于当地政府的重视,一方面针对AI的发展出台了一系列的产业规划,另一方面是在南京落地了长三角地区规模最大、算力最强的智能计算中心,提供公共性的AI算力服务,帮助当地企业实现AI应用加速落地,为城市人工智能产业化发展提供高速通道。
从行业角度来看,算力的行业渗透与行业的智能化程度紧密相关。在中国市场,互联网行业渗透度第一,这与阿里、字节、腾讯这样的互联网企业对于AI的应用密切相关。接下来是金融行业人工智能应用速度加快并超过政府行业,位列第二。制造、交通和能源行业在人工智能的应用也更加深入,分列第五、第七和第九位。相比去年,人工智能在各个行业的渗透度都在增加。
最有启发的数据是,采用人工智能三年以上的企业,已经获得显著收益,被访企业平均收入增加9.8%、流程时间缩短20.4%、生产效率提升21.6%。显然,早期部署AI的企业已经吃到红利,取得超出行业整体的增长速度。 系统创新弥补多元芯片与算力之间的鸿沟
王恩东院士从AI发展的洞察中看到三大趋势和挑战:多元化、巨量化、生态离散化。计算产业的这三大趋势造成两大鸿沟:一是多元化芯片与巨量算力之间,二是算力与智能场景落地之间。跨越这两道鸿沟,是行业稳定爬坡进入快速增长通道的必然选择。
AI的爆发不仅是算力的线性增加,人工智能应用需求日渐丰富,催生芯片多元化发展。2020年以GPU为代表的AI加速芯片所交付的计算力总和已经超过了通用CPU,预计到2025年,加速芯片所提供的计算力可能超过80%。
此外,GPU依然是数据中心加速的首选,占有90%以上的市场份额,与此同时ASIC、FPGA和NPU等其他芯片也在各个领域被越来越多地采用。而ASIC,FPGA,NPU等其他非 GPU 芯片也在各个行业和领域被越来越多地采用,整体市场份额接近 10%,预计到 2025 年其占比将超过 20%。
“芯片多元化为产业AI化的加速提供了重要的产业基础和更加丰富的选择。但是,芯片从造出来到大规模用起来,还存在巨大的产业鸿沟。”王恩东表示,多元算力价值并未得到充分释放,将百花齐放的AI芯片转变成一个通用性强、绿色高效、安全可靠的计算系统,已经成为推动人工智能产业发展关键破局环节。
当然这也是非常难的一道门槛。我们知道,AI芯片在单一计算系统中往往高密度集成,带来系统功耗、总线速率、电流密度的不断提升,AI计算系统的设计面临巨大挑战。例如一台浪潮AI服务器,需要整合超过10000个零部件,包含50多类专用芯片、30多个技术方向以及100多种传输协议,涉及到材料、热力学、电池技术、流体力学、化学等一系列学科;需要经历30多个流程、150多种加工和制造的工艺、280多个关键过程的控制点,如何确保整个系统的可靠性是一个非常精细且复杂的工程。
王恩东院士用一个生动形象的比喻,来类比计算系统创新的难度:“从火箭发动机到运载火箭,要在循环、控制、结构等很多领域做大量的工作。芯片到计算系统同样如此,需要完成体系结构、信号完整性、散热、可靠性等大量系统性设计工作。”
也就是说,上游有很多芯片企业,研发出各类很牛的芯片,但是把这些芯片有机地组合实现强算力进而对下游应用实现支撑,这中间的挑战非常之大,这也是浪潮这类企业最大的价值所在。
浪潮信息副总裁、浪潮信息 AI&HPC产品线总经理刘军对此做了更详尽的解释:智算时代,每一个特定应用场景的计算特点不同,数据量都非常大,按照传统通用的计算芯片模式,计算效能相对比较低,所以需要针对特定领域的应用去做智算架构的创新,多元AI芯片繁荣从产业本质上成为发展的驱动力。
浪潮作为一个平台厂商通过两个方面的努力来抹平这道鸿沟。
一是算力平台本身,要支持不同的芯片,能够有一个非常高性能、强壮的平台来统一容纳各种芯片,提供芯片之间的高速交换、节点之间的高速信息连通,“浪潮现在是唯一一个能够设计、研发、支持八颗国产最高端的AI芯片在一个系统里面进行高速互联的AI服务器的厂商。”刘军表示。在AI算力平台方面浪潮一路领跑,以先进的技术换来全球市场份额第一的地位。
二是软件层面,每一颗芯片都需要与客户的应用对接,这就意味着用户要为不同的AI芯片构筑新的烟囱系统。浪潮的AI开发服务平台AIStation构建了一个支持多元异构AI芯片的规范接口的标准,目前已经接入了国内外六家公司的12款AI芯片,可以在一个资源平台上面实现高效管理多元的AI芯片,这就给客户最终使用带来极大的方便,他们只需要聚焦于自己业务的创新,不需要为底层多元算力分散精力,从而大大提升了创新的效率。
“浪潮将发挥算力平台领导厂商的作用,建立起多元AI芯片和产业AI化之间的桥梁。”刘军表示。 “源1.0”填补算力与应用之间的鸿沟
人工智能那么好,但是怎么跟客户的业务、应用场景结合?一面是轰轰烈烈在发展的AI技术,一面是迫不及待想通过AI创新的企业。“我们发现很多科学家在用不同领域的模型去解决问题,但当场景或者数据发生了变化,就要推倒重来,大大影响了产业落地速度。”刘军认为在AI技术与应用场景之间的鸿沟主要是来自通用性的挑战,大多数AI模型都只能用于某一特定领域,通用性不强,限制产业AI化进程。
人工智能如何发展出像人类具备逻辑、意识和推理的认知能力,是人工智能研究一直在探索的方向。“目前来看,通过大规模数据训练超大参数量的巨量模型,被认为是非常有希望实现通用人工智能的一个重要方向。”王恩东院士认为,随着巨量模型的兴起,巨量化已成为未来人工智能发展非常重要的一个趋势。
近年来人工智能的发展,已经从“大炼模型”逐步迈向了“炼大模型”的阶段,全球知名的AI领先公司在巨量模型上都予以重兵投入。这两年大模型这个概念特别热,谷歌、微软、英伟达、浪潮、智源研究院、百度、阿里等公司相继推出了各自的巨量模型。显然,“巨量数据、巨量算法和巨量算力”正在成为迈向通用人工智能的重要路径。
其中浪潮人工智能研究院发布的“源1.0”致力于打造最“博学”的中文AI模型, “源1.0”的单体模型参数量达2457亿,超越美国OpenAI组织研发的GPT-3,是目前全球最大中文巨量模型,占据权威中文语言理解测评基准CLUE的零样本学习(zero-shot)和小样本学习(few-shot)2项榜单榜首。
“原来的(AI)方式,我们培养了很多只会拧螺丝的人或者是只会敲锤的人。今天我们练出来是一个八级的钳工,你只要稍微示范一下他就都会干,并且干得比别人还出色。”刘军这样形象的比喻“源1.0”的价值。“源1.0”聚合了AI最强算力平台、最优质的算法模型开发能力,将支撑和加速行业智能的构建,最终帮助用户完成业务智能转型升级,以具备通用性的智能大模型成就行业AI大脑。
在懂懂看来,以“源1.0”为代表的大模型的价值点就在于可感知、自学习、可进化的能力,这将大大加速AI的场景化落地进程。以前AI是低效、繁琐的,而有了大模型,AI将进入高效工业化阶段,快速普及。IDC报告也认为,算法模型发展愈加复杂,巨量模型将是规模化创新的基础,“源1.0”等巨量模型的出现,让构建大模型、提升AI处理性能成为发展趋势。
大模型提供了AI工业化进程的工具,解决了巨量化的挑战,但在真正落地时还有一个挑战就是与场景的深度结合。每个行业、每个企业的场景千差万别,大模型是AI领域的科学家开发,而与实际业务对接则需要大量的真正懂行业、懂应用的各领域专业人才来落地。来自埃森哲的一份调研报告显示,70%以上有技术的研究机构、科技公司缺需求场景、缺领域知识和数据,70%以上的行业用户缺技术人才、缺AI平台和实践能力。
为了彻底填平AI算力与AI应用之间的鸿沟,浪潮采用开放开源的理念,“源1.0”将以开放API、开放数据集、开源代码等多种形式为业界提供开放合作,相关高校和科研机构、产业伙伴及智能计算中心用户可基于“源1.0”模型探索算法创新以及开发各类智能化应用。
浪潮在大家的印象中是一家做服务器的企业,为什么会涉足大模型?事实上,浪潮本质上是希望通过算力去推动产业、经济的发展,而作为硬件的服务器只是其产业形态之一。产业在进化,AI产业化、产业AI化,对大模型提出迫切的需求,而作为浪潮这样一家平台型企业,向下有多元芯片合作伙伴,向上有千行百业的客户,做大模型可以顺利地将AI算力与应用场景之间打通。“第一,产业需要。第二,我们不干,谁来干呢?”在刘军看来,浪潮做大模型是一件水到渠成的事。
其实上,AI就是处于这样一个演进的过程中,需要更多浪潮这样的企业,承担起更多的责任,填补一个一个鸿沟,AI产业化、产业AI化才会真正加速到来。