本文来自于微信公众号 硅星人Pro(ID:Si-Planet),作者:辛峰。
是时候重新回味比尔·盖茨在48年前的愿景了——“让每个家庭都有一台电脑”。这句话放到当下,理应升级成“让每个家庭都有一台AIPC”,而这应该是人类创造更多可能性的新起点。
当今世界上最精彩的“权力的游戏”,莫过于OpenAI董事会与被闪电罢免、又戏剧性回归的CEO Sam Altman之间的博弈与拉扯了。用ChatGPT引爆了生成式AI革命的全球顶流创业公司OpenAI,被以人类斗争的方式反噬,足以折射人们在对“超级AI”的未来充满不无玫瑰色的想象的同时,亦有着更直接、深刻乃至本能的担忧。
这些担忧来自通用人工智能(AGI)日益可见的无所不能,来自一些聪明的人类对“超级AI”发展的过度乐观和极度放任,来自AI对人类生活和隐私边界的侵袭,亦来自人类自身的觉醒与努力——通过创造新的“硬件”,将“超级AI”关在物理的笼子里,赋予它更强大的计算资源和计算能力,同时约束它对人类工作、学习、生活和私密数据的过度获取,让它更好地服务人类的创造与进步,而不是凌驾其上。
这意味着OpenAI和微软并不会成为人们通向AI必然王国的唯二选择,也很少有人希望是如此。这意味着“硬件创新”的自觉与爆发,意味着个人计算设备在经历了个人电脑(PC)和智能手机两次代际性跃迁之后,即将迈入一个用生成式人工智能共谋与共舞的时代。
人类需要的,是ChatGPT的硬插件吗?
市场已经给出了更“激进”的答案:OpenAI前任和即将回归的CEO Sam Altman参与投资了一家名为Humane的公司,推出了一款“划时代”的AI硬件——AI Pin。这款被众多媒体冠以“AI时代iPhone”的硬件,没有屏幕和显示器,内容用激光投射到手上,简单的触控和语音是它与人们交互的唯一方式。准确地说,它是一个挂在人们胸口的装着电池、激光投影、移动网络、摄像头和麦克风的“躯壳”。而它真正的“灵魂”,来自OpenAI一个月24美元的GPT服务。
也就是说,它完全是一款挂在人们胸口的ChatGPT的“硬插件”,人们只有默认将自己的一切信息都交给ChatGPT和它背后的OpenAI,上传到云(微软的Azure)上,默认这些信息和数据可以被OpenAI用来训练可以服务于他人的数据,才能顺利使用它。而正是因为如此,注定了它不会成为像iPhone那样风靡世界的划时代硬件,对人类隐私和尊严的保护,它体现了AI的傲慢;而对人类通过AI创造未来世界而非将AI当成“拐棍”的愿景,它又足够漠视。
未来人们真正需要的、划时代的、拥抱“超级AI”的硬件,理应是一款支持人类创造未来的想象力与可能的“生产力工具”,是一款充分保护人类数据隐私、激发同时制约AI能力的新智能设备。它不一定遵循个人计算设备从PC到智能手机,再到更袖珍mini的未来设备的演进路径。与我们正在拥抱的生成式人工智能相比,过去近50年,从PC到智能手机的演进只能被划入同一个时代——生产力的数字化提升是在PC时代实现真正的“原始积累”的,而智能手机的真正价值,是在过去的15年间将人类数字化生产力的成果,分享给了更多人消费而已。
从这个意义上讲,以“GenAI”(生成式人工智能)之名的生产力智能化提升,是一个新的信息技术时代的开始。而人类在智能化生产力提升早期的原始积累,将让人类在某种意义上“找回”一种更强劲的新型硬件设备——它在灵魂上是智能的,而在躯壳上可能并不是那么激进的,甚至有些复古——某种意义上,你可以将其视作一些“古老硬件”的文艺复兴,也就是PC的文艺复兴。
也就是说:真正的“AIGC”(AI生成内容)将首先大规模地发生在“AI PC”(AI个人电脑)上。“AIGC”首先催化的是“AI PC”的诞生,已经成为正在发生的事实。
2023年10月23日,在联想创新大会(TechWorld)上,PC领域多年的霸主联想已经展示了“AI PC”的原型机,揭开了新一轮硬件革命的可能性。而上游的芯片厂商也在竞相逐力。
相继启动了AI PC的进程。
2023年10月,高通的骁龙峰会上,发布了全新的移动SoC平台和PC SoC平台,两者能够在“端侧”运行高达100亿和130亿参数的生成式AI模型。而英特尔也预计在2023年底发布的新酷睿处理器,通过首次加入神经网络加速单元(NPU),进而提升AI运算的能力。两周前,英特尔CEO帕特·基辛格(Pat Gilsinger)提出了一个清晰的目标——2025年达成出货超过1亿台AI PC。
端侧大模型是一个刚需
提到AI大模型,很多人脑海中出现的必然是“算力、存储、网络”。远超一般软件程序的性能需求,让它在初期发展中一直非常贴近云计算。
作为用GPU推动整个AI行业发展的那个人,皮衣教主黄仁勋更是每次新品发布上台时,都要不断重复:“Buy more!Save more!”。随着GPU芯片越造越大,配备的内存芯片越来越大,芯片与芯片网络通信能力不断增强,大模型的规模也在不断提升。
巨量的投入换来的模型规模增长,让AI大模型在训练阶段只能够放在云端进行,但随着时间推移,云端的大模型能力增长却已经开始放缓(GPT4相比GPT3近千倍模型规模增长)。
这标志着,跟之前的几次AI浪潮一样,同样以深度学习为核心的AI大模型,开始逐渐触碰到其能力的“天花板”。一旦行业中最强大的模型能力增长停滞,全行业就将转入实际应用落地的阶段。
但就目前而言,在OpenAI主导下的AI大模型生态,在推动广大用户应用落地上依旧进度缓慢。造成这种现象的关键,在于用户“不愿意”将自身需求数据和经验数据投入公有大模型之中,可能为了商业价值、也可能出于个人和组织隐私的重视和担忧。
2023年4月,韩国曾经爆出一则新闻:三星员工在使用ChatGPT处理工作时,无意间泄露了公司的绝密数据。具体过程是,三星半导体部门的工程师选择使用ChatGPT修复代码问题,结果有的员工将手机新程序的源代码、部分内部会议记录数据都丢给了ChatGPT,相当于商业机密落到了OpenAI手上。
三星之后的解决办法是自己重新训练一个大模型,部署在私有云内。
在国内,不久前也有一则类似的新闻——金山办公旗下的人工智能办公应用“WPS AI”开启公测,AI功能也面向全体用户陆续开放体验。但很快,有用户就发现了其《隐私政策》中直接明确写到:“我们将对您主动上传的文档材料,在采取脱敏处理后作为AI训练的基础材料使用”。
虽然之后金山办公致歉并承诺不用用户数据来训练,但很多用户都公开表示不敢再用。
解决这个矛盾的方法的唯一方式,就是要为用户提供私有化的大模型能力解决方案。
2023年11月21日,在“《财经》年会2024:预测与战略”上,联想集团董事长兼CEO杨元庆发表了观点,即“目前大模型的用户规模还比较小,大多数大模型都在算力较强的公有云上训练。未来,随着用户规模扩大,无论是出于数据安全和隐私保护的考虑,还是更高效率、更低成本响应用户需求的考虑,大模型的计算负载将逐渐由云端向边缘侧和端侧下沉,越来越多的人工智能的推理任务将会在边缘和设备端进行,这使得个人大模型更加成为必要和可能。”
直白点说,就是尽可能让每一个人都有足够运行AI大模型推理环节的算力和资源。从而实现在本地的设备,输入本地的数据,马上计算出相应的大模型结果。
能够承担这一角色的设备,只能是PC——未来的新型PC,即AIGC驱动的新物种——AI PC。
无论是口袋里的智能手机,还是背包里的笔记本电脑,还是家中的台式机,都是整个半导体和IT产业数十年来精心磨合的成果。AI的应用或许会改变人类与这些PC的交互方式,甚至部分改变他们的形态,但无法直接消除这些关键的计算节点。
AI PC:PC的文艺复兴时刻
回望肉眼可见的计算机发展历史,PC(个人电脑)横空出世除了为个人使用计算机带来了选择,同时还奠定了计算机行业普惠人类的“潜规则”。
在那之后的互联网和通信技术浪潮中,各种消费电子设备,包括现如今功能越来越复杂的智能手机,都是冲着最广大消费者而去,让每一个人充分享有随时随地获取信息的权利。
这次AI大模型技术浪潮来了,能够扛起普惠人类重担的,依旧是PC——至少在一开始的阶段是如此,而这个阶段的时间,将伴随着AIGC的真正普及,并不是一两年。
没有对比没有伤害。
正如我们前面提到的“新硬件” AI Pin,它折射了OpenAI“造物主”创造ChatGPT孪生硬件的野心:如果想要正常使用,它必须保持联网,并且不断将用户侧的麦克风数据和摄像头数据上传。怎么看都不符合当今用户对于移动设备生产力强、响应快、隐私保护等诉求。唯一的解释,只有Humane想规避iOS和安卓这两个更成熟的生态平台,直接把OpenAI打造成一个“新”平台。
与PC相比,AI Pin在高度依赖OpenAI在线服务的同时,交互方式极其有限,也没有开放的生态,甚至没有办法在保护隐私的状态下独立运行。
这正是“AI PC”诞生的背景,也是这一古老而年轻的“新物种”从一开始就要解决的问题。
在《财经》年会上,杨元庆定义了AI PC所需具备的五个特质:
AI PC能够运行经过压缩和性能优化的个人大模型。
AI PC具备更强的算力,能够支持包括CPU、GPU、NPU在内的异构计算。
AI PC具备更大的存储,能够容纳个人全生命周期的数据并形成个人知识库,为个人大模型的学习、训练、推理和优化提供燃料。
AI PC具备更顺畅的自然语言交互,甚至可以用语音、手势跟它完成互动。
AI PC具备更可靠的安全和隐私保护。
这是目前我们能看到的对AI PC最完整清晰的定义,并不难嗅出“既要,又要”的味道。在异构计算和自然语言交互的追求上,它足够“激进”;在对安全和隐私的保护上,它又“保守”得符合人类的需求;而在压缩、性能优化、更强大的存储以支持个人知识库的建构方面,它的技术中立主义和人文主义色彩又显得十分浓厚。
杨元庆在演讲中为AI PC给出了更精确的定位:“既能够作为公共大模型的入口,又能独立运行个性化的私有大模型,它掌握最全面的个人数据和信息,又能严守你的秘密。只有你能唤醒它、使用它,同时也只有它最懂你,远胜于公共大模型。”
要做到这些,并不容易。不妨看看目前的一些实践:
为了让每个人都拥有自己的个人大模型,联想将AI PC设定为能调用本地+云端的混合大模型和个性化知识库,真正将公共数据的价值和个人数据价值结合起来。这样用户既可以用到公共大模型庞大的知识库,同时又能放心地将个人数据保管在本地计算,充分适应个人需求和场景。
在自然语言交互方面,联想强调交互过程中要主动对本地数据进行再训练,逐渐提升交互过程中的智能与个性化表现。为用户提供可持续成长的AI能力,而不是一开始就板上钉钉。
另外一个关键的是开放生态,过去的PC产品,核心计算芯片都有明确的行业标准,按照开发者工具写软件就能确保运行效果。到了AI大模型的普惠时代,应用开发者和模型服务者都对基础终端设备提出了更高的要求,终端厂商也要参与到核心生态的运行中来。
最后是隐私和安全,AI PC相比公开大模型有着专门的隐私和数据保护安全体系,对于个人和企业的安全核心诉求,有着更好的保障。
当然,AI PC并不是一夜建成的,它有着一个曾经原始,但逐渐成型,最终拥抱了生成式人工智能浪潮而日臻成熟的演进路径。
2018年联想就已经提出了“智能PC”概念。随后AI元素更是逐步扩展到联想Yoga、Legion、 ThinkBook、和商用ThinkPad等PC全系列产品线。尽管彼“智能”并非今天的此“智能”,毋庸讳言,AI PC全面崛起的诱因是AI大模型,可是没有通过AI对PC未来边界和可能性的探索,用不到一年的时间推出划时代的AI PC原型,是不可想象的。
AI算力的“造水者”——英伟达、英特尔、AMD和微软们,都有与联想有着深厚的合作关系。在未来打造AI PC的过程中,对Windows、安卓、x86和ARM等多种多样的系统和架构的全面覆盖,对各种场景、各式用户的需求的充分满足是不可或缺的,这种覆盖AI能力全环节的业务布局,奠定了联想对AI PC这一新物种的定义权和议程设置权。而这些布局与铺垫,都正逐渐在财务数据中体现。
在联想公布的2024年第二季度财报中,全集团的营收连续两个季度环比提升,达到1044亿人民币,毛利率同比提升至17.5%,创二季度历史新高。非PC业务占比超过4成,同比提升近3个百分点。
业绩复苏的动力来自当前电子消费市场的恢复。但联想对2024年的期望更高,尤其即将到来的AI终端大爆发。根据IDC方面的数据,2023年中国市场中AI终端的占比为41%,到2027年这一比例将达到85%。在财报会议上,杨元庆也提及,AI PC将在未来进一步促进联想主业的利润改善。
显然,早早布局AI PC,将普惠AI大模型能力作为自身目标之一的联想,有望在接下来全球AI终端的普及中,扮演极其重要的角色。
这并不仅仅是一家公司的野望。是时候重新回味比尔 盖茨在48年前的愿景了——“让每个家庭都有一台电脑”。这句话放到当下,理应升级成“让每个家庭都有一台AI PC”,而这应该是人类创造更多可能性的新起点。
这也是PC这一古老物种以AI PC之名的新生,是一场文艺复兴。