人工智能技术,也就是大家常说的AI,一直都被塑造成有着美好想象空间,是未来世界不可或缺的重要技术领域。
比如马云曾说,未来30年智能技术将深入到社会方方面面,彻底重塑传统制造业,不会用智能技术的企业都将失败。
比尔盖茨也曾坦言,如果在今天寻找一个能对世界造成巨大影响的机会,他毫不犹豫地会选择人工智能。
有几个节点也让大众明确感受到了AI的能量。
曾经全球瞩目的AlphaGo击败了围棋世界冠军,证明了AI算力可以轻松超越最顶尖的人类围棋高手;如今ChatGPT以及衍生应用生态的爆火,也让人们看到了AI大模型潜在的无限可能性。
今年在资本市场,人工智能同样再度爆火了一轮。天眼查平台统计数据显示,2023上半年资本力捧人工智能市场,月均融资事件达48起,其中5月融资数量最多,有61起。
2023全球数字经济大会人工智能高峰论坛、2023世界人工智能大会等上半年科技圈的重磅大会,都把人工智能中的大模型、AGI(通用人工智能)等作为标配的重磅话题。
然而,在我们畅想并努力通往人工智能美好未来的同时,也不该忽略人工智能正在产生的“恶”。至少目前从现实来看,人工智能带来的东西,似乎并不如想象般美好。
AI,早已在作恶
你有没有想过,在热闹的社交舆论平台上活跃着的,或许根本不是人,而是一个个被人工智能训练出来的,有着人类语言风格的升级版“僵尸号”?
早在2017年,这种操作就已经受到了学者、媒体的关注。彼时钛媒体在一篇报道中援引了芝加哥大学的一篇研究论文,称人工智能可以被用来生成虚假、复杂的内容信息,足以达到以假乱真的效果。
如今这样的功能其实早已是AI最为基础的能力之一了。例如完全对普通用户开放的微软AI工具NewBing上,太平洋科技简单提出了生成文本的需求,给大众点评榜单上热度很高的餐厅写几条打卡点评,具体结果可以看下图。
无论正面还是负面评价,任何一个用户都可以使用NewBing来快速生成。从结果也可以看到,这些打卡点评内容,有着丰富的细节,语言风格和表达口吻也接近人类用户,可以说基本与真人写的打卡点评相差无几。
当然这只是列举一个最基础的案例,要形成所谓的AI水军,必然还有更高级的玩法。雷锋网就曾报道称,经营AI水军产业的公司往往会使用循环神经网络、AI语言模型对海量的“僵尸账号”进行训练,以网上大量的评论素材做训练素材。
这样生成的AI水军账号,可以按照雇主的需求,在网络平台中“指哪打哪”,比如引导舆论风向,抹黑带节奏,造谣中伤等等。这些AI账号输出的内容,不仅可以躲避软件检测,也让网络水军公司实现了“降本增效”。
这类问题在全球互联网中都普遍存在。比如2019年末,Facebook关闭了大量的博主、用户账号,原因是平台发现有人使用了AI能力,将这些账号伪装成真实用户,有目的地发布大量虚假消息。
还有一些有趣的事情或许可以从侧面印证这个问题。今年6月,歌手孟美岐发了一条宣传自己北京演唱会的微博,很快评论区就有数万“粉丝”涌进来留言,一条条“北京见”之类的留言,看起来就像一个个等待激动赴约,到演唱会应援偶像的粉丝。
然而尴尬的地方来了,孟美岐北京演唱会的场地只能容纳1000多名观众,临近演唱会开场日期了,这1000多张票还是没卖完。这也让舆论调侃孟美岐微博的评论区有着大量伪装成真人粉丝的AI水军,评论数据很好看,但演唱会门票却卖不完。
“商业投流里面一直都有水分,有水军或者AI水军在滥竽充数。”有从事流量投放、运营工作的投手对太平洋科技表示,流量往往按照曝光数来计算费用,在真实流量中掺杂一些僵尸号是常见的情况,有了AI的加持,这种坑广告主的行为就更难被发现了。
该投手也列举了案例,比如广告主在付费投放之后,直播间突然涌进大量的账号,看似人气涨了,但实际这些账号基本只会刷屏“大拇指”,或者清一色发“早上好”、“晚上好”这样的固定句式,完全没有任何订单转化。
向平台客服投诉,得到的答复也基本是说这些都是真人用户的个人行为。广告主也无法分辨这究竟是AI水军来滥竽充数,还是投流失误导致的非精准流量。广告主钱花了,事一点没办成,相当于只能吃哑巴亏。
AI,也在污染“当下”
“我现在每天的创作,其实相当于AI洗了别人的稿,我再稍微洗一下AI的稿。”自媒体从业者阿波对太平洋科技坦言,有了类ChatGPT这样的AI工具之后,他的“创作效率”飙升。
阿波表示,以前一篇文章从选题确立,到查找内容,再到构思组稿,往往需要花挺长时间,但现在有了AI之后模式就不一样了,只需要把话题和内容需求提交给AI,AI就会在网络上搜集信息并重新组成一篇新的文字内容,也就是俗称的“洗稿”,阿波只需要细节修改调整一下,一篇完整的自媒体文章很快就能成形。
再加上现在市面上也有很多AI一键生成视频、AI配音等工具,将文章转为视频再进行分发也非常方便。
但有一个很核心的问题,阿波也并没有否认,这就是信息来源的可靠性,信息本身的真实性,他作为内容创作者,全然交给了AI来处理,并不会花更多的时间去求证。“我们追求的只是流量,内容出错大不了删稿就好。”
试想一下,如果舆论场每天为大众提供内容的,是无数个只求流量不管质量的创作者“阿波”,会出现怎样的后果?最直接的就是会出现无数个现代版的“三人成虎”案例,严重的话会导致整个互联网空间充斥着谣言、虚假新闻、错误信息等不可信内容。
量子位就曾在一篇相关报道中,将这样的现象称为“AI正在污染中文互联网”。
简单来说,AI生成的内容并不是凭空而来的,而是需要一定的信息素材作为基础。当AI因为各种原因生成了错误、虚假信息后,这些信息又可能成为另一个AI生成内容时的素材。
当互联网空间充斥着AI制造的垃圾信息后,这种无限套娃式的AI信息传递,就会变成一个输入和输出都是垃圾信息的死循环,这是一个十分可怕的糟糕局面。
AI技术,还有一些更直接的“恶”。今年5月,包头警方公布了一起利用AI实施诈骗的案例。福州一位企业主,接到了生意好友的微信视频电话,说需要430万元急用,由于对方在视频连线中的样貌、声音都与好友一模一样,该企业主便没有疑虑将钱转了过去。结果没想到这是骗子通过AI换脸和拟声技术,假冒了“好友”进行的诈骗。
可见通过AI技术的加持,骗子甚至能在实时的视频通话中完整还原一个人的样貌和声音,类似这样的诈骗案例层出不穷,光明网、环球网更是在相关报道中表示AI诈骗的成功率接近100%。
另一方面,无论是拥有百万粉丝的网红大V,还是按部就班工作生活的普通人,都有可能被AI换脸,乃至更离谱的AI脱衣盯上。
比如据多家媒体的报道,网络中有大量的不法分子通过AI技术,将一些头部网红或者女性用户的样貌,融合嫁接到一些裸露、色情内容中,再有偿贩卖给其他用户,这其中有的不法分子甚至能月入20万。
再比如今年3月,有人在广州地铁上拍下一女子照片后,用所谓的AI一键脱衣工具生成了裸露图并在网络上传播,这一事件冲上热搜后,也引发了大众对于AI工具侵害问题的关注。
此前5月份,在业界有“人工智能教父”之称的计算机科学家杰弗里·辛顿宣布从谷歌离职,理由是这样能更加不受限制地呼吁人们关注AI的潜在风险。
杰弗里·辛顿可以说是AI领域的顶级大牛,他凭借在AI领域的研究贡献,与另外两名科学家共同获得了2018年的图灵奖,OpenAI的创始人兼首席科学家便是杰弗里·辛顿的学生。
“现在似乎还很难看到如何能够防止坏人利用人工智能来做坏事。”研究AI数十年后,辛顿如今已经成为了AI的“末日预言者”,极力向公众表达他对人工智能的担忧。
当然,行业中自然会有不同的声音。“人工智能的风险都是可控的。”比尔盖茨表示,AI的深度伪造、错误信息、胡编乱造等问题,的确会引发诸多风险,但他仍然乐观的认为,这些风险都是可控的。
诚然,AI的未来或许是光明的,值得期待的,但这并不能掩盖AI在当下所制造出来的种种乱象问题,AI所作的“恶”,都亟需得到控制和净化,这也是AI迈向未来的必要前提。
后记
最后再用一段科幻故事来阐述一下AI这个宏大叙事中不可忽视的黑暗面。
科幻剧集《黑镜》中,有一集的故事是这样的。未来世界,环境改变,蜜蜂灭绝,但大自然不能失去蜜蜂,于是人类发明了机械人造蜂来替代蜜蜂在大自然中的作用。
人造蜂利用太阳能和各种高精度的识别技术,由分布在各地的数千个高度智能化的人工智能蜂巢来管理运行,无需人类控制便可自主完成飞行、传粉等任务。
这个发明挽救了因失去蜜蜂而濒临崩溃的自然生态,当然,这只是故事中美好的一面。
故事的另外一面,是有人黑进了人工智能系统,取得了数百万遍布各地的人造蜂的控制权,将海量的用户人脸、身份信息上传到人工智能系统后,这些本该造福人类、自然的人造蜂,突然就成了最恐怖的武器,在AI的操控下有目的地夺走了数十万人的生命。
与科幻世界里想象的灾难相比,前文提到的现实中已出现的AI作恶案例或许显得微不足道,但“勿以恶小而为之”,再微小的阴暗面都不容忽视,或许科幻片中描绘的后世灾难,正是由当下一点一点的“恶”所积累而成。
区块链、元宇宙、ARVR......科技领域有过太多高开低走的烂尾故事,热闹过后一地鸡毛。但实际上,这些代表未来的科技领域,或许并不该过早地被打造成噱头,被利用来敛财。
人工智能更是如此,毕竟这项技术离现实更近,也存在着更大的失控风险。尽可能地考虑到所有可能性,用“做好最坏打算”的态度来审慎发展人工智能,是实现“风险可控”目标必不可少的思路和策略。