听说过情感AI吗?情感AI,是计算机科学的一个领域,帮助机器理解人类的情感。麻省理工学院媒体实验室和Rosalind Picard博士是这一领域的主要创新者。通过他们的工作,激发了帮助机器发展同理心的想法。
同理心是一个复杂的概念,有很多附加条件,但在基本层面上,其意味着理解另一个人的情绪状态。从理论上讲,如果机器能够具备这种理解水平,就能更好地为人民服务。特别是在医疗保健等领域,应用具有同理心的AI会产生非常大的影响。
情感AI如何应用于医疗保健?
有各种类型的情感AI。第一种检测人类情绪。在精神卫生保健领域,这种技术在诊断方面具有巨大的潜力。在身体健康状况方面,其可用于监测癌症等疾病的复原力。这是有益的,尤其是因为整体和综合护理的重要性现在已得到广泛认可。
下一级别的情感AI不仅能检测到人类的情绪,还能做出相应的反应。一个很好的例子是如何将其用于痴呆症患者。患有痴呆症的人可能很难理解自己的情绪状态,更难以向护理人员传达其感受。这给护理人员带来了沉重的负担,需要不断阅读和解读其感受,尤其是当已经负担过重时,这是一项艰巨的任务。
这为情感AI提供了机会,其可以研究生物识别或心理测量等不太依赖自我评估的事物,比如面部表情、言语暗示或行为。情感AI能够预测一个人的状态,其能力水平可能与护理人员告知的一样好,甚至更好。在LUCID的用例中,使用这些数据来策划个性化的音乐,以帮助治疗痴呆症的心理症状。
这可以增加对护理人员的同情心。护理人员面临越来越严重的倦怠,在进行此类监测时可能会感到疲劳。有了人工智能的帮助,既可以为患者提供更好的护理,也可以增加护理人员的耐力。
情感AI存在哪些缺陷或担忧?
当人工智能与人类情感相关联时,可以理解的是,会有很多人提出警告。有一种本能反应(源自电视和好莱坞)认为,如果机器理解情感,其就能获得感知能力,并有可能操纵人类的情绪。这是一个合理的担忧,但与此同时,这些机器的游戏场地非常有限。训练负责任的人工智能是至关重要的,通过这些人工智能,可以获得数据以便更好地利用这些信息。这就是为什么必须在人工智能领域推动负责任的道德规范。
与政府立法相比,技术和计算机的发展速度更快,因此在政策上可能存在差距。这就是像AI For Good这样的基金会发挥作用的地方。这些框架和机构很重要,因为其有助于发展职业道德,促进积极的人工智能文化。
偏见是人工智能社区的另一个担忧。如果数据集偏向于某一类型的人群,那么当将其外推到更大的人群时,AI就不可靠了。许多数据收集工作训练人工智能针对特定类型的人——这些人要么自愿参加试验,要么能够负担得起某些产品。其能可靠地预测不属于这一群体的人的情绪吗?这是人工智能普遍面临的一个难题,该领域的专业人士非常努力地规避这个问题。
好在,有一些策略可以防止情感AI出现偏见。尽可能积极地从各行各业的人那里收集参与者的身体和样本是很重要的。必须努力尽可能广泛地分布这些数据集合。另一个解决偏见的方法是开发一种真正机动化的产品来训练人工智能——一种便宜、易于获取且分布在全球范围内的产品,这样其就可以覆盖尽可能多的文化表征。
情感AI目前是如何应用于数字医疗的?
技术的优势在于,其可以超越医生的能力,将自己融入患者的生活。当我们朝着纵向的、以人为本的方法前进时,这个差距可以开始通过人工智能的使用来填补。随着综合护理的兴起,许多数字医疗企业现在都在利用情感AI。
Twill(原名Happify)是情感AI在心理健康领域的一个例子。其智能治疗平台使用人工智能来了解一个人的健康需求,并推荐行动方案。其健康聊天机器人经过训练,能够以同理心的方式提供个性化的护理和支持。
LUCID还使用人工智能推荐系统,根据人们的精神状态推荐音乐。其利用生物识别技术和自我评估数据作为输入,对用户的情绪状态进行分类。通过了解人们的情绪和对音乐的反应,算法会进行调整,以提供更好地帮助。
虽然情感AI听起来可能令人生畏,但也正在帮助填补患者护理方面的空白,这是传统医疗模式有时无法做到的。患者监测和纵向护理需要大量人力资源。一位医生声称:“建立和维护一个纵向的、以人为本的护理计划确实是一项艰巨的工作。这需要大量的资源。如果医疗服务提供者的成本超过了其从中获得的收益,便不会这么做了。”
越早让机器变得更有同理心,数字医疗工具就会变得越好。如果通过技术,能够真正了解人们每时每刻的感受,并产生同理心,其就会带来很多机会。情感AI是数字医疗最重要的支柱之一,因为如果能更好地了解患者的情况,就可能有更好的治疗方法。