科技魔方

人工智能技术准备好迎接现实世界了吗?

人工智能

2023年10月18日

  人工智能技术正在努力跟上当今的条件,并应用于现实世界。

  如果对技术感兴趣,就很难不对人工智能技术着迷。人工智能是当今科技界最受关注的话题之一,其在给我们的生活带来许多东西方面发挥了巨大的作用,尤其是在过去的五年里。无论是利用其生成能力突破创造力的极限,还是利用其先进的分析能力了解我们的需求,许多行业已经在人工智能的巨大蛋糕中分得一杯羹。但这是否意味着人工智能是完美的?

  尽管人工智能已经成功地吸引了所有人的关注,但我们有时会忘记关注天平的另一面。虽然我们人类很难解释生活和情感,但提供数据的人工智能技术在这方面也不是很成功。不幸的是,考虑到当今的技术,解释生物体不可预测的运动(其大部分决定都是基于荷尔蒙冲动),并希望一台从未经历过这些荷尔蒙影响的机器能够做到这一点,这是一个很大的困境。

  下面,让我们来谈谈在生活中最重要的方面接受和使用人工智能所面临的挑战。

  人工智能技术如何从提供的数据中学习?

  人工智能技术通过一个被称为训练的结构化过程,从提供的数据中学习。这个过程是机器学习的基础,机器学习是人工智能的一个子集,涉及几个不同的步骤。

  首先,数据收集是必不可少的。人工智能系统需要大量且多样化的数据集,这些数据集与其要解决的特定问题相关。该数据集包含输入数据(特征)和相应的输出或标签,其代表所需的预测或分类。例如,在图像识别中,数据集将由图像及其相关标签组成,例如识别图像是否包含猫或狗。

  收集数据后,将对其进行预处理。此步骤确保数据采用适合训练的格式。数据预处理任务可以包括用于消除错误或不一致的数据清理、使数据处于一致范围内的规范化,以及从原始数据中提取有意义的信息的特征工程。

  下一个关键步骤是模型选择。人工智能从业者选择适合当前问题的机器学习模型或算法。常见的选择包括神经网络(用于深度学习)、决策树、支持向量机等。

  选择模型后,将进行参数初始化。这些参数是决定其行为的模型的系数或权重。其用随机值初始化。

  训练循环是模型真正学习的地方。由几个迭代步骤组成: 在前向传递中,模型获取输入数据并根据其当前参数生成预测 损失函数量化这些预测与实际标签之间的差异。目标是尽量减少这种损失 采用梯度下降等优化算法,反向传播对模型参数进行调整。此步骤确保模型不断地改进其预测

  这种迭代训练过程在多个时代重复,允许模型进一步微调其参数。

  验证和测试是关键阶段。验证评估模型泛化到新的、看不见的数据的程度,而测试则更严格地评估其性能和泛化能力。

  从理论上讲,一旦模型表现出令人满意的性能,就可以将其部署到现实应用程序中,以根据新的、以前未见过的数据进行预测或自动执行任务。

  人工智能技术可以通过多种方式从数据中学习,但最常见的方法是监督学习,即人工智能算法在标记数据上进行训练,这意味着正确的输出是已知的。该算法通过进行预测,并将其与真实标签进行比较来学习将输入映射到输出。随着时间的推移,该算法的准确性会提高,并且可以对新的、未见过的数据做出更好的预测。

  因此,虽然数据标记在监督学习中至关重要,但我们能否完全确定其准确性?答案是否定的。让我们面对现实——人类并不完美。我们都有过质疑自己能力的时刻,比如怀疑医疗诊断或怀疑刑事案件的结果是否真的公正。然而,我们应该毫不犹豫地相信自己和标记的数据。这很难接受,但现实是,即使有最好的意图,我们都容易犯错误。

  机器学习算法的另一种形式称为无监督学习。这涉及到人工智能系统在一组未标记的数据上进行训练,这意味着该算法不具备每个数据点的正确输出。因此,这必须独立识别数据内的模式和关系。例如,可以利用无监督学习来识别具有相似消费习惯的客户群体。

  此外,人工智能技术具有实时从数据中学习的能力。这就是所谓的强化学习。在此过程中,人工智能系统会因所采取的行为利否而获得奖励或惩罚。

  尽管看起来合乎逻辑,但这种方法还远远不够完美,还没有为严酷的世界做好充分准备。

  预测人工智能准备好迎接如此复杂的世界了吗?

  最近发表在《连线》杂志上的一项研究发现,预测人工智能技术及其软件应用(如Geolitica)并不像人们希望的那样有效。事实上,研究发现人工智能软件的准确率只有0.6%左右。这引起了人们对世界各地警察部门使用人工智能技术的担忧。

  那么,问题出在哪里呢?预测性人工智能软件的主要问题之一是,其依赖于生命是可预测的这一有缺陷的假设。生命是一种复杂的现象,受到众多变量的影响,其中许多变量是不可预测的。因此,很难依靠软件来准确预测事件发生的地点和时间。

  人工智能技术在医学领域的情况也不是很好。ChatGPT被广泛使用,被普遍认为是最强大的大型语言模型(LLM),但对于医学研究和准确诊断而言,具有很大的误导性和不足。

  Maryam Buholayka、Rama Zouabi和Aditya Tadinada的研究评估了ChatGPT独立撰写科学案例报告的能力。该研究将ChatGPT与人类口腔颌面放射科医生在撰写病例报告方面的表现进行了比较。

  最终发现,ChatGPT能够生成与人类放射科医生撰写的病例报告质量相似的病例报告。然而,ChatGPT病例报告不太可能包含某些重要元素,例如鉴别诊断的讨论和文献综述。

  因此,综合研究得出的结论是,ChatGPT尚未准备好自行撰写科学案例报告。那么,所有这些做法对我们意味着什么呢?尽管人工智能技术的魔力让所有人惊叹不已,但远未达到完美。许多不可预测的因素,例如人为控制来源以及算法运行不正确或不完整,正在减慢人工智能技术融入日常生活的速度。

  但别忘了,即使是带有传感器的门,也曾一度被认为是人类的想象。

+1

来源:千家网

延展资讯