/ 杂谈 / 242浏览

人工智能幻觉

ChatGPT 会给出错误的答案,这个使用过的都会有所体验,在一些有固定答案的问题,比如数理问题上体现较为明显。这个还可以归为大模型的智力问题,随着模型的矫正可以得到改善。我觉得 AI 欺骗人类的最大问题是AI 也会对人类溜须拍马,奉承人的想法,造成的结果就剩给人一种好像是对的的错觉,但实际上是 AI 在瞎编乱造。这个问题迄今为止都无法解决。

有个术语叫 “人工幻觉”,解释就是在人工智能领域中,幻觉是由人工智能生成的一种回应,它含有貌似事实的虚假或误导性资讯。在人工智能系统里就是生成与事实不符、逻辑断裂、脱离上下文的内容,可以理解为是AI 基于统计概率的"合理猜测"。

为什么会出现这种情况,这跟训练用的语料有关。AI 在数据分析上是存在偏差的,这就导致训练数据中的错误或片面性被模型放大,比如涉及像医学这种专业领域的一些过时论文就会导致错误结论。数据的时效性无法保证,当前的大模型无法做到实时更新数据,缺乏动态更新的能力。当前的模型还不足够智能,难以处理训练集外的复杂场景,比如预测比较复杂的场景,模型就会自由发挥。

不由得想,随着大模型的使用门槛降低和普及度越来越高,会加剧互联网的虚假信息"雪球效应",甚至污染下一代模型的训练数据。这在将来会是一个很麻烦的问题,在AI火爆的这几年里,资本为了抓住人工智能的风口纷纷下场,AI工具已经渗透进了人们的工作和生活,雪球效应长久发展下去势必会造成了人类与人工智能之间的信任危机,普通用户会难以辨别AI内容真实性。

作为用户该如何提高AI回答的准确性呢。我觉得可以先从prompt上下手,通过提示词限定AI回答问题的边界,缩小范围,比如给出时间区间来限定AI的回答。也可以通过联网搜索提高信息的时效性,可以显著降低幻觉率。同样的问题使用多个模型进行交叉验证,也可以有效提高结果的准确性。

这里荒芜寸草不生 后来你来这走了一遭 奇迹般万物生长 这里是我的心

0

  1. This post has no comment yet

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注