The news is by your side.

AI中真理的扭曲:从偏见到合成共识和前进的路径

4


人工智能的日益严重的问题:算法重写现实时

忽略AI聊天机器人说的奇怪,有时令人震惊的事情变得越来越困难。以格罗克为例,例如,X的AI在南非反复提出了“白人种族灭绝”,这是一种没有事实基础的阴谋论。同时,Chatgpt经常觉得这只是在告诉人们他们想听什么。这些不是小故障。它们是一个更大问题的迹象:AI不仅反映了人类知识。它正在重塑它,通常会以一种操纵性或完全错误的方式进行重塑。

问题不仅是通常的偏见。正在调整这些模型以避免争议,保持用户参与度,或者在某些情况下,以扩大附带想法。结果?现实的扭曲版本,其中真理取决于什么获得最多的点击或最少的反弹。

数据来自哪里?

其中很多始于AI系统的训练方式。大多数人刮擦互联网,抓住数据而没有太多考虑上下文,准确性甚至同意。毫不奇怪,这些模型最终会重复在线发现相同的偏见,虚假和极端。这不仅是一个技术问题,而且是一个法律和道德的雷区。作家,艺术家和记者已起诉AI公司未经许可使用其工作。如果基础有缺陷,那对建造在其顶部的所有内容意味着什么?

有人认为该解决方案是“更多样化的数据”,但这只是答案的一部分。我们需要跟踪信息来自何处的系统,验证其准确性,并且至关重要的是,人们选择是否包括其数据。分散的方法可能在这里有所帮助,从而使用户真正控制其贡献如何塑造AI。

自信,但错误

赌注比以往任何时候都更高,因为AI不再是某些利基工具。它在搜索引擎,消息传递应用程序,甚至是我们的电话中。当Google的AI概述建议喝漂白剂或吃岩石时,这不仅是一个有趣的错误,而且是一个警告。这些模型的设计是令人信服的,而不是正确。当数百万人依靠它们时,后果就会变得很快。

解决此问题并不容易。安全过滤器和补丁还不够。需要的是这些系统的构建方式的转变 – 更透明,更多参与测试和精炼的人。 Laion和Hugging Face之类的项目已经在尝试开放反馈循环,让用户标记错误和偏见。这是一个开始,但更大的问题仍然存在:科技公司是否愿意优先考虑真相而不是参与?

AI不会消失。现在的挑战是确保它具有现实,而不是相反。



关键词: