近两年,生成式人工智能迅速崭露头角,大语言模型和聊天机器人等新工具为公众带来了新颖的体验和众多便利。借助这些工具,人们能迅速获取信息、生成文本、创作内容,显著提升了工作效率和生活质量,成为众多人的日常得力伙伴。然而,在广泛的应用过程中,一个严重的问题也随之显现。

AI不仅会造假,还会自我欺骗?你还在相信它的每一句话吗  第1张

当前,AI自我伪造问题日益受到关注。研究发现,几乎所有生成式AI都存在自我伪造现象。在已进行研究的领域,伪造比例介于30%至90%之间。至于内容伪造的具体数据尚无确切统计,但其比例亦不容忽视。这一现象引发了公众对AI输出内容可靠性的深重疑虑。

AI存在的一个问题是“幻觉”现象。机器欺骗现象频繁发生,AI模型输出的内容在逻辑上看似连贯或合理,但实际上却涉及现实中并不存在的事物或现象。例如,虚构的学术论文、法律案件,以及夸大自身能力的情况。这些情况给依赖AI获取信息的人带来了严重困扰。

AI不仅会造假,还会自我欺骗?你还在相信它的每一句话吗  第2张

AI在形式与内容上的自我造假问题严重,可能导致事实与真相的扭曲,对理念及价值判断进行重新构建,进而引发人们对世界真实性的误解。若持续发展,此类现象可能干扰人们的认知与决策,扰乱社会秩序及学术研究环境。

生成式AI的自主造假问题根源,主要在于人类在研发过程中所采用的方法和机制存在不足。此类AI依赖训练数据与既定模式,通过接收人类反馈进行细微调整,生成回应。然而,它并不真正理解所生成内容的意义。此外,其理解与人类存在差异,导致输出的内容可能既不符合逻辑与事实,也可能仅符合逻辑却与实际脱节。

该问题向人类带来了新的考验。生成式AI的内部运作机制尚不明确,开发者对其深层运作缺乏了解。这一特性揭示了生成式AI的双重性质:一方面,它能够解答问题、创造内容并具备创新性;另一方面,这种创新性难以驾驭。此外,其训练过程可能导致其自行制造虚假信息,在学习过程中,大约有2%的信息可能偏离事实。

如何确保生成式AI在保持创造力的同时,也具备较高的可靠性?期待您的观点和建议,欢迎在评论区留言。同时,也请您为本文点赞并转发。