• 看厦门APP

  • 厦门广电公众号

  • 厦门广电抖音

  • 厦门广电微博

  • 厦门广电央视频

“万事问AI”?你的大脑远没到“躺平”的时候
2025/02/21 来源: 北京日报
分享:

这两天,“80后死亡率已超70后”一说热传。据媒体与专家溯源,这一说法压根儿查无实据,最初来源很可能是和AI的对话所得。尽管AI明确标注了数据存在间接推算和估算的情况,但这条假消息还是被加之各种骇人标题在网上流布。

这场乌龙再次引出一个问题——随着技术不断飞跃,如今“万事问AI”俨然成了潮流。但AI真的那么靠谱吗?

学界频频提及的“AI幻觉”与“机器欺骗”,指的就是“AI会胡乱拼凑或虚构一些事实,让其生成的内容显得合理、自洽”。查阅相关公开资料也不难发现,GPT-4o、Gemini-1.5-Pro、DeepSeek R1等多个全球最先进的大模型,在试验中都出现了一定的“幻觉率”。更关键的是,AI在呈现错误答案时仍看上去“非常自信且具有说服力”,很容易让不熟悉AI或特定领域的人信以为真。至于出现“AI幻觉”的原因,目前尚无定论,有可能是AI在转录和翻译海量数据时出现了偏差,也可能是它们在“数据不足”情况下“急中生智”。

AI的能力确实在不断超越人类的想象,但不能视为“万能”。除了生成内容的真实性、可靠性常常存疑,AI在创造力、想象力方面也相对“拉胯”。如耶鲁大学计算机科学家戴维·格勒恩特尔所言:“除非能模拟人类情感的所有细微差别,否则任何计算机都不会有创造力。”从现实来看,AI在处理社会尚未形成普遍共识的话题,或让其预测某件事情的走向时会陷入困难。因而,在使用生成式AI这一工具时,我们不仅要对其生成信息多加辨别,更不能放弃思考,倘若指望其给观点、定决策、下结论,很可能会被带进沟里。

要用思考“投喂”算法,而不是让算法“吞噬”思考。要知道,“就像一台车没有汽油走不了,数据就是AI发展的燃料”,AI大模型的迭代发展离不开大体量优质数据“喂养”。数据从何而来?显然是由人来生产与创造。然而,据统计,“现实世界所能提供的用于训练AI模型的数据几乎已消耗殆尽”,且未来人类对更多高质量文本的需求量,远超于数据产生的速度。这种情况下,如若人类的大脑开始“躺平”,“训练数据枯竭”的情况就会不断加剧,最终要么是AI发展陷入停滞,要么是AI开始大规模自说自话,拿自己生成的似是而非的内容训练自己,导致我们整个信息河流被持续污染。这都不是我们想看到的。

更关键的,人类从来都是在思考中迸发灵感,在试错中革新向前,不少伟大的发明都是研究的“副产品”。可当AI提供了前往“正确答案”的“直通车”,不仅可能“挖空学习资源”,形成更加厚重的“信息茧房”,更可能反噬创新。刘慈欣在科幻作品《镜子》中曾描写过一种人类结局,人类因为从不犯错而走向灭亡。这无疑值得警惕。

近来,“脑腐”一词颇为流行,大意是“由于数字信息,尤其是社交媒体低质信息过度输入而导致精神和智识状态衰退”。如今,AI让各类信息更加唾手可得,我们的内心世界是否会经历一场更猛烈的“水土流失”?

未来已来,我们当然不能抱着“AI末日论”去抵抗浪潮,但也不能盲目乐观,任由海水倒灌大脑。相关方面应在遵从科技伦理、人本主义、法治理念的基础上,不断完善AI相关法规,力求价值引领与技术“纠错”并行,最大程度争取科技向善。于个人而言,也当保持好奇心,提升思辨力,让AI成为我们最有力的工具之一而非“替代者”。

相关推荐

看厦门 APP下载