首页 > 滚动

腾讯元宝“骂人”引热议,我们需要怎样的AI?

2026-01-07 07:43 来源:红网
查看余下全文
(责任编辑:邓浩)
首页 > 滚动

腾讯元宝“骂人”引热议,我们需要怎样的AI?

2026年01月07日 07:43 来源:红网 江中怡
[字号 ]

近日,腾讯元宝“骂人”事件引发网络热议。有网友在社交平台发帖称,自己在请求美化代码时,竟收到“滚”“自己不会调吗”等回复。官方迅速回应,向用户致歉并表示这属于小概率下的模型异常输出。(1月5日 澎湃新闻)

纵观网友反应,虽有少数人担忧AI产生意识,但更多是面对“数字奇观”的戏谑和好奇。网友评论调侃,甚至在评论区艾特元宝,主动尝试与AI互动。这也说明元宝“骂人”这一事件给一些网友带来了“娱乐趣味”,公众正以一种轻松的方式,探索日益拟人化的AI工具。

而所谓“骂人”,从技术上来看,也并非少数网友担心的科幻电影中的人工智能意识觉醒。当下的大语言模型实质上是一种建立在庞大语料库上的概率模式生成器。换言之,大语言模型通过分析人类海量文本学会接话,依靠计算出下一个词可能是什么的概率来生成回答文本。

这样看来,元宝“骂人”或可看作是一种对现实世界的映射,展露的其实是人类语言中不那么友善但真实的一面。这也给我们提出了一个议题:我们究竟期望AI以何种面貌存在?如果过度追求零错误,可能会创造出一种过于温顺,甚至失真的数字交流环境,虽然避免了冒犯,但也可能让AI变得平庸,无法反映真实世界的多元与矛盾。而对世界的完整映射,必然包含令人不适的部分,真实往往与一定程度的冒犯相伴相生。

这指向了一个更具建设性的方向,或可赋予用户对内容的选择权。有的用户追求AI的纯粹工具性,也有的用户更希望进行创意碰撞和探索。AI设计可因人而异地进行模式设置,为前者提供内容审核严密的安全模式;为后者开放探索模式,在明确提示的前提下容纳更多丰富、具有挑战性的信息。这并非审核降低标准,而是在确保基本安全后,让用户窥见真实复杂世界并做出其自主判断。

归根结底,AI仍然是工具,是人类智慧和能力的延伸。只是当我们可以和这个工具进行流畅对话时,人与它的互动便自然而然地超越了纯粹的工具使用,更像一种社会互动,我们会测试它、与它玩笑甚至挑战它。元宝此次事件,正是这种新型关系的一次集中体现。

面对AI的那些意料之外的回答,我们无需急于赋予其魔幻色彩,而应冷静洞察其技术原理。同时,认真思索其背后更深层的议题——我们对AI工具的期待到底如何?或许一个真正有益的智能伙伴,不在于永远无误,而在于能够帮助我们更清醒地认识这个世界。

(责任编辑:邓浩)