科学家证实,大模型能像人类一样“理解”事物!
据《科技日报》报道,来自中国科学院自动化研究所等单位的科研人员首次证实,多模态大语言模型在训练过程中自己学会了“理解”事物,而且这种理解方式和人类非常类似。相关研究成果在线发表于《自然·机器智能》杂志。
大模型学会了“理解”,这事该如何理解?一直以来,常有观点认为,大模型只是一只会学舌的鹦鹉,虽然学得惟妙惟肖,但不懂自己在说什么,它们单纯依靠统计概率预测下一个token(词元)。事实,或许并非如此。记得去年底曾看过一篇报道,哥伦比亚大学进行的一项研究表明,随着大语言模型技术的进步,这些模型不仅在性能上有所提升,而且结构上也越来越接近人类大脑。此次中国科学院的研究也证明,多模态大语言模型能够自发形成与人类高度相似的物体概念表征系统,与人类大脑神经活动有着惊人的对应。
AI越来越聪明,这是事实。近年来,从DeepSeek R1到OpenAI o3,深度推理模型迅速发展。它们被称为深度推理模型,就是因为能够像人类一样思考解决问题的过程。会思考,能“理解”,AI越来越“像人”,人该怎么看?
有人不以为意。因为AI的局限性,实在明显。比如很多大模型“学富五车”、才思敏捷,却连“9.11和9.9谁大谁小”都搞不清。有的还会“一本正经胡说八道”,东拼西凑、无中生有,被业界称为“AI幻觉”。基于此,很多人给人工智能取了个“外号”:人工智障。
有人则如临大敌。比如前不久,新华社援引英国媒体报道,美国一家研究机构公布了一系列针对各AI大模型的测试结果,其中提到,OpenAI的o3推理模型在得到“关闭”指令后,不仅拒绝执行,还篡改了代码以免被关闭。AI拥有自主意识了?很多网友心头一惊,甚至将其视为史无前例的“危险预警”。其实仔细看看相关报道,研究人员有意制造了伦理困境,AI的“抗命”是为了执行另一项指令,与所谓“自我意识”并无关系。