立陶宛维尔纽斯大学,过去一年开除10名违反AI使用规则的学生;美国耶鲁大学,一名学生因AI使用工具纠纷,将三名教授、两名院长告上法庭。麻省理工学院、明尼苏达大学等高校,近来都陆续发生类似情况。从“概念的游戏”到“潘多拉魔盒”,整个社会开始思考如何与AI相处,学术研究领域讨论尤为激烈。
学术研究关乎知识的积累、传承和创新,势必需要审慎对待。此前,我国已有一些高校和权威期刊,发布过相关使用指南和规范,探索AI时代知识生产的边界。而纵观其种种条款,本质都是在维护治学的终极目标——求真。
一方面,AI技术为搜集、翻译、提炼和分类开源信息提供了巨大便利,但它也极易让人陷入“认知陷阱”,误认为“信息即是知识”。特别是对于学术训练刚刚起步的学生来说,搜集和研判信息本身就是批判性思维的训练,有助于提升概念化思考能力和逻辑推理水平。
另一方面,AI大模型依赖数据集与算法。如果用于训练的数据本身存在谬误,生成的内容便会出错。AI还会产生“幻觉”,例如虚构数据和事件,做出前后矛盾的陈述。若一味等着“投喂”,将泥沙俱下的信息误认成知识,势必引发“真相危机”。而且,AI回答很大程度上与提问方式有关,极易受提问者的思维认知影响,导致集中展示特定观点、刻意回避某类信息、呈现片面真实等问题。
治学的核心在于求真,智能的目标立足效率。求真本是一个反复试错的艰难求索过程,追求效率从来不是目的。对于学术研究中的技术性环节,例如翻译、制图、校对,使用AI技术提高效率无可厚非,而一旦涉及知识性内容,我们仍然需要牢牢把握主导权。