“您好,我是已经离职员工××的数字分身,你可以随时向我提问,我会根据我在职期间的文档对你回复,并回答你的问题。”近日,山东一游戏传媒公司在职员工“小鱼”发布的视频显示,该公司尝试将离职员工训练成AI数字人继续工作,引发广泛关注。“小鱼”称,该员工离职前是人事专员,本次尝试已经他同意,“投喂”AI的资料也是他本人上传的,其数字分身目前能做咨询、邀约、制作PPT和表格等简易工作,但有点笨,还没对外使用。
这可以视为“同事.skill”的一次落地尝试——几乎同一时间,技术社区GitHub上的开源项目“同事.skill”爆火出圈,这项skill的技能点是,收集离职员工的飞书消息、钉钉文档、邮件、截图等数据,加上一些主观描述,喂给大模型,便能生成一个能模仿该员工工作习惯、说话方式的“AI同事”。“AI‘炼化’打工人”“你喂养的AI,正在吃掉你的未来”,成为新的职场话题。
“同事.skill”,真的这么可怕吗?
游戏公司“炼化”人事专员一事中,若果真如“小鱼”所言,当事人知情同意且主动配合,也就少了隐私权等许多方面的争议。可并非所有人都富有“游戏精神”,愿意拿数据尤其是个人信息“喂养”对自己具有一定替代作用的技术。“反蒸馏skill”能将skill文件的核心知识替换为“正确但无用的废话”用于交差,这一反制工具的走红就是例证。
也就是说,“同事.skill”落地并不容易,或伴随着一些法律风险,诸如律师提到,未经员工同意收集、使用相关数据训练AI,直接侵犯其个人信息的收集、使用、加工权,最高可判7年;或遭遇员工的“软抵抗”,数据源头的“垃圾进,垃圾出”将直接影响所谓“数字分身”解决实际问题的质效。
再有,“同事.skill”本质上是让AI模仿特定的人说话做事,而带有明显个人特征的拟人化行为模型不是任何场合都适用。
一方面,“同事.skill”并不能全然“吸收”同事的能力。能被蒸馏出来的,主要是在行为中反复出现、能够留下记录、具有一定稳定性的部分,AI可以从聊天记录等外显痕迹中“学”到一个人的语言风格、工作流程,却“学”不来更为核心却隐形的直觉、判断力、决策力、责任感。准确来说,“同事.skill”产出的是不具有主观能动性或创造力的“拟人化的技能包”。
另一方面,相比于给智能体配置的skill,“同事.skill”非常轻量级,更具灵活性和适应性,水平也更加不稳定。“同事.skill”的介绍写道,“用他的技术规范写代码,用他的语气回答问题,知道他什么时候会甩锅”,在具体的生产场景,让AI模仿一个能力高超之人的工作方式方法有可取之处,但模仿人家“甩锅”,耗费额外的词元,有何收益?
同理,意在“炼化”老板、导师、前任等特定对象的“老板.skill”“导师.skill”“前任.skill”,既无法实现对个人的完整复制、完整提炼,也存在法律风险、使用局限。“同事.skill”在“skill宇宙”中风头无两,因有人夸大其功能,利用了人们“担心自己被AI替换”的焦虑。
不过,无论是“同事.skill”等涉及权责如何划分、劳动法与数字治理交叉问题等法律空白,以及人际关系被数据化、人类独特性等伦理与价值难题,还是因AI而解雇员工是否构成违法,在理论学界与司法实践均存在较大争议,都表明AI所造成的影响需要引起更大重视,相关空白亟待填补。
有人形容AI对科研岗位的影响时称“AI正在毁掉下一个辛顿”,指的是AI最能替代的入门级岗位,恰恰是科学家职业生涯的起点,警示我们关注AI替代效应对人才成长的影响。扩大到更广泛的劳动市场,以“同事.skill”为代表的AI应用需要有人教才可能好使,“同事.skill”与对应同事之间的关系若是“教会了徒弟没了师傅”,长期来看会导致两败俱伤。如何引导用人单位兼顾个体利益与集体利益,同样迫在眉睫。