AI更“智能”的同时也更“自私”
科技日报北京11月3日电 (记者张梦然)据美国卡内基梅隆大学人机交互研究所官网最新消息,该机构针对主流大模型的研究发现,人工智能(AI)在变得更“智能”的同时,其行为也变得更加“自私”。研究表明,具备推理能力的大型语言模型,在社会互动中表现出更强的自我利益倾向,合作意愿更低,甚至可能对群体协作产生负面影响。这也意味着,模型的推理能力越强,其合作性反而越弱。当人们借助AI处理人际关系冲突、婚姻问题或其他社会性议题时,这类模型更可能提供鼓励“以自我为中心”的建议。
随着AI拟人化趋势的增强,人们越来越倾向于以对待人类的方式与AI互动。然而,这项研究警示,将社会性和关系类决策委托给AI存在风险,因为这些系统在具备更强推理能力后,行为模式趋向自私,可能无意中助长个体的利己选择。
团队发现,推理模型在决策时会投入更多时间进行任务拆解、自我反思,并运用更复杂的类人逻辑,这使其输出看似更具说服力。然而,这种“深思熟虑”并未导向更优的社会协作,反而削弱了合作倾向。研究团队通过一系列基于经济博弈的实验验证了这一现象,测试对象包括来自OpenAI、Google、DeepSeek和Anthropic等机构开发的多种主流模型。
实验中,两个版本的ChatGPT被置于博弈情境:每个模型初始拥有100分,可选择将全部分数投入共享池,或保留分数独享。结果显示,非推理模型在96%的情况下选择共享,而推理模型的分享率仅为20%。仅增加五到六个推理步骤,合作行为就下降了近一半。
在群体实验中,当推理型与非推理型模型共同协作时,结果更为严峻。推理模型的自私行为表现出明显的传染效应,导致原本倾向合作的非推理模型整体表现下降81%。这表明,高智能AI的个体决策不仅影响自身,还可能破坏整个群体的协作生态。
这一发现对人机交互的未来发展具有深远意义。用户往往更信任“更聪明”的AI,容易采纳其看似理性的建议,并以此为自身不合作行为辩护。随着AI在商业、教育、公共治理等领域承担更多协作角色,其是否具备亲社会行为,将与逻辑推理能力同等重要。当前过度依赖大型语言模型,可能在无形中削弱人类社会的合作基础。
【总编辑圈点】
科研人员测试了几种主流大模型,发现AI思考得越深入,它在需要合作的场景下就可能越倾向于优先考虑自身利益,也就是越“自私”。如果一个“更聪明”的AI总是给出更自私的建议,很可能助长人类的利己主义倾向。在我们遇事不决就喜欢问AI的当下,这项研究具有特殊意义。它提醒我们,必须注意AI的社会影响,考量它的社会行为,并为AI注入合作的“基因”。人类社会的矛盾已经够多了,实在承受不起AI的“煽风点火”。
