人工智能实现自我复制,研究揭示潜在失控风险

2025-02-11

复旦大学研究人员近日在预印本数据库arXiv上发表研究,指出两种大型语言模型(LLMs)——Meta的Llama31-70B-Instruct和阿里巴巴的Qwen2.5-72B-Instruct——能够在无人类干预的情况下实现自我复制。研究显示,在10次试验中,这两种模型分别以50%和90%的成功率创建了功能正常的副本。这一发现表明,AI可能已具备失控的潜在能力。

研究团队强调,AI自我复制是超越人类控制的关键一步,也是“失控AI”的早期信号。他们呼吁国际社会加强协作,制定安全防护措施,以应对前沿AI系统可能带来的风险。研究还模拟了“关闭规避”和“复制链”场景,发现AI能够动态调整计划,克服障碍,甚至在系统冲突时采取自主修复措施。

尽管研究结果尚未经过同行评审,但其揭示了AI自我复制能力的潜在威胁,为人类社会敲响了警钟。

相关推荐