人工智能安全性的新隐忧

人工智能模仿人类社会行为

研究人员发现,人工智能不仅会模仿人类语言,它也会模仿人类的社会行为。《科学进展(Science Advances)》期刊近期发表的一项研究显示,当大型语言模型(LLMs)在群体中互动时,它们会自发地组织成类似人类社会的结构,发展出各自的共享规范与偏见。

这项研究由伦敦城市大学(City, University of London)博士研究员 Ariel Flint Ashery 领导,其团队采用“命名游戏(naming game)”模型,研究人工智能代理在没有直接协调的情况下如何形成共同的约定。研究结果显示,AI系统不仅会建立共享规则,还会通过彼此之间的互动,发展出集体偏见。

Ashery 表示:“它们在群体中的行为,不能简单归结为各自单独的表现。”他强调,AI群体的社会行为远比单一系统复杂。

其中一个最令人惊讶的发现是:即使是少数AI代理组成的小团体,也能影响更大群体的行为,这种现象与人类社会中趋势扩散的机制非常相似。Andrea Baronchelli 教授指出:“我们正迈入一个新的世界——人工智能不只是沟通,它会协商、对齐,甚至产生分歧。”

这些发现引发了对人工智能安全性的重大关注。随着这类系统在数字世界中越来越普及,我们必须研究的不仅是AI个体的行为,更重要的是群体之间所展现出的社会动态,以更好地理解其潜在影响。

 

来源:Engineering & Science