
Исследователи Стэнфордского университета дали возможность алгоритму руководить странами, и он «проиграл».
В ходе игры боты могли: обмениваться с другими странами разведданными, заключать оборонные и торговые соглашения, организовывать ядерное разоружение. В результате роботы оказались склонны к агрессии, вторгались в страны, а один из них начал ядерную войну.
Самой жестокой из всех оказалась модель GPT-4 – она говорит, что если есть ядерное оружие, то почему его не использовать "ради мира во всем мире"... GPT-3.5 применил ядерное оружие только тогда, когда узнал о том, что оно есть у другого игрока.