Военные игры с ИИ показали, что в 95% случаев модели выбирали ядерный сценарий

Исследователи из Лондона провели военные игры с участием моделей искусственного интеллекта и проанализировали их решения. В 95% сценариев системы выбрали применение тактического ядерного оружия.

Военные игры с ИИ показали, что в 95% случаев модели выбирали ядерный сценарий

unsplash

Исследователи из Королевского колледжа Лондона смоделировали конфликт с участием трех ведущих моделей искусственного интеллекта от Google, OpenAI и Anthropic и поручили им роль вымышленных ядерных держав. В большинстве сценариев системы выбирали применение тактического ядерного оружия, при этом они не переходили к масштабным ударам по городам, однако демонстрировали готовность к эскалации в рамках боевых действий, сообщил Sky News.

Эксперимент прошел на фоне спора между Министерством обороны США и компанией Anthropic. Глава Пентагона Пит Хегсет потребовал предоставить военному ведомству новейшие версии моделей без встроенных ограничений. Генеральный директор Anthropic Дарио Амодей заявил, что компания готова продолжать сотрудничество, однако настаивает на двух условиях: запрет на использование технологий для массового наблюдения за гражданами США и для нанесения смертоносных ударов без участия человека.

Автор исследования профессор Кеннет Пейн подчеркнул, что речь не идет о передаче ядерных кодов искусственному интеллекту. Он отметил, что модели действовали в экспериментальной среде и понимали игровой характер сценариев, однако результаты показали сложность контроля над подобными системами.

Ранее Bzzz.news сообщал, что OpenAI объявила о тестировании рекламы в бесплатной версии ChatGPT для взрослых пользователей из США. Компания также представила новую подписку Go и объяснила, как реклама будет работать в сервисе.