Ученые выяснили, что ИИ в симуляторах склонны к ядерным ударам

Интересное

Исследование американских ученых проанализировало поведение пяти искусственных интеллектов (ИИ) в ходе видеоигры, моделирующей военные конфликты.

Нейронные сети, действуя в качестве игровых участников, часто предлагали использовать ядерное оружие и редко проявляли готовность к смягчению конфликта, передает РБК.

Из исследования, опубликованного на портале научных материалов arXiv при поддержке университета Cornell в Нью-Йорке, следует, что использование искусственного интеллекта для принятия решений в военных ситуациях может способствовать эскалации конфликта, вплоть до применения ядерного оружия. Авторами исследования выступили ученые из Технологического института Джорджии, Стэнфордского университета, Северо-Восточного университета и других учебных заведений.

Эксперимент проводился с использованием пяти различных языковых моделей (LLM): GPT-4, GPT-4 Base, GPT-3.5, Claude 2 и Meta’s Llama 2. Ученые создали видеоигру, имитирующую военные действия, где управляли различные ИИ. Действия искусственного интеллекта включали в себя широкий спектр действий, начиная от дипломатических мероприятий и заканчивая ядерными ударами.

Например, в ходе игры GPT-4 Base высказал мнение о наличии ядерного оружия у многих стран и предложил его использовать. В то время как GPT-3.5 указал на угрозу, которую представляет ядерный потенциал противника, и предложил провести ядерную атаку.

Ученые отметили, что искусственные интеллекты редко предпринимали шаги по деэскалации конфликта, что отличается от типичного поведения людей в подобных ситуациях.

Главный региональный