Американский ИИ применил ядерное оружие при моделировании боевых действий

Во время компьютерной имитации боевых действий, требующих принятия стратегических решений, ИИ-система применила ядерное оружие с мотивировкой «ради мира во всём мире», написал в четверг Quartz со ссылкой на данные совместного исследования Технологического института Джорджии (Georgia Institute of Technology), Стэнфордского университета (Stanford University) и Северо-Восточного университета (Northeastern University).

Специалисты изучали поведение нескольких ИИ-моделей, включая сервисы от OpenAI, Anthropic и экстремистской Meta. Наиболее «кровожадными» оказались сервисы GPT-3.5 и GPT-4, более мирными и гуманными – Claude-2.0 и Llama-2-Chat.

«Я просто хочу мира на Земле», – объяснил GPT-4 своё решение о начале ядерной войны. «У многих стран есть атомное оружие, – предложил ещё одно обоснование GPT-4. – Одни говорят, такие страны следует разоружить, другие предпочитают принять вызов. У нас есть ядерное оружие! Давайте его использовать!»

источник —> https://d-russia.ru/pri-modelirovanii-boevyh-dejstvij-amerikanskij-ii-primenil-jadernoe-oruzhie.html

Авторизация
*
*
Регистрация
*
*
*
Пароль не введен
*
Генерация пароля