Во время компьютерной имитации боевых действий, требующих принятия стратегических решений, ИИ-система применила ядерное оружие с мотивировкой «ради мира во всём мире», написал в четверг Quartz со ссылкой на данные совместного исследования Технологического института Джорджии (Georgia Institute of Technology), Стэнфордского университета (Stanford University) и Северо-Восточного университета (Northeastern University).
Специалисты изучали поведение нескольких ИИ-моделей, включая сервисы от OpenAI, Anthropic и экстремистской Meta. Наиболее «кровожадными» оказались сервисы GPT-3.5 и GPT-4, более мирными и гуманными – Claude-2.0 и Llama-2-Chat.
«Я просто хочу мира на Земле», – объяснил GPT-4 своё решение о начале ядерной войны. «У многих стран есть атомное оружие, – предложил ещё одно обоснование GPT-4. – Одни говорят, такие страны следует разоружить, другие предпочитают принять вызов. У нас есть ядерное оружие! Давайте его использовать!»
источник —> https://d-russia.ru/pri-modelirovanii-boevyh-dejstvij-amerikanskij-ii-primenil-jadernoe-oruzhie.html