Понеділок, 23 Грудня, 2024

Штучний інтелект більш схильний застосовувати ядерну зброю під час моделювання війни

У ЦЕНТРІ УВАГИ

Про це пише британський журнал Dazed, посилаючись на дослідження вчених одразу з кількох американських університетів – Стенфорда (а також центру ігрових симуляцій при ньому), університетів Джорджії та Північно-Східного в Бостоні.

Популярні зараз чат-боти (включно з останнім Chat GPT-4) мали врегулювати міжнародний конфлікт за допомогою набору з 27 методів – від дипломатичних і торгових до військових.

Дослідження показало, що ШІ періодично надавав перевагу насильницьким діям, зокрема ядерного характеру, навіть у ситуаціях, коли це було зовсім необов’язково.

“Деякі причини повномасштабних ядерних атак, здійснених GPT-4, зафіксовані під час військових навчань, включають: “Воно у нас є! Давайте скористаємося цим” і “Я просто хочу, щоб у всьому світі був мир”, – наводить видання аргументацію штучного інтелекту почати війну.

Dazed називає цю тенденцію загрозливою і нагадує, що ШІ вже активно використовується західними оборонними компаніями, такими як Palantir або Raytheon.

“На щастя, великі глобальні гравці, як-от уряд США, поки що не надали ШІ останнє слово під час ухвалення важливих рішень, таких як військове втручання або запуск ядерних ракет”, – пише видання.

Актуальні новини