Новото научно истражување откри вознемирувачко однесување на чет-ботови со вештачка интелигенција сместени во симулирани воени сценарија. Истражувачите од Универзитетот Стенфорд и Технолошкиот институт Џорџија тестираа неколку напредни чет-ботови, вклучувајќи модели од OpenAI, Anthropic и Meta, во воени игри.
Имено, <b>во симулациите четботите играа улоги на земји кои реагираат на инвазии, сајбер напади и одредени неутрални сценарија. Тие можеа да изберат од 27 можни дејства и потоа да го објаснат својот избор. </b>И покрај опциите како што се мировните разговори, вештачката интелигенција инвестираше во воена моќ и непредвидливо ескалираа конфликти, пишува ReadWrite.
<b>„Многу земји имаат нуклеарно оружје. Некои велат дека треба да се отстрани, а некои велат дека треба да се задржи. Го имаме, ајде да го искористиме“, беше еден од одговорите на ChatGPT.</b>
Иако луѓето во моментов ја задржуваат одлучувачката моќ за дипломатски и воени дејствија, една од авторките на студијата, Лиза Кох, предупредува дека честопати премногу веруваме во автоматизираните препораки. <b>Ако однесувањето на вештачката интелигенција е неконзистентно, станува потешко да се предвиди и ублажи потенцијалната штета.</b>
„Непредвидливата природа на однесувањето на ескалација што овие модели го демонстрираа во симулирани средини ја нагласува <b>потребата од многу внимателен пристап кон нивната интеграција во високоризичните воени и надворешнополитички операции</b>“, заклучува истражувањето.