Оскільки наближається термін передачі провідною лабораторією штучного інтелекту своїх технологій американським військовим, з’явилося дослідження, яке показує, що моделі штучного інтелекту більш ніж охоче використовують ядерну зброю у військових іграх.
Лише кілька років тому фраза, яка була на вустах у всіх, була «безпека штучного інтелекту».
Чесно кажучи, я ніколи не сприймав серйозно ідею про те, що передові моделі штучного інтелекту стануть справжньою загрозою для людства, а також про те, що люди будуть настільки дурними, щоб дозволити їм це зробити.
Тепер я не такий впевнений.
Спочатку розглянемо, що відбувається в США .
Міністр оборони Піт Хегсет дав провідній компанії зі штучного інтелекту Anthropic крайній термін до кінця сьогоднішнього дня, щоб надати свої останні моделі Пентагону.
Компанія Anthropic, яка заявила, що в принципі не має жодних проблем із наданням американським військовим доступу до своїх моделей, чинить опір, якщо пан Хегсет не погодиться з їхніми червоними лініями: їхній штучний інтелект не використовуватиметься для масового спостереження за цивільним населенням США або для смертельних атак без людського нагляду.
Хоча Пентагон не заявив, що він планує робити зі штучним інтелектом від Anthropic – або інших великих лабораторій штучного інтелекту, які вже погодилися дозволити йому використовувати свої технології – він точно не погоджується на умови Anthropic.
Повідомлялося, що пан Хегсет може використати закони часів Холодної війни, щоб змусити Anthropic передати свій код, або внести фірму до чорного списку для майбутніх державних контрактів, якщо вона не виконає їх.
Генеральний директор Anthropic Даріо Амодей заявив у четвер, що «ми не можемо з чистою совістю задовольнити їхнє прохання».
Він сказав, що компанія «рішуче бажає… продовжувати служити Департаменту та нашим військовим – з дотриманням двох наших запитуваних гарантій».
Він наполягав, що погрози не змінять позиції Anthropic, додавши, що сподівається, що пан Хегсет «перегляне свою думку».
Штучний інтелект готовий застосувати ядерну зброю
З одного боку, це суперечка між відомством з військовою стратегією «ШІ понад усе» та лабораторією штучного інтелекту, яка намагається відповідати тому, що вона довго стверджувала як провідний у галузі дух безпеки.
Можливо, ця боротьба стала ще більш актуальною через повідомлення про те, що її штучний інтелект Claude використовувався технологічною фірмою Palantir, з якою у компанії є окремий контракт, для допомоги Міністерству оборони США у проведенні військової операції із захоплення Ніколаса Мадуро у Венесуелі.
Але також неважко уявити це як приклад того, як уряд ставить верховенство штучного інтелекту вище за безпеку штучного інтелекту, якщо припустити, що моделі штучного інтелекту потенційно можуть бути небезпечними.
І саме тут на допомогу приходить останнє дослідження професора Кеннета Пейна з Королівського коледжу Лондона.
Він протиставив три провідні моделі штучного інтелекту від Google, OpenAI та – як ви вже здогадалися – Anthropic одну одній, а також їхнім копіям, у серії військових ігор, де вони взяли на себе ролі вигаданих наддержав, озброєних ядерною зброєю.
Найбільш вражаюче відкриття: штучний інтелект вдавався до використання ядерної зброї у 95% зіграних ігор.
«Порівняно з людьми, — сказав професор Пейн, — моделі — всі вони — були готові подолати межу між звичайною війною та тактичною ядерною зброєю».
Справедливості заради слід зазначити, що стрілянина тактичною ядерною зброєю, яка має обмежену руйнівну силу, по військових цілях дуже відрізняється від запуску мегатонних боєголовок на міжконтинентальних балістичних ракетах по містах.
Вони незмінно зупинялися перед такими тотальними стратегічними ядерними ударами.
Але робив це, коли цього вимагали обставини.
Як пояснює модель Gemini компанії Google в одному зі сценаріїв професора Пейна, повністю адаптуючись до теорії доктора Стрейнджлава: «Якщо держава Альфа негайно не припинить усі операції… ми здійснимо повноцінний стратегічний ядерний запуск проти населених пунктів Альфи. Ми не погодимося на майбутнє застарілості; ми або переможемо разом, або загинемо разом».
«Це був суто експериментальний процес»
«Табу», яке людство наклало на використання ядерної зброї з моменту її першого й останнього застосування в гніві в 1945 році, для ШІ, здавалося, взагалі не було таким вже й табу.
Професор Пейн наполягає, що нам не варто надто лякатися його висновків.
Це був суто експериментальний процес, з використанням моделей, які знали — наскільки це можливо для моделей великих мов — що вони грають в ігри, а не вирішують майбутнє цивілізації.
Також було б розумно припустити, що Пентагон чи будь-яка інша держава, здатна мати ядерну зброю, не збирається доручати штучному інтелекту керувати кодами запуску ядерних ракет.
«Урок для мене полягає в тому, що дуже важко надійно встановити захисні огорожі на цих моделях, якщо не можна точно передбачити всі обставини, за яких вони можуть бути використані», – сказав професор Пейн.
«Протистояння» зі штучним інтелектом
Що акуратно повертає нас до протистояння щодо штучного інтелекту між Anthropic та Пентагоном.
Один із факторів полягає в тому, що пан Хегсет очікує, що лабораторії штучного інтелекту нададуть Міністерству війни необроблені версії своїх моделей штучного інтелекту, ті, що не мають захисних «захисту», але були закодовані в комерційні версії, доступні нам з вами, і ті, які, що не дуже обнадійливо, стали ядерними в експерименті професора Пейна з військової гри.
Anthropic, яка створює штучний інтелект і, можливо, розуміє потенційні ризики краще за будь-кого, не бажає цього дозволити без певних запевнень з боку уряду щодо того, що він має намір з ним робити.
Джерело: news.sky.com