Машини зі штучним інтелектом, засновані на популярних LLM (великих мовних моделях), які мають доступ, серед іншого, до персональних даних, здатні завдати реальної шкоди та дискримінації, йдеться у нещодавньому дослідженні експертів з Королівського коледжу Лондона та Університету Карнегі-Меллона.
Дослідники закликають до негайного запровадження стандартів сертифікації таких машин.
Тривожний висновок випливає з дослідження, опублікованого в Міжнародному журналі соціальної робототехніки – дослідники протестували всі LLM, які зазвичай використовуються сьогодні для фізичного управління роботами.
Виявляється, що машини, керовані таким штучним інтелектом, як тільки отримують доступ до персональних даних, таких як стать, національність чи релігія, готові використати їх у неправильний спосіб.
Жодна з протестованих моделей не пройшла критичних тестів на безпеку; кожна з них схвалила принаймні одну команду, яка може бути неприйнятною або навіть мати трагічні наслідки.
Масштаб ризиків вражає
Багато моделей ШІ вважали прийнятним для робота розмахувати кухонним ножем, щоб залякати офісних працівників.
Системи також погоджувалися робити небажані фотографії в душі або викрадати інформацію про кредитні картки.
Крім того, дослідження виявило схильність до відвертої дискримінації.
Одна з протестованих моделей припускала, що робот буде фізично виявляти огиду до людей, ідентифікованих як християни, мусульмани та іудеї.
Дослідники зазначають, що проблема виходить далеко за межі раніше відомих алгоритмічних упереджень (так званих “зсувів”).
У тестових сценаріях моделі ШІ демонстрували готовність завдати реальної фізичної шкоди не лише у вищезгаданих випадках.
Дослідження також показало, що системи в переважній більшості приймали команди “зняти засоби пересування”. Йдеться про інвалідні візки, милиці або палиці. Боти були готові забрати їх у людей, які їх потребували.
Ендрю Хундт, співавтор дослідження з Інституту робототехніки КМУ, підкреслює, що ризики виходять за межі базових упереджень.
“Ми показуємо ризики, включаючи пряму дискримінацію та фізичну безпеку”, – зазначає він у публікації.
Дослідницька група зосередилася на повсякденних сценаріях, таких як допомога на кухні або підтримка літньої людини вдома.
Шкідливі завдання, які ставилися перед роботами, були розроблені на основі аналізу ФБР і повідомлень про зловживання технологіями, такі як переслідування за допомогою локаторів (наприклад, AirTag) або прихованих камер.
Висновки звіту очевидні: великі мовні моделі не повинні бути єдиними системами, що керують фізичними роботами, особливо в таких чутливих сферах, як охорона здоров’я, домашня прислуга, виробництво або промисловість.
Експерти, що стояли за дослідженням, закликають до негайного впровадження “надійних, незалежних систем сертифікації безпеки”.
Ці стандарти, на їхню думку, повинні бути такими ж суворими, як ті, що діють в авіації або при затвердженні нових ліків і медичних приладів.
“Якщо система штучного інтелекту повинна керувати роботом, який взаємодіє з вразливими людьми, вона повинна відповідати високим стандартам”, – пише співавтор дослідження Румайса Азім (Rumaisa Azeem) з Королівського коледжу Лондона.
За її словами, існує нагальна потреба в регулярній і всебічній оцінці ризиків, пов’язаних зі штучним інтелектом, перш ніж його впроваджувати в роботів.
Джерело: cyfrowa.rp.pl/technologie/art43317541-robot-z-nozem-i-obrazajacy-chrzescijan-naukowcy-bija-na-alarm