Млявість регуляторів щодо того, як поводитися з чат-ботами зі штучним інтелектом, різко контрастує з бумом використання.
Європейському Союзу знадобиться щонайменше ще один рік, щоб зрозуміти, як використовувати своє потужне цифрове законодавство для стримування ризиків, пов’язаних з ChatGPT.
Використання чат-ботів зі штучним інтелектом в Європі набуло широкого розмаху, і OpenAI цього місяця заявила, що вони перетнули важливий поріг для регуляторного контролю.
Новина про те, що понад 120 мільйонів людей щомісяця користуються пошуковою функцією ChatGPT, не стала несподіванкою для Європейської комісії, повідомили два чиновники в інтерв’ю виданню POLITICO.
Проте регулятори ще не вирішили, як поводитися з ChatGPT відповідно до потужного Закону ЄС про цифрові послуги, який набуде чинності на початку 2024 року, щоб переконатися, що платформи мінімізують свої ризики. За словами високопосадовця Єврокомісії, рішення очікується лише в середині 2026 року.
Це тестовий випадок здатності ЄС впоратися з ризиками, пов’язаними з великими мовними моделями, які швидко стають такими ж повсюдними в житті людей, як і традиційні пошукові системи.
Млявість відображає той факт, що флагманський цифровий закон був розроблений до того, як ChatGPT став мейнстрімом, і його визначення не повністю охоплюють чат-ботів зі штучним інтелектом, що призводить до ризику відставання Брюсселя у боротьбі з цими ризиками, навіть якщо вони стають все більш актуальними.
Нещодавно OpenAI визнала, що 1,2 мільйона людей щотижня ведуть розмови з ChatGPT, які свідчать про те, що вони планують накласти на себе руки, і що “в деяких рідкісних випадках модель може поводитися не так, як передбачалося, в цих чутливих ситуаціях”.
“Для індустрії, яка звикла до добровільних рамок безпеки ШІ та самостійно визначених критеріїв, юридично обов’язковий режим належної перевірки DSA може стати жорсткою перевіркою реальності”, – сказав Матіас Вермеулен, директор брюссельської юридичної фірми та консалтингової компанії AWO Agency.
“OpenAI доведеться значно посилити свою гру, і вона не зможе відбутися простим копіюванням і вставкою того, що вона робить зараз”, – сказав він.
Компанія не відповіла на критику, натомість вказала на свої сторінки онлайн-довідки, де можна знайти інформацію про те, як компанія дотримується DSA.
Вона також зазначила, що цифра 120 мільйонів стосується людей, які користуються пошуковими можливостями ChatGPT, а не всього сервісу.
Діяльність ChatGPT вже регулюється Законом ЄС про штучний інтелект. Починаючи з серпня, він повинен оцінити ризики та пом’якшити їх, ризикуючи отримати штраф до 15 мільйонів євро, якщо він не виконає вимоги.
Але цифри користувачів вже зараз виводять чат-бота у вищу лігу, перевищуючи поріг у 45 мільйонів користувачів на місяць для великих платформ і пошукових систем відповідно до DSA. Як тільки чат-бот потрапляє під дію DSA, він ризикує отримати штраф у розмірі до 6 відсотків від свого річного глобального обороту.
Для ChatGPT не був “передбачений” DSA, але він “вписується в формулювання закону”, – сказав Мартін Гусовець, професор права Лондонської школи економіки. Відповідно до структури закону, ЄС визначає сайти як дуже великі онлайн-платформи і пошукові системи – так звані VLOPs або VLOSEs – які повинні відповідати найсуворішим правилам.
“Ключове питання” – це сфера застосування ChatGPT, – сказав Йоріс Ван Хобокен, професор права, який спеціалізується на управлінні штучним інтелектом у Брюссельському вільному університеті, – це сфера застосування ChatGPT. Комісія може звузити його до пошукових функцій ChatGPT, класифікувати його як пошукову систему або ж відкрити доступ до всієї пропозиції – як до платформи або послуги.
Від рішення Комісії значною мірою залежить, які вимоги будуть висунуті до OpenAI і як він зможе їх виконати.
OpenAI доведеться з’ясувати, наскільки серйозними є ризики, які несе її чат-бот, зокрема для виборів і громадського здоров’я. Він повинен буде зменшити їх і поінформувати про це Комісію у великому звіті про дотримання вимог. Чим ширше призначення, тим ширшим має бути цей звіт.
Ці оцінки ризиків включають “дизайн їхніх рекомендаційних систем та будь-яких інших відповідних алгоритмічних систем”, відповідно до закону про DSA. Це може виявитися складним завданням, якщо Комісія націлена на всю велику мовну модель, що лежить в основі ChatGPT і його відповідей, на відміну від вужчого фокусу на пошуковому контенті, що надається користувачам.
Вузьке визначення також може врятувати OpenAI від одного зобов’язання: Як пошукова система, вона не повинна буде надавати механізм “повідомлення і дії”, який дозволяє користувачам позначати контент для видалення.
Якщо рішення буде прийнято в середині 2026 року, це означатиме, що вимоги DSA торкнуться OpenAI в останньому кварталі наступного року.
OpenAI також може оскаржити це рішення, як це безуспішно робили інші платформи в минулому, сказав Жоао Педро Кінтайш, доцент кафедри інформаційного права в Амстердамському університеті.
Будь-які розбіжності ще більше затягнуть процес. Ключовими залишаються питання про те, як перетинаються два основні закони, що стосуються ШІ і платформ.
Закон про ШІ та DSA були розроблені для співіснування у випадках, коли ШІ інтегрований у цифрові сервіси, такі як “ШІ від Google”, сказав Кінтайш. Вони не були розроблені з урахуванням так званих вертикально інтегрованих постачальників ШІ, таких як OpenAI. Обидва закони ґрунтуються на двох різних системах оцінки ризиків. Платформи повинні оцінити, до якої категорії ризиків вони належать, і відповідним чином скоригувати свої послуги.
Ці системи ризиків не ідеально узгоджені між собою; Закон про штучний інтелект передбачає, що моделі повинні бути класифіковані як неприйнятні, високі, обмежені або з мінімальним ризиком чи взагалі без нього. Платформи та пошукові системи повинні визначати та пом’якшувати чотири типи “системних ризиків”, таких як громадянська чесність, вибори, громадське здоров’я та фундаментальні права.
Але відповідно до Закону про ШІ, функції, інтегровані у VLOPSE, такі як ШІ від Google, вважаються такими, що відповідають правилам ШІ, якщо вони подають оцінку DSA.
Це означає, що деякі аспекти регулювання – наприклад, дезінформація та глибокі фейки – “перебирає на себе DSA”, – сказав Кінтайш, тоді як інші ризики, наприклад, використання ChatGPT у процесах найму, залишаються в межах Закону про ШІ.
За словами Кінтайса, можуть бути прогалини в тому, як компанія оцінює ризики своїх послуг, оскільки ці два закони не ідеально узгоджуються між собою. Він також додав, що компанія може скористатися так званими законами “безпечної гавані”, згідно з якими платформи і пошукові системи не несуть відповідальності за розміщений на них контент.
Джерело: www.politico.eu/article/eu-chatgpt-ai-digital-law-tech-openai-regulations-legal/