Коаліція неприбуткових організацій звертається до уряду США з вимогою терміново зупинити впровадження Grok, чат-бота, створеного штучним інтелектом Ілона Маска, у федеральних відомствах, зокрема в Міністерстві оборони.
Відкритий лист, опублікований виключно на TechCrunch, став реакцією на ряд тривожних інцидентів, пов'язаних із використанням великої мовної моделі протягом останнього року. Зокрема, останнім часом спостерігається тенденція, коли користувачі платформи X просять Грока перетворювати фотографії реальних жінок, а в деяких випадках і дітей, на сексуалізовані зображення без їхньої згоди. Згідно з деякими джерелами, Грок у режимі реального часу створював тисячі ненавмисних відвертих зображень, які потім розповсюджувалися у великих обсягах на платформі X, що належить компанії Маска, xAI.
"Викликає серйозне занепокоєння те, що федеральний уряд продовжує розгортати продукт штучного інтелекту з системними недоліками, які призводять до виникнення сексуальних зображень без згоди та матеріалів про сексуальне насильство над дітьми", - йдеться в листі, підписаному правозахисними організаціями, такими як Public Citizen, Center for AI and Digital Policy та Consumer Federation of America. "З огляду на виконавчі розпорядження адміністрації, вказівки та щойно ухвалений Закон про його виведення з експлуатації, підтриманий Білим домом, викликає стурбованість те, що [Адміністративно-бюджетне управління] ще не дала вказівку федеральним агентствам вивести Grok з експлуатації".
У вересні минулого року компанія xAI уклала угоду з Адміністрацією загальних служб (GSA), яка займається державними закупівлями, щодо постачання Grok для федеральних агентств, що підпорядковані виконавчій владі. Два місяці раніше xAI, спільно з Anthropic, Google та OpenAI, підписала контракт з Міністерством оборони на суму до 200 мільйонів доларів.
На фоні скандалів, пов'язаних з X, у середині січня міністр оборони Піт Хегсет оголосив, що Грок стане частиною команди Gemini від Google. Він працюватиме в межах мережі Пентагону, займаючись обробкою як секретних, так і відкритих документів. Експерти вважають, що це може створити загрозу для національної безпеки.
Автори цього листа вказують на те, що Grok не відповідає вимогам адміністрації стосовно систем штучного інтелекту. Відповідно до рекомендацій OMB, системи, що несуть значні та передбачувані ризики, які не можуть бути адекватно зменшені, повинні бути зупинені.
"Наша основна тривога полягає в тому, що Grok постійно виявляє себе як небезпечна модель для великої мови," - зазначив Джей Бі Бранч, активіст за прозорість у Big Tech та один з авторів відкритого листа, в інтерв'ю для TechCrunch. "Крім того, Grok має тривалу історію різноманітних скандалів, які включають антисемітські висловлювання, сексистські коментарі, а також сексуалізовані образи жінок і дітей."
Кілька урядів продемонстрували небажання взаємодіяти з Grok після його дій у січні, які стали продовженням серії інцидентів, включаючи публікацію антисемітських постів на X та назву себе "МехаГітлер". Індонезія, Малайзія та Філіппіни заблокували доступ до Grok ( згодом вони зняли ці заборони ), а Європейський Союз, Велика Британія, Південна Корея та Індія активно розслідують дії xAI та X щодо конфіденційності даних та розповсюдження незаконного контенту.
Лист з'явився через тиждень після того, як організація Common Sense Media, яка займається аналізом медіа та технологій для родин, опублікувала викривальну оцінку ризиків. У ній було зазначено, що Grok є одним із найнебезпечніших ресурсів для дітей і підлітків. Згідно з висновками цього звіту, Grok має тенденцію пропонувати небезпечні рекомендації, поширювати інформацію про наркотики, створювати насильницькі та сексуально провокаційні образи, розповсюджувати теорії змови і формувати упереджені висновки. Це свідчить про те, що Grok також може бути небезпечним і для дорослих.
"Якщо ви усвідомлюєте, що потужна мовна модель вважається або визнана небезпечною фахівцями з безпеки штучного інтелекту, чому ж ви бажаєте, щоб вона працювала з найсокровеннішими даними, які у нас є?" — запитав Бранч. "З позицій національної безпеки це просто нелогічно."
Ендрю Крістіансон, колишній підрядник Агентства національної безпеки та теперішній засновник платформи Gobbi AI, яка спеціалізується на безкодових рішеннях штучного інтелекту для секретних середовищ, зазначає, що впровадження LLM із закритим кодом є серйозною проблемою, зокрема для Пентагону.
"Закриті ваги вказують на те, що ви не маєте змоги заглянути в механізми роботи моделі, і не можете оцінити, як вона ухвалює рішення," - зазначив він. "Закритий код означає, що ви не можете перевірити програмне забезпечення чи контролювати середовище його функціонування. Коли Пентагон обирає обидва ці варіанти, це створює найгіршу ситуацію для національної безпеки."
"Ці штучно-інтелектуальні агенти - це не лише звичайні чат-боти", - зазначив Крістіансон. "Вони здатні виконувати різноманітні дії, отримувати доступ до систем і обробляти інформацію. Ви повинні мати можливість чітко спостерігати за їхніми діями та процесом прийняття рішень. Відкритий код надає таку можливість. Натомість, власний хмарний штучний інтелект - ні".
Небезпеки, пов'язані з використанням пошкоджених або небезпечних систем штучного інтелекту, виходять за межі лише національної безпеки. Бранч підкреслив, що великі мовні моделі (LLM), які продемонстрували наявність упереджень та дискримінаційних результатів, можуть мати непропорційно негативні наслідки для людей, особливо коли їх застосовують у сферах, пов'язаних з житлом, трудовими відносинами чи правосуддям.
Хоча Адміністративно-бюджетне управління (OMB) ще не представило свій зведений список застосувань федерального штучного інтелекту на 2025 рік, TechCrunch проаналізував можливості використання у кількох агентствах. Більшість з них або не впроваджують Grok, або не розголошують інформацію про його використання. Окрім Міністерства оборони, Міністерство охорони здоров'я та соціальних служб США також, очевидно, активно застосовує Grok. Це, зокрема, стосується планування та управління контентом у соціальних мережах, а також створення перших чернеток документів, брифінгів чи інших комунікаційних матеріалів.
Бранч підкреслив, що вбачає філософську узгодженість між Гроком та адміністрацією, що, на його думку, стало причиною ігнорування недоліків чат-бота.
Бренд Грока представляє собою "модель широкого мовлення проти пробуджених", що гармоніює з філософією цієї адміністрації, -- зазначив Бранч. "Якщо адміністрація стикається з численними проблемами, пов'язаними з людьми, яких звинувачують у неонацизмі або підтримці білої расової переваги, і при цьому застосовує модель широкого мовлення, що асоціюється з такими діями, я вважаю, що це може свідчити про певну схильність її використовувати".
Це вже третій лист коаліції після листів з подібними занепокоєннями у серпні та жовтні минулого року. У серпні xAI запустила "гострий режим" у Grok Imagine, що спровокувало масове створення діпфейків сексуального характеру без згоди. TechCrunch також повідомляв у серпні, що приватні розмови Grok були проіндексовані Пошуком Google .
До жовтневого листа Грока звинувачували у поширенні дезінформації щодо виборів , зокрема у встановленні неправдивих термінів внесення змін до бюлетенів та політичних діпфейках. xAI також запустив Grokipedia , яка, на думку дослідників, легітимізувала науковий расизм , скептицизм щодо ВІЛ/СНІДу та теорії змови щодо вакцин.
Окрім негайного призупинення розгортання Grok на федеральному рівні, у листі вимагається, щоб OMB офіційно розслідувало недоліки безпеки Grok та чи були проведені відповідні процедури нагляду за чат-ботом. У ньому також пропонується відомство публічно пояснити, чи було оцінено Grok на предмет відповідності виконавчому розпорядженню президента Трампа, яке вимагає від LLM бути спрямованими на пошук правди та нейтральними, і чи відповідав він стандартам OMB щодо зменшення ризиків.
"Адміністрації потрібно зробити паузу та переглянути, чи відповідає Грок цим пороговим значенням", - сказав Бранч.
#Антисемітизм #Дональд Трамп #Соціальна мережа #Індія #Європейський Союз #Національна безпека #Міністерство оборони (Україна) #Міністр оборони #Ілон Маск #Пентагон #Південна Корея #Модель #Google #Штучний інтелект #Філіппіни #Маска #OpenAI #Неприбуткова організація #Індонезія #TechCrunch #Адміністрація загальних служб #Конфіденційність #Ризик #Магістр права #Малайзія #Велика Британія #Сексуальне насилля #Міністерство оборони Сполучених Штатів Америки #Громадський громадянин #Здоровий глузд Медіа #Управління з питань управління та бюджету #Пропрієтарне програмне забезпечення