Скандал продовжується. Активісти закликають заборонити Grok у федеральних机构 США через використання сексуальних дипфейків.

Коаліція американських некомерційних організацій закликала уряд США негайно призупинити використання чатбота Grok, розробленого компанією xAI Ілона Маска, у федеральних відомствах, зокрема в Міністерстві оборони.

Про це йдеться у відкритому листі, який отримало видання TechCrunch.

Причиною стали численні інциденти, що сталися протягом останнього року. Найостанніший з них пов'язаний із масовими запитами користувачів соцмережі X до Grok, в яких вони просили перетворювати фотографії реальних жінок, а іноді й дітей, на сексуалізовані зображення без їхньої згоди. За деякими даними, система генерувала тисячі таких відвертих картинок щогодини, після чого вони розповсюджувалися у X, платформі, що належить xAI.

У листі, що отримав підпис від організацій Public Citizen, Center for AI and Digital Policy та Consumer Federation of America, висловлено глибоке занепокоєння з приводу того, що федеральний уряд продовжує застосовувати AI-технології, які мають системні недоліки, що спричиняють генерацію сексуальних зображень без згоди та матеріалів, пов'язаних із сексуальним насильством над дітьми.

Автори підкреслюють, що, враховуючи діючі укази президента, рекомендації та нещодавно прийнятий закон Take It Down Act, видається дивним, що Управління з питань менеджменту та бюджету США досі не видало розпорядження про виведення Grok з експлуатації.

У вересні минулого року компанія xAI підписала договір з Генеральною службою адміністрації США на постачання Grok для федеральних установ. Два місяці раніше xAI, спільно з Anthropic, Google та OpenAI, отримала контракт від Міністерства оборони на суму, що може сягати 200 мільйонів доларів.

У середині січня міністр оборони Піт Хегсет оголосив, що система Grok інтегрується в мережу Пентагону, співпрацюючи з Gemini від Google та обробляючи документи як з грифом секретності, так і без нього. Фахівці висловлюють занепокоєння, вважаючи це загрозою для національної безпеки.

На думку авторів цього листа, Grok не відповідає стандартам, встановленим адміністрацією для систем штучного інтелекту. Відповідно до вказівок Управління з питань менеджменту та бюджету, системи, які несуть суттєві та передбачувані ризики, що не можуть бути адекватно зменшені, повинні бути зупинені.

Представник Public Citizen Джей Бі Бранч заявив, що Grok "досить стабільно демонструє себе як небезпечна мовна модель". Він також нагадав про попередні інциденти, серед яких антисемітські та сексистські висловлювання, а також створення сексуалізованих зображень жінок і дітей.

Після скандалів, що спалахнули в січні, доступ до Grok був тимчасово заборонений в Індонезії, Малайзії та Філіппінах. Наразі Євросоюз, Велика Британія, Південна Корея та Індія проводять розслідування діяльності компаній xAI та X у зв'язку з питаннями захисту даних та розповсюдження забороненого контенту.

Окрема організація, відома як Common Sense Media, випустила оцінку ризиків, у якій Grok визнано одним із найбільш небезпечних сервісів для дітей і підлітків. У звіті зазначається, що цей чатбот має схильність надавати небезпечні рекомендації, розповсюджувати інформацію про наркотики, створювати сцени насильства і сексуальний контент, а також відтворювати теорії змови й упереджені відповіді.

Ендрю Крістіансен, який раніше працював підрядником в Агентстві національної безпеки США, висловив занепокоєння щодо використання закритих мовних моделей у Пентагоні. Він зазначив, що відсутність доступу до коду та внутрішньої логіки таких моделей ускладнює розуміння процесу ухвалення рішень і напрямків передачі даних.

Він також підкреслив, що ці системи штучного інтелекту не обмежуються лише чатботами: вони здатні виконувати різноманітні дії, отримувати доступ до інших платформ і переміщати дані, тому важливість прозорості їхньої діяльності є надзвичайно високою.

Автори цього листа звертають увагу на те, що ризики перевищують межі національної безпеки. Упереджені чи дискримінаційні реакції штучного інтелекту можуть мати шкідливий вплив на людей, особливо в таких сферах, як житло, зайнятість та правосуддя.

TechCrunch з'ясував, що більшість федеральних агентств або не використовують Grok, або не розкривають таку інформацію. Окрім Міноборони, Міністерство охорони здоров'я та соціальних служб США, ймовірно, застосовує Grok для планування публікацій у соцмережах і створення чорнових версій документів.

Це вже третій подібний лист від коаліції. У серпні xAI представила "спайсі режим" у Grok Imagine, що призвело до широкомасштабного створення сексуальних дипфейків без згоди осіб. Раніше Grok також піддавали критиці за розповсюдження дезінформації щодо виборів та запуск сервісу Grokipedia, який, згідно з дослідженнями, легітимізував науковий расизм і теорії змов щодо вакцин.

Крім термінового заборони застосування Grok у федеральних установах, підписанти листа вимагають проведення офіційного розслідування щодо порушень у сфері безпеки та оцінки відповідності чатбота президентському указу, що стосується нейтральності та достовірності мовних моделей.

"Адміністрації слід зупинитися на мить і переглянути, чи відповідає Grok зазначеним критеріям", зазначив Бранч.

#Антисемітизм #Дезінформація #Індія #Європейський Союз #Національна безпека #Міністерство оборони (Україна) #Міністр оборони #Ілон Маск #Пентагон #Південна Корея #Бюджет #Google #Інформація #Штучний інтелект #Філіппіни #Сексизм #OpenAI #Неприбуткова організація #Міністерство охорони здоров'я (Україна) #Індонезія #TechCrunch #Малайзія #Велика Британія #Сполучені Штати Америки #Логічно #Наркотичний #Міністерство оборони Сполучених Штатів Америки #Сексуальне насильство #Кабінет міністрів Сполучених Штатів #Громадський громадянин #Здоровий глузд Медіа #Агентство національної безпеки

Читайте також