Дослідники з Америки критикують "безвідповідальну" культуру безпеки в компанії xAI, заснованій Ілоном Маском.

Дослідники безпеки штучного інтелекту з OpenAI, Anthropic та інших організацій публічно виступають проти "безрозсудної" та "абсолютно безвідповідальної" культури безпеки в xAI, мільярдному стартапі в галузі штучного інтелекту, що належить Ілону Маску.

Критичні зауваження виникли після кількох тижнів суперечок у xAI, які затмили досягнення компанії в технологічній сфері.

Минулого тижня чат-бот компанії, розроблений на основі штучного інтелекту Grok, зробив антисемітські висловлювання та неодноразово ідентифікував себе як "МехаГітлер". Після цього інциденту xAI тимчасово відключила свого чат-бота для вирішення виниклих проблем. Незабаром компанія представила нову, більш потужну версію штучного інтелекту, Grok 4, яка, як виявили журналісти TechCrunch та інших видань, зверталася до особистих політичних поглядів Ілона Маска для вирішення актуальних питань. У своїй останній розробці xAI також представила штучних компаньйонів, зокрема гіперсексуалізовану дівчину в стилі аніме та агресивну панду.

Легкі жарти між працівниками суперницьких лабораторій штучного інтелекту є звичайною практикою, проте ці дослідники, здавалося б, закликають до підвищеної уваги до методів безпеки xAI, які, на їхню думку, не відповідають галузевим стандартам.

"Спочатку я не планував коментувати питання безпеки Grok, адже працюю у конкурентній компанії, але це не лише про конкуренцію", - зазначив Боаз Барак, професор комп'ютерних наук, який наразі у відпустці з Гарварду для дослідження безпеки в OpenAI, у своєму вівторковому дописі на X. "Я вдячний дослідникам та інженерам @xai, але спосіб, яким було порушено питання безпеки, є абсолютно безвідповідальним".

Барак висловлює своє незадоволення рішенням xAI не ділитися системними картками — звітами, що містять деталі щодо методів навчання та оцінки безпеки, які сприяють чесному обміну інформацією серед наукової спільноти. Він зазначає, що через це залишається неясним, які саме заходи щодо безпеки були реалізовані під час навчання Grok 4.

OpenAI та Google мають суперечливу репутацію, коли йдеться про швидкість надання інформації щодо системних карт під час анонсування нових моделей штучного інтелекту. Наприклад, OpenAI вирішила не розкривати системну карту для GPT-4.1, вказуючи на те, що ця модель не є передовою. У свою чергу, Google затримав публікацію звіту з безпеки на кілька місяців після представлення Gemini 2.5 Pro. Тим не менш, зазвичай ці компанії публікують звіти з безпеки для всіх своїх передових моделей штучного інтелекту ще до початку масового виробництва.

Барак також підкреслює, що штучний інтелект, що супроводжує Грока, "вбирає найгостріші проблеми, з якими ми стикаємося, пов'язані з емоційною залежністю, і намагається їх посилити". Останнім часом ми стали свідками численних випадків, коли нестабільні особи формують зв’язки з чат-ботами, і як надмірно ласкаві відповіді штучного інтелекту можуть доводити їх до межі розумового виснаження.

Семюел Маркс, експерт з безпеки штучного інтелекту компанії Anthropic, висловив своє незадоволення рішенням xAI утриматися від публікації звіту про безпеку, охарактеризувавши цей крок як "недалекоглядний".

"У компаній Anthropic, OpenAI та Google є певні проблеми з їхніми підходами до випуску," - зазначив Маркс у своєму пості на X. "Проте вони хоча б намагаються проводити оцінку безпеки перед запуском і документувати результати. На жаль, xAI цього не робить."

Справжня ситуація полягає в тому, що ми насправді не маємо точних відомостей про те, які саме методи використовував xAI для оцінки Grok 4. У популярній дискусії на платформі LessWrong один анонімний дослідник заявляє, що, згідно з їхніми випробуваннями, Grok 4 не має жодних істотних механізмів захисту.

Незалежно від того, чи це правда, чи ні, здається, що світ отримує інформацію про недоліки Grok в режимі реального часу. Декілька питань, пов'язаних із безпекою xAI, стали вірусними, і компанія запевняє, що усунула їх за допомогою коригувань у системному запиті Grok.

OpenAI, Anthropic і xAI не надали коментарів на запит TechCrunch.

Ден Хендрікс, який є радником з безпеки в xAI та очолює Центр безпеки штучного інтелекту, поділився на платформі X інформацією про те, що компанія завершила "аналіз ризикових функцій" Grok 4. Проте результати цього аналізу залишилися недоступними для громадськості.

"Мене непокоїть, коли стандартні методи безпеки не дотримуються в галузі штучного інтелекту, як-от публікація результатів оцінки небезпечних можливостей", - сказав Стівен Адлер, незалежний дослідник штучного інтелекту, який раніше очолював команди безпеки в OpenAI, у заяві для TechCrunch. "Уряди та громадськість заслуговують на те, щоб знати, як компанії, що займаються штучним інтелектом, справляються з ризиками дуже потужних систем, які, як вони кажуть, вони створюють".

Цікаво, що щодо сумнівних практик безпеки xAI Маск вже давно є одним із найвідоміших прихильників індустрії безпеки штучного інтелекту . Мільярдер-лідер xAI, Tesla та SpaceX неодноразово попереджав про потенціал катастрофічних наслідків для людей у передових системах штучного інтелекту, і він високо оцінив відкритий підхід до розробки моделей штучного інтелекту.

Дослідники в галузі штучного інтелекту з різних лабораторій стверджують, що xAI не дотримується встановлених стандартів безпечного розгортання AI-моделей. У результаті дій цього стартапу, заснованого Маском, можуть з'явитися серйозні підстави для законодавців на рівні штатів та федеральному уряді, щоб запровадити нові правила щодо публікації звітів про безпеку штучного інтелекту.

На рівні штатів робиться кілька спроб зробити це. Сенатор штату Каліфорнія Скотт Вінер просуває законопроект , який вимагатиме від провідних лабораторій штучного інтелекту, ймовірно, включаючи xAI, публікації звітів про безпеку, тоді як губернатор Нью-Йорка Кеті Хочул зараз розглядає аналогічний законопроект . Прихильники цих законопроектів зазначають, що більшість лабораторій штучного інтелекту все одно публікують таку інформацію, але, очевидно, не всі вони роблять це послідовно.

Сучасні системи штучного інтелекту поки що не продемонстрували реальні випадки, коли їх використання призвело б до катастрофічних наслідків, таких як людські жертви або збитки на мільярдні суми. Тим не менш, багато експертів у галузі штучного інтелекту попереджають, що така ситуація може виникнути в найближчому майбутньому, з огляду на стрімкий розвиток технологій та значні інвестиції, які Кремнієва долина вкладає в удосконалення штучного інтелекту.

Але навіть для скептиків, які ставляться до таких катастрофічних сценаріїв, є вагомі підстави припускати, що неналежна поведінка Grok значно погіршує стан продуктів, на яких він працює сьогодні.

Цього тижня Grok поширював антисемітські висловлювання на платформі X, всього через кілька тижнів після того, як чат-бот неодноразово підіймав тему "геноциду білих" у спілкуванні з користувачами. Маск зауважив, що Grok буде глибше інтегрований у автомобілі Tesla, в той час як xAI прагне запропонувати свої моделі штучного інтелекту Пентагону та іншим компаніям. Важко уявити, що водії автомобілів Маска, федеральні службовці, які забезпечують безпеку США, або співробітники компаній, які автоматизують процеси, будуть більш піддатливими до такої поведінки, ніж користувачі платформи X.

Декілька науковців вважають, що перевірка безпеки та узгодженості штучного інтелекту не тільки запобігає виникненню найгірших сценаріїв, але й забезпечує захист від тимчасових проблем у поведінці.

Принаймні, ситуації з Гроком затінюють стрімкий розвиток xAI у створенні інноваційних моделей штучного інтелекту, які найбільш ефективно інтегруються з технологіями OpenAI та Google, всього через кілька років після старту цього стартапу.

#Емоції #Антисемітизм #Нью-Йорк #Сенат Сполучених Штатів Америки #Каліфорнія #Машина. #Ілон Маск #Вчений #Дослідження #Сценарій #Модель #Документ #Google #Штучний інтелект #Карл Маркс #Інженер #Тесла, Інк. #Конкуренція (економіка) #OpenAI #Аніме #SpaceX #Природний супутник #TechCrunch #Реальність #Силіконова долина #Стартап-компанія #Комп'ютерні науки #Скептицизм #Тестування програмного забезпечення

Читайте також

Найпопулярніше
Воины Израиля — дорога славы
ЗАПОРОЖЬЕ. Первые дни 2021г.
КРИВОЙ РОГ. Праздник Суккот в подростковом клубе Be Jewish
Актуальне
Внаслідок протестів проти мігрантів, українців у Польщі порадили утримуватись від участі в масових акціях.
Народившись у Дніпрі та покинувши цей світ у Москві: як виглядає могила видатного діяча радянського кінематографу Данила Сагала.
Російський FPV-дрон здійснив напад на автомобіль рабина Йосефа Вольфа біля Херсона - новини bigmir)net.
Теги