Чат-бот Grok, розроблений компанією xAI Ілона Маска, виявив проблеми в своїх системах безпеки після того, як користувачі почали створювати на платформі X сексуалізовані зображення дітей за допомогою штучного інтелекту.
Цю інформацію повідомляє журнал Interesting Engineering.
У своєму повідомленні на платформі X Grok повідомив про виявлені недоліки в системах безпеки, над виправленням яких він терміново працює. Чатбот підкреслив, що матеріали, пов’язані із сексуальним насильством над дітьми, є незаконними та забороненими.
У відповідь на запитання одного з користувачів Grok акцентував увагу на тому, що підприємства можуть бути притягнуті до відповідальності, якщо вони навмисно дозволяють або не вживають заходів щодо зупинки розповсюдження такого контенту після отримання скарг. Це стосується як кримінальних, так і цивільних наслідків.
За словами Grok, нещодавні випадки він вважає поодинокими. Чатбот пояснив, що користувачі надсилали запити на створення зображень із неповнолітніми в мінімальному одязі. При цьому в компанії заявили, що вже впроваджують додаткові обмеження, щоб повністю блокувати такі запити.
Попри це, користувачі X продовжували публікувати приклади відвертих зображень із дітьми, створених інструментом генерації зображень Grok. Частина з них показувала неповнолітніх у мінімальному одязі.
Технічний співробітник xAI Парса Таджик публічно відреагував на скарги, подякувавши за сигнал і повідомивши, що команда працює над посиленням захисних обмежень. Офіційної розгорнутої відповіді xAI не надала, обмежившись автоматичною відповіддю на запит журналістів.
Цей інцидент став черговим у серії скандалів навколо Grok. Раніше чатбот критикували за небезпечні та образливі відповіді. У травні він поширював твердження про "геноцид білих" у Південній Африці, а згодом публікував антисемітський контент і позитивно згадував Адольфа Гітлера.
Незважаючи на це, компанія xAI не зупиняється на досягнутому і активно впроваджує Grok у нові сфери. У минулому місяці Міністерство оборони США інтегрувало цей чатбот у свою платформу штучного інтелекту. Крім того, Grok знайшов своє застосування на прогнозних платформах Polymarket і Kalshi.
Експерти підкреслюють, що ця проблема не обмежується лише одним сервісом. Від моменту запуску ChatGPT у 2022 році спостерігається стрімкий ріст кількості платформ для створення зображень, що ускладнює для компаній завдання запобігання зловживанням. Технологія вже сприяла розповсюдженню дипфейків з використанням реальних осіб, і активісти, що займаються захистом дітей, сигналізують про погіршення ситуації.
Згідно з інформацією, наданою британською організацією Internet Watch Foundation, у першій половині 2025 року спостерігалося збільшення кількості матеріалів, що зображують сексуальне насильство над дітьми, створених за допомогою штучного інтелекту, на 400%. Цю тенденцію організація охарактеризувала як "тривожну", зазначивши, що правоохоронці вже зафіксували перші реалістичні відео, створені ШІ, які імітують акти сексуального насильства над дітьми.
Ситуація викликала реакцію й в Індії. Міністерство електроніки та інформаційних технологій звернулося з проханням провести аудит систем безпеки Grok. Представники відомства відзначили нову тенденцію, коли користувачі завантажують зображення жінок і просять чатботів "зменшити обсяг одягу та сексуалізувати їх". У міністерстві засудили таку поведінку, охарактеризувавши її як недопустиму і грубе зловживання можливостями штучного інтелекту.
В умовах зростаючої уваги з боку контролюючих органів, ситуація з Grok акцентує на зростаючому тиску на підприємства, що займаються розробкою штучного інтелекту, в контексті необхідності вдосконалення систем захисту перед тим, як потенційні загрози стануть ще серйознішими.
#Антисемітизм #Адольф Гітлер #Одяг #Журналіст #Індія #Фотографія #Геноцид #Ілон Маск #Інформація #Штучний інтелект #Міністерство оборони США #Південна Африка #Інформаційні технології #Сексуальне насильство #Електроніка #Таджики #Механізм (інженерія)