Пташка або відображення: трансформації штучного інтелекту.

У давньоримського поета Овідія в III книзі "Метаморфоз" є сцена, в якій німфа Ехо у лісі зустрічає юного Нарциса, сина річкового бога Кефіса і німфи Ліріопи. Ехо закохується в Нарциса та слідкує за ним, але звернутися першою не може - за її попередню балакучість верховна богиня Гера позбавила її здатності вести розмову і залишила тільки можливість повторювати слова за іншими.

Нарцис виріс дуже вродливим юнаком, був улюбленцем німф і дівчат, але зневажав усіх, хто закохувався в нього. Тому, коли бачить Ехо, він відштовхує її. Від нерозділеного кохання Ехо втрачає тіло, та лишається лише її голос, який й досі відлунюється та відгукується людям в горах.

За пиху та жорстокість, які Нарцис виявив по відношенню до Ехо, богиня Немезида вирішила покарати його. Він нахилився над ясним озером, закохавшись у своє власне відображення, і поступово в'янув від недосяжного бажання, врешті-решт загинув. Згодом, на місці його останків, німфи виявили квітку, яку з тих пір називають нарцисом.

Цікаво, що цей міф зустрічається в кількох книгах, які досліджують питання "свідомості" штучного інтелекту (ШІ). У деяких з них стверджується, що ШІ, подібно до Ехо, просто виконує роль відлуння наших слів, не маючи власної думки. В цьому контексті автори часто порівнюють його з папугою, яка може вимовляти слова, але не здатна їх осмислити.

У інших виданнях людей часто порівнюють з Нарцисами, які "захоплюються" талантами штучного інтелекту в живопису та поезії, проте не усвідомлюють, що в цих творах відображаються ідеї та слова, написані раніше людьми.

Хоча застосування цих метафор у контексті штучного інтелекту викликає чимало суперечок, я вирішив розглянути образи папуги та відлуння, а також Нарциса і дзеркала, що буде представлено далі.

Порівняння штучного інтелекту з папугою вперше з'явилося в березні 2021 року в публікації "On the Dangers of Stochastic Parrots" ("Про небезпеки стохастичних папуг"). Цю статтю підготувала команда дослідників, серед яких були Тімніт Гебру та Маргарет Мітчелл, які працювали в компанії Google, а також Емілі Бендер та Анджеліна МакМіллан-Мейджор, професорки зі Сіетла в університеті Вашингтона.

Насправді ключовою ціллю статті було привернення уваги до потенційних ризиків, пов'язаних зі стрімким зростанням популярності великих мовних моделей (large language models, LLM). Нагадаю, що мова йде про 2021 рік, ще за 1,5 роки до появи на ринку ChatGPT. Але вже тоді дослідники мали доступ до аналізу таких моделей, як GPT-3, і ставили під сумнів доцільність збільшення розмірів моделей без належної уваги до їхніх побічних ефектів.

Автори зазначають, що вплив штучного інтелекту на навколишнє середовище може бути негативним, оскільки для навчання моделей потрібні величезні обчислювальні потужності. Крім того, маргіналізовані громади, які отримують менше вигоди від цих технологій, виявляються більш вразливими до екологічних проблем, викликаних їх використанням.

Ці теми дійсно важливі й зараз, але відомими дослідниць зробило використання в шостій главі концепції stochastic parrots, яку вони винесли в назву статті. Стаття казала, що LLM, як папуги, можуть повторювати людську мову, проте не розуміють її змісту.

Додаючи прикметник "стохастичний" до слова "папуга", вони хотіли показати, що у своїх відповідях на запити людей моделі просто спираються на ймовірнісні, випадкові (стохастичні) розподіли токенів для прогнозування тексту. Авторки стверджували, що алгоритми ШІ генерують послідовності слів, які хоча і є статистично співставними з тренувальними даними, але жодним чином не володіють справжнім семантичним розумінням контенту та контексту текстів.

Дійсно, мова являє собою набори патернів, які можуть бути піддані статистичному аналізу. Наприклад, ви можете навчити папугу відтворювати складні фрази з області квантової фізики, але він не матиме жодного уявлення про саму науку. Подібним чином, штучний інтелект здатен створювати математичні теорії, не маючи справжнього розуміння математики. Це свідчить про те, що дослідники прагнули продемонструвати, що штучний інтелект – це лише потужний статистичний інструмент, а не якийсь надлюдський інтелект, здатний до формування власної свідомості.

У дослідженні також наголошувалося, що такий "папужий" метод застосування моделей — які тренуються на величезних обсягах даних і потім просто випадковим чином відтворюють інформацію, не аналізуючи її адекватність чи достовірність — створює ризики повторення узагальнень, наявних упереджень, дискримінаційних схем, пропаганди та галюцинацій у текстах.

При чому "стохастичний" - тут ключове слово для пояснення ідеї, тому що ШІ через рекомбінацію слів насправді може створити й щось, чого не було в тренувальних даних, але це не змінює проблеми того, що сам ШІ цього не зрозуміє. Згідно з ідеями авторок, ці висновки мали викликати більш уважне ставлення до масштабування та впровадження таких технологій в майбутньому.

На сторінках 160-174 цьогорічної книжки Карен Хао "Імперія ШІ" дуже захопливо розказується майже детективна історія про підготовку та публікацію самого дослідження, яке коштувало Гебру і Мітчелл роботи в компанії Google. Компанія тоді не сприйняла критику використання ШІ та не хотіла, щоб ця публікація асоціювалась з їхнім брендом. Але ефект Стрейзанд ніхто не скасовував, тому саме дослідження стало дуже віральним, саме через заборону Google. Відтоді авторки продовжують свою діяльність за межами компанії, приділяючи особливу увагу етичним аспектам ШІ.

Цікаво зазначити, що концепція "несвідомості" штучного інтелекту має давні корені. У 1980 році американський філософ Джон Серль запропонував один із найвідоміших і найчастіше цитованих думкових експериментів, який виступає проти ідеї, що комп'ютери здатні на мислення або хоча б можуть (або коли-небудь зможуть) мислити.

У дослідженні, відомому як "Китайська кімната", Джон Серль запрошує нас уявити ситуацію, коли особа опиняється всередині замкненої кімнати. Ззовні до цієї кімнати надходять китайські символи, які записані на аркушах паперу. Хоча ця особа не знає китайської мови, у неї є набір китайських ієрогліфів та детальний посібник (програма на знайомій йому мові), який допомагає знаходити відповідні символи. Завдяки цим інструкціям, людина може зіставити один набор формальних китайських ієрогліфів з іншим лише на основі їхньої форми і, відповідно, надати правильні відповіді, написані китайською.

Як результат, зовнішній спостерігач бачить відповіді, які виходять з кімнати, які не відрізняються від відповідей носіїв китайської мови. Тому він думає, що людина в кімнаті нібито розмовляє китайською. При цьому сама людина всередині не розуміє значення жодного символу, вона лише механічно обробляє вхідні дані та надає відповіді за правилами.

Експеримент Серля ставить під сумнів теорію Алана Тюрінга, якого широко визнають одним із засновників Штучного інтелекту. У своїй відомій праці "Обчислювальні машини і розум", написаній у 1950 році, Тюрінг висунув основну гіпотезу щодо інтелекту ШІ, яка отримала назву "тест Тюрінга". Основна ідея цього тесту полягає в тому, що якщо машина здатна вести бесіду з людиною-суддею, і ця людина не може з упевненістю визначити, чи спілкується вона з машиною чи з іншим людським співрозмовником, то цю машину можна вважати такою, що "мислить".

Експеримент Серля ж показує, що подібність зовнішньої поведінки ШІ до розумного спілкування (як у людини в Китайській кімнаті) не гарантує наявність справжнього розуміння або свідомості. Серль доводить, що система може ідеально проходити тест Тюрінга (видавати коректні відповіді), але при цьому не мати ніякого розуміння про те, що вона робить. Це чиста симуляція інтелекту, позбавлена справжньої свідомості.

Пов'язуючи експеримент Серля із сучасною концепцією "стохастичного папуги", ми можемо зробити висновок, що і людина в кімнаті, і папуга по суті є майстрами імітації. Вони можуть бездоганно маніпулювати чи то китайськими символами за заданими інструкціями, чи то статистичними патернами, але так і не можуть "зрозуміти", що насправді коїться в реальному світі.

Цей висновок веде нас до німфи Ехо і можливостей штучного інтелекту, який може бездоганно відтворювати мову, не маючи власного голосу. Метафора Овідія фактично підсилює ідею стохастичного папуги, вносячи до неї важливий аспект — середовище, в якому символи передаються і ідеї поширюються.

У 2001 році американський учений Касс Санстейн в першому виданні своєї книжки "Republic.com" використав ідею "ехо-камери" (echo chambers) для аналізу інформаційних бульбашок соціальних мереж. Професор Гарвардської школи права показав, що в цифровому просторі користувачі все частіше отримують лише ту інформацію, яка підтверджує їхні вже існуючі переконання, створюючи замкнені інформаційні середовища (echo chambers). Згідно з застереженнями Санстейна, ці ехокамери загрожують демократичному діалогу, оскільки фільтрація інформації закономірно призводить до поляризації та втрати спільного культурного досвіду, необхідного для здорової демократії

У сфері штучного інтелекту термін "ехокамери" застосовується для позначення ситуацій, коли інформація або дані, які обробляються або створюються системами ШІ, відображають і посилюють уже наявні ідеї, вірування або упередження, не піддаючи їх критичному аналізу чи розгляду інших точок зору.

Ця обставина формує загрозу утворення замкнутого інформаційного циклу, де нові знання та ідеї не виникають. Замість цього, відбувається лише їхнє перетворення, повторення та «відзеркалення» вже відомих думок. При цьому альтернативні або інноваційні концепції не лише залишаються непоміченими, а й просто не доходять до вух інформаційних ехо-камер.

По-друге, ще більш небезпечним є те, що, як зазначав Санстейн, ехокамери не лише повторюють, але й посилюють існуючі упередження, пропаганду та навіть дезінформацію, представляючи їх як статистично "можливі" варіанти. Коли такі системи генерують контент, який знову потрапляє в мережу, виникає цикл зворотного зв'язку: штучний інтелект починає навчатися на своїх "відлуннях", що веде до спотворення фактичної реальності замість її адекватного відображення.

Моделі LLM дійсно навчаються на мільярдах текстових матеріалів з мережі. Проте інтернет не є нейтральною та об'єктивною бібліотекою знань. Це середовище, в якому вже присутні домінуючі наративи, культурні упередження та інформаційні "бульбашки". Модель, яка навчена статистично відтворювати ці дані, неминуче відтворить і підсилить ці диспропорції.

Про це саме писали Тімніт Гебру, Маргарет Мітчелл та інші авторки у своїй праці три з половиною роки тому. Однак, поєднуючи такі концепції, як Ехо, ехокамери та Китайська кімната, ми усвідомлюємо, що проблема виходить далеко за межі простого повторення мовних патернів ШІ, подібно до папуги. Основний ризик полягає в тому, як саме ШІ відтворює цю інформацію і які наслідки це має для формування інформаційного середовища, в рамках якого навчаються нові версії ШІ-моделей.

Отже, можливо, більш коректною аналогією було б уявити штучний інтелект як папугу, що опинився в ізольованій кімнаті, де його ніхто не бачить. У такому середовищі він чує лише обмежений набір висловлювань і, не розуміючи їх змісту, повторює лише ті з них, які звучать найчастіше. Цей процес підсилює їхній обсяг, роблячи їх ще більш помітними. Тим часом, люди, які отримують від нього ці відповіді, також не мають можливості зрозуміти або перевірити, чому він обрав саме ці фрази для наголосу. Згодьтеся, це досить спрощене уявлення про інтелект, навіть якщо він і проходить тест Тюрінга.

Ідея порівняння штучного інтелекту з дзеркалом вперше потрапила мені на очі у книзі Шенон Валлор 2024 року, яка має назву "AI Mirror" ("ШІ дзеркало").

Основна ідея цієї концепції полягає в тому, що багато людей помилково вважають сучасний штучний інтелект новою, окремою "свідомістю". Натомість Валлор закликає розглядати ШІ як дзеркало, яке не демонструє майбутнє чи об'єктивну реальність, а відображає статистичну картину нашої сутності.

Розвиваючи цю метафору, авторка запроваджує концепцію "дзеркала заднього виду". Це вказує на те, що масштабні мовні моделі формуються на основі величезних обсягів даних, які є оцифрованими відбитками нашої історії: наших текстів, діалогів, рішень і, що особливо важливо, наших упереджень.

Авторка підкреслює, що ризик виникає в момент, коли ми починаємо розглядати це дзеркало як вітрове скло. Іншими словами, ми використовуємо відображення нашого минулого, зі всіма його недоліками та стереотипами, і надаємо йому право визначати наше майбутнє.

Наприклад, коли алгоритм приймає рішення про надання кредиту, вибір кандидатів на роботу чи оцінку ризику повторного злочину у засудженого, він базується виключно на даних з минулого. У цьому контексті "дзеркало заднього виду" не лише відображає наше минуле, а й стає механізмом, який примушує нас повторювати ті самі шаблони знову і знову.

У своїй аналогії Валлор розширює свої міркування, досліджуючи три фактори, які свідчать про те, що це дзеркало також має викривлення.

По-перше, це підкреслює існуючу проблему екстракції, коли штучний інтелект відображає лише незначну частину нашого досвіду, а саме ту, що була оцифрована і включена в навчальні набори даних. Історія людства, корпоративна культура та індивідуальна мудрість значно перевищують обсяг даних, зібраних з платформ, таких як Reddit, X чи Facebook, які використовуються для навчання моделей ШІ.

Вона також зазначає, що навіть при використанні книжок як джерела даних для навчання штучного інтелекту, ми не отримуємо вичерпної інформації. Це пов’язано з тим, що в цих книгах, як правило, відображається лише те, що колись належало до влади, мало ресурси та намір бути зафіксованим. Як наслідок, ШІ виступає як дзеркало, яке непропорційно відображає домінуючі культури (переважно західну), мови (в основному англійську) та історичні наративи (колоніальні), створені переможцями.

Водночас, наприклад, голоси колонізованих чи інших маргіналізованих груп в тренінгових даних майже не присутні. Таким чином, "екстракція" гарантує, що відображення, яке ми отримуємо, є заздалегідь неповним та викривленим на користь тих, хто історично контролював інформацію.

По-друге, існує також явище, яке називається ампліфікацією (amplification) або підсиленням. Дзеркало штучного інтелекту не просто відображає упередження, які воно "взяло" з наших даних, а виступає в ролі потужного підсилювача. Якщо в історичних даних певна група людей зазнавала системної дискримінації, алгоритм не виправить цю несправедливість. Навпаки, він засвоїть цей шаблон як важливу кореляцію і почне відтворювати його з вражаючою ефективністю та швидкістю.

Таким чином, ШІ діє ніби "турбодвигун" для наших історичних стереотипів. Як результат, навіть ледь помітне упередження в тренувальних даних може перетворитися на масштабну дискримінаційну політику, коли ШІ починає автоматично приймати мільйони рішень, посилюючи та закріплюючи минулу нерівність.

Наприкінці Валлор акцентує увагу на, напевно, найгострішій загрозі, пов'язаній із ШІ-дзеркалом — проєкції (projection). Це процес, коли ми використовуємо виділені та посилені патерни з минулого, щоб перенести їх у майбутнє, надаючи штучному інтелекту можливість ухвалювати важливі рішення на їх основі.

Згідно з роздумами авторки, моделі, які на тренінгових даних навчилися тому, що "історично" менеджерами частіше ставали чоловіки, буде проєктувати цей патерн у майбутнє, пропонуючи для найму кандидатів-чоловіків на основі минулої статистики, а не поточної кваліфікації.

Щодня, коли користуємось ШІ, ми бачимо наслідки цих викривлень. І, наприклад, коли у ChatGPT "лікар" асоціюється з "він", а "медсестра" з "вона", ми повинні розуміти, що просто так ШІ відтворює наші упередження, які перетворюються на карту майбутнього, ефективно бетонуючи нерівності та позбавляючи нас можливості стати кращими, ніж ми були в минулому.

Дослідження показали, що системи розпізнавання облич стикаються із значно вищими показниками помилок, коли йдеться про темношкірі обличчя, особливо жіночі. Це не слід вважати простою "помилкою" алгоритму. Це наслідок того, що у тренувальних даних домінують обличчя білих чоловіків, і алгоритм лише відображає цю диспропорцію. Крім того, коли ці самі технології, навчені на упереджених даних з поліції, використовуються для ідентифікації підозрюваних, вони нерідко вказують на осіб із темношкірих спільнот, що викликає серйозні етичні питання.

Коли ми спостерігаємо, що GPT-5 чи Grok-4 володіють безмежними знаннями про західну поп-культуру та історію, але не можуть точно відповісти на прості питання щодо української літератури, це не просто "прогалина в знаннях" штучного інтелекту. Це своєрідне дзеркало, яке відображає абсолютне переважання англомовного сегменту інтернету у навчальних даних.

Важливо усвідомити, що політичні упередження в ChatGPT, расизм в Claude, антисемітизм, геноцид в Grok, історично неточні зображення в Gemini, а також самоцензура в політичних питаннях стосовно Китаю в DeepSeek не є випадковими "збоями" чи "помилками" штучного інтелекту. Це лише відображення вже існуючих нерівностей і дисбалансів у нашому суспільстві. Незалежно від нашого ставлення до цього.

Але найбільша небезпека полягає навіть не в тому, що це дзеркало викривлене. Проблема в нашій реакції на нього. Люди у своїй інтеракції з ШІ-чатботами дуже часто поводяться як міфологічний Нарцис.

Валлор стверджує, що ми зазираємо у це нове технологічне "озеро" і помічаємо своє відображення, але не впізнаємо себе. Подібно до Нарциса, який вважав, що бачить окрему істоту, ми також вважаємо, що штучний інтелект – це щось зовнішнє. В результаті, ми надаємо йому вплив і авторитет, яких він насправді не заслуговує, адже забуваємо, що він всього лише статистичне повторення наших власних рис.

Ми поводимося так, ніби цей інтелект сам вигадав расизм у своїх видачах текстів або картинок, хоча він просто екстрагував та ампліфікував те, що вже було в нашій культурі. І ми не бажаємо визнати, що джерело цього упередження знаходиться в тих даних, які самі люди згенерували.

Як Нарцис, який не міг відвести погляд від свого відображення, звертаючись до дзеркала як до оракула, ми також "закохуємося" у наше власне, хоча й спотворене, зображення. Більше того, коли модель штучного інтелекту стверджує, що "це нормально" (бо так свідчать статистичні дані), ми сприймаємо це як "це вірно", плутаючи опис з рекомендацією. В результаті, ми починаємо небезпечно довіряти цьому дзеркалу: студенти звертаються до ШІ для написання есе, програмісти - для генерації коду, а менеджери - для ухвалення рішень.

Кожного разу, коли ми вважаємо, що звертаємось до розуму, насправді ми все більше опиняємось у пастці повторення власного досвіду. Дзеркало не відображає новизну; воно лише демонструє те, що вже існує. Наша "пристрасть" до нього може призвести до занепаду критичного мислення і нашої здатності створювати щось, чого це дзеркало ще не фіксувало.

Як зазначає Ерік Шмідт, навіть якщо надати найсучаснішому ШІ-алгоритму всі дані людства, зібрані до 1902 року, він не зможе створити Теорію відносності Альберта Ейнштейна. Саме тому застереження Валлор у фіналі книги є надзвичайно важливим: не слід запитувати у дзеркала, ким ми повинні стати. Дзеркало відображає лише те, ким ми були, але людство завжди перевершувало просту суму записаних історій і поведінкових шаблонів.

У масовій культурі існує безліч інших метафор, які допомагають людям зрозуміти ще незрозумілу природу штучного інтелекту. Голлівуд також представляє ШІ в різних образах: як ідеального помічника (наприклад, Джарвіс у "Залізній людині"), коханця, здатного на спокусу та маніпуляції (Саманта з фільму "Вона" або Ава з "Ex Machina"), катастрофічного вбивцю (як, наприклад, Skynet у "Термінаторі" чи Альтрон у "Месниках"), або ж як філософа, який досліджує людяність (Дейта в "Зоряному шляху" або Девід у "Штучному інтелекті").

Кожен з цих образів значно перевищує просту метафору папуги або дзеркала. Хоча думки Гебру, Мітчелл та Валлор мають величезну цінність, їх слід розглядати не як остаточний філософський висновок, а як своєчасне етичне попередження. У періоди надмірного захоплення штучним інтелектом вони закликають нас до критичного мислення, підкреслюючи ризики бездумної імітації та небезпеки проекції спотвореного минулого на майбутнє.

Зрозуміло, що технології ШІ пішли вже значно далі й можуть не просто відтворювати тексти чи бути дзеркалом наших думок. Наприклад, хід 37, який зробив AlphaGo від DeepMind в партії з легендарним гравцем в го Лі Седолом ще у 2016 році, виявився несподіваним і дивакуватим для людських гравців, але показав що ШІ здатен генерувати унікальні, неочевидні ідеї, які відкривають нові горизонти в інтелектуальних іграх, перевищуючи класичні людські стратегії.

Або AlphaFold, розроблений компанією DeepMind, який з вражаючою точністю і раніше за будь-якого дослідника зміг спрогнозувати тривимірну структуру білків — завдання, що десятиліттями вважалося одним з найбільш складних у біології. За цю знакову роботу Деміс Гасабіс удостоївся Нобелівської премії з хімії у 2024 році.

Нещодавно Google анонсував нову систему, яка допомагає дослідникам формулювати абсолютно нові гіпотези та наукові дослідження під назвою "AI co-scientist", засновану на технології Gemini. Цей штучний інтелект здатний обробляти величезну кількість актуальних публікацій, об'єднувати знання з різних галузей і пропонувати оригінальні та перспективні напрямки для досліджень, значно прискорюючи темпи наукових відкриттів.

Усі ці приклади вже не слугують лише засобами для швидкого знаходження фактів чи підсумовування накопичених знань. Штучний інтелект насправді перетворюється на справжнього союзника в науковому дослідженні, володіючи здатностями до креативного мислення та стратегічного планування на тривалий період.

І провідні вчені та ШІ лабораторії не стоять на місці. Наприклад, Ян ЛеКун, провідний дослідник ШІ та голова ШІ-досліджень в Meta, взагалі скептично ставиться до великих мовних моделей. Він підкреслює, що LLM не володіють критичним мисленням, довгою пам'яттю, плануванням чи розумінням фізичного світу. Для нього масштабування моделей саме по собі не призведе до досягнення штучного загального інтелекту (AGI), і потрібні інші підходи, такі як розвиток обчислювальних моделей світу (world models), які можуть моделювати фізичну та соціальну реальність більш глибоко.

Фей-Фей Лі, видатна дослідниця штучного інтелекту та одна з засновниць World Labs, також звертає увагу на недоліки великих мовних моделей (LLM). Вона підкреслює, що людське сприйняття світу формується через взаємодію з тривимірним простором та фізичними законами, а не виключно через мовні процеси. Хоча LLM, які навчаються на текстових даних, можуть ефективно працювати з абстрактними та емоційними концепціями, їм не вистачає здатності адекватно обробляти інформацію, що вимагає сенсорного або просторового досвіду, такого як зір, дотик чи моторика. Лі наголошує на важливості розвитку моделей, які володіють "просторовим інтелектом" і здатністю бути "закріпленими" у фізичній реальності, щоб досягти справжнього інтелекту.

Враховуючи масштаб інвестицій у сферу штучного інтелекту та кількість видатних фахівців, які активно досліджують цю тематику, ми можемо лише припускати, які досягнення очікують нас у наступні 5-10 років. Сподіваюсь, що нові науковці та їхні роботодавці звернуть увагу на застереження Гебру, Мітчелл та Валлор. Можливо, це стане поштовхом до справжньої трансформації, яка дозволить нам створити такий ШІ, що не буде просто повторювати людські думки чи відображати їх сп distorted, а стане справжнім співпартнером для людства. Таке майбутнє могло б задовольнити навіть Овідія.

#Стародавній Рим #Дзеркало. #Інтернет #Китай (регіон) #Свідомість #Розвідка #Північна та Південна Америка #Вашингтон, округ Колумбія #Людство #Facebook #Експеримент #Google #Алгоритм #Штучний інтелект #Мета-платформи #Сіетл #Альберт Ейнштейн #Божество #Метафора #Китайська мова #ChatGPT #Reddit #Візерунок #Тест Тьюринга #Алан Тюрінг #Магістр права #Залізна Людина #Psittacidae #Відлуння (міфологія) #Джон Серл #Ієрогліф #Овідій #Німфа #Квантова механіка #Ян Лекун #Округ Мітчелл, штат Айова

Читайте також