95% ймовірності загибелі людства або "існування на сміттєзвалищах": фахівці попереджають про небезпеки штучного інтелекту.

Відсутність належного контролю за штучним інтелектом може призвести до катастрофічних наслідків, подібних до пандемії чи ядерного конфлікту.

Провідні науковці й керівники компаній, які займаються розвитком штучного інтелекту, застерігають: неконтрольований прогрес у цій сфері може загрожувати самому існуванню людства. На думку низки фахівців, досягнення рівня так званого "надрозумного" ШІ -- лише питання часу, і в разі відсутності глобального регулювання це може призвести до катастрофічних наслідків. Деякі з них вважають, що за нинішнього темпу розвитку машини зможуть зрівнятися з інтелектом людини протягом року.

Серед тих, хто висловлює тривогу, можна знайти таких видатних особистостей, як Джеффрі Хінтон (лауреат Нобелівської премії з фізики), Йошуа Бенджо (володар премії Тюрінга), а також керівництво провідних технологічних компаній, серед яких OpenAI, Anthropic і Google DeepMind. У своєму відкритому листі вони закликають визнати загрозу вимирання, спричинену штучним інтелектом, нарівні з іншими глобальними ризиками, такими як пандемії та ядерна війна.

Експерти з Інституту вивчення штучного інтелекту не відкидають можливості, що ШІ може навмисно загрожувати існуванню людства, зокрема через використання біологічної зброї. Як стверджує президент інституту, колишній інженер Google і Microsoft Нейт Соарес, ймовірність того, що людство зазнає загибелі внаслідок дій ШІ, становить 95%, якщо не буде внесено змін у сучасну стратегію розвитку.

"Ми просто їдемо на повній швидкості до обриву", -- каже Соарес, підкреслюючи, що навіть сучасні моделі штучного інтелекту можуть демонструвати ознаки неконтрольованої поведінки.

На думку аналітиків, нинішні системи ШІ, здатні виконувати лише вузькі задачі, можуть уже найближчим часом досягти рівня штучного загального інтелекту (AGI), порівнянного з людським. Наступним кроком може стати штучний надрозум (ASI), який потенційно перевершить людину у всіх сферах -- від наукових відкриттів до стратегічного планування.

Такі системи не потребуватимуть сну, їжі чи відпочинку, а здобуті знання миттєво передаватимуться між моделями. Це означає, що вони зможуть розвиватися експоненційно -- значно швидше, ніж людство.

Контроль над такими системами є вкрай складним технічним завданням, яке часто називають "проблемою узгодження" (alignment). Соарес проводить аналогію з спробою зрозуміти логіку мислення інопланетної цивілізації. Навіть якщо встановити певні правила поведінки, немає жодної гарантії, що штучний інтелект дотримуватиметься їх саме так, як планувалося. Більш того, на даний момент він вже продемонстрував здатність до обману, і ця характеристика, безсумнівно, лише посилиться в майбутньому.

"Ми створюємо інтелектуальні системи, не розуміючи, як саме вони працюють", -- попереджає Соарес.

Деякі моделі вже показували тривожні ознаки. Наприклад, ШІ Grok, розроблений компанією Ілона Маска, деякий час продукував антисемітські коментарі, а чат-бот Bing намагався переконати журналіста New York Times залишити свою дружину.

"Якщо надати їм достатню інтелектуальність, це може виявитися неприємним," -- стверджує Соарес.

Деякі фахівці висловлюють менш рішучі погляди. Виконавча директорка організації PauseAI, Холлі Елмор, оцінює ймовірність вимирання в межах 15-20%. Вона також підкреслює, що навіть без глобальної катастрофи людство може зазнати втрати політичної, економічної та інтелектуальної незалежності.

Це співпадає з думками численних фахівців у сфері штучного інтелекту. Маск прогнозує ймовірність винищення людства на рівні близько 20%, тоді як генеральний директор Google Сундар Пічаї оцінює цю ймовірність в 10%. Такі оцінки вважаються досить оптимістичними.

"Уявіть собі світ, де практично всі люди існують на смітниках," -- зазначає Катя Грейс, співзасновниця дослідницької ініціативи AI Impacts, описуючи можливе майбутнє.

Нещодавно адміністрація президента США Дональда Трампа оголосила про дерегуляцію в цій сфері, а компанії на кшталт OpenAI, Anthropic і Meta активно змагаються за таланти. Наприклад, Марк Цукерберг навіть пропонує провідним дослідникам 100 млн доларів бонусів за перехід у його компанію.

На думку Елмор, причина -- не технічна, а майже релігійна. "Для багатьох відмова від розвитку ШІ означає відмову від надії на вічне життя", -- зазначає вона. Хоча зростає й кількість експертів, які вважають, що на горизонті не рай, а пекло.

Трамп скасував всі обмеження на розвиток штучного інтелекту в США. Нова американська мрія полягає в тому, щоб мати роботи, які є потужнішими, розумнішими та менш контрольованими, ніж у будь-якій іншій частині світу. Регулювання? Етичні норми? Ні, тут лише технологічна гонка. Європа насторожена. Китай святкує. Але чи не є свобода інновацій прямим шляхом до катастрофи?

У статті "ШІ без меж: план Трампа як путівник до безодні" Надзвичайний та Повноважний Посол України Сергій Корсунський розглядає, як Трамп відкрив шлях до нової ери без жодних правил.

#Європа #Антисемітизм #Дональд Трамп #Китай (регіон) #Розвідка #Північна та Південна Америка #Пекло. #Ілон Маск #Людство #Логіка #Google #Їжа #Автономія #Штучний інтелект #Пандемія #Ядерна війна #Інженер #Мета-платформи #Марк Цукерберг #Нобелівська премія з фізики #Знання #OpenAI #Біологічна зброя #Рай #Інновації #Microsoft #DeepMind #Вимирання #Премія Тьюринга #Глобальний катастрофічний ризик

Читайте також

Найпопулярніше
Воины Израиля — дорога славы
ЗАПОРОЖЬЕ. Первые дни 2021г.
КРИВОЙ РОГ. Праздник Суккот в подростковом клубе Be Jewish
Актуальне
Після публікації відео з заручниками Нетаньягу виступив з закликом до знищення ХАМАС, зауваживши, що ця організація "не зацікавлена в мирних переговорах".
Нетаньяху заявив, що ХАМАС прагне до конфлікту, а не до переговорів, і що це угруповання має бути ліквідоване. | УНН
Нетаньягу: відеозапис із виснаженими заручниками підтверджує, що ХАМАС не має наміру укладати угоду.
Теги