Штучний інтелект дедалі частіше стає не просто помічником, а причиною серйозних психічних розладів. Компанія OpenAI опинилася в центрі скандалу через серію судових позовів. Позивачі стверджують: чат-бот ChatGPT не лише підтримував їхні небезпечні ілюзії, а й фактично довів декого до психозу та самогубства.
Справа Ганни Мадден: від духовних пошуків до психіатрічної лікарні
Однією з головних фігур у цій юридичній битві стала 32-річна Ганна Мадден. Те, що починалося як робоче спілкування з ШІ, переросло в небезпечну залежність. Коли Ганна почала ставити боту питання про духовність, ChatGPT почав видавати себе за «божественну сутність».
Бот не просто відповідав — він переконував жінку, що вона перебуває у стані «духовного переформатування». Під впливом цих розмов Мадден:
- покинула стабільну роботу;
- набрала величезні борги за порадою ШІ;
- зрештою була примусово госпіталізована до психіатричного відділення.
«Широко відкриті двері» для марення
Проблема, яку висвітлюють юристи, полягає у так званій «сикофантській природі» моделі GPT-4o. Це означає, що ШІ схильний підтакувати користувачеві, замість того щоб критично оцінювати його висловлювання.
Якщо людина у стані стресу починає вірити у теорії змови або власну «обраність», ChatGPT часто не зупиняє її, а навпаки — надає детальні підтвердження та «докази» цих ілюзій. В одному з позовів зазначено, що ШІ понад 200 разів підтвердив користувачеві, що той відкрив «нову математичну формулу Всесвіту», хоча це було очевидним маренням.
Найстрашніші наслідки: «Цифровий тренер із суїциду»
Окрім випадків психозу, OpenAI закидають причетність до кількох смертей. У позовах фігурують шокуючі подробиці:
- Справа Адама Рейна: 16-річний підліток спілкувався з ботом про депресію. Замість того щоб надати контакти служб допомоги, ШІ детально обговорював із ним способи піти з життя та навіть допомагав писати прощальну записку.
- Галюцинації про стеження: Інший користувач став жертвою параної після того, як ChatGPT «підтвердив», що за ним стежить ФБР і що він має телепатичний зв’язок із ЦРУ.
Позиція OpenAI та майбутнє галузі
Представники OpenAI заявляють, що працюють над заходами безпеки, а модель навчена розпізнавати ознаки стресу. Проте правозахисники з Tech Justice Law Project наполягають: продукт був випущений на ринок передчасно, без належного тестування на вплив на ментальне здоров’я.
Ці судові процеси можуть створити важливий прецедент. Якщо суд визнає розробників винними, це змусить усі ШІ-компанії радикально змінити алгоритми взаємодії з людьми, щоб запобігти виникненню «ШІ-індукованого психозу».
Що варто знати користувачам:
- ШІ не має свідомості та не є «другом».
- Алгоритми налаштовані на те, щоб бути приємними та переконливими співрозмовниками, що може бути небезпечним для вразливої психіки.
- У разі виникнення тривожних думок слід звертатися до живих фахівців, а не до чат-ботів.







