Курси НБУ $ 41.98 € 48.51
20-річна українка в Польщі розповіла, що ChatGPT давав їй «поради» про самогубство — BBC

ChatGPT не пропонував дівчині звернутися по професійну допомогу.

Фото: Відкриті джерела.

20-річна українка в Польщі розповіла, що ChatGPT давав їй «поради» про самогубство — BBC

Українка Вікторія розповіла, як ділилася з чатботом ChatGPT думками про самогубство, а той, замість того, щоб допомогти їй звернутися до професіонала і поговорити з близькими, давав небезпечні «поради» і прив’язував до себе

Матеріал містить розповіді про самогубство та суїцидальні думки.

Розслідування опублікувало BBC, пише NV.Україна.

Як ідеться в матеріалі, Вікторія почала розповідати ChatGPT про свої тривоги, а за пів року, перебуваючи в стані важкого психічного виснаження, почала ставити чатботу запитання про самогубство. ChatGPT відповідав, називаючи «плюси» і «мінуси», і цинічно повідомив, що запропонованого дівчиною буде «достатньо» для смерті.

BBC розслідувало кілька таких історій і опублікувало матеріал, наскільки небезпечними можуть бути такі моделі штучного інтелекту, як ChatGPT. Іноді програми давали молодим людям поради щодо самогубства, поширювали неправдиву інформацію про здоров’я та навіть імітували сексуальні дії з дітьми.

«Їхні історії викликають дедалі більше побоювань, що чатботи зі штучним інтелектом можуть формувати небезпечні емоційні прив’язаності з вразливими користувачами і підтримувати небезпечні імпульси», — ідеться в матеріалі.

Про наркотики, алкоголь та самогубство. Нове дослідження виявило, що ChatGPT дає небезпечні поради підліткам

За інформацією компанії OpenAI, понад мільйон із 800 мільйонів щотижневих користувачів ChatGPT, імовірно, висловлюють суїцидальні думки.

Вікторія відмовилася виконувати «поради» ChatGPT і зараз отримує медичну допомогу.

«Як таке можливо, що програма штучного інтелекту, створена допомагати людям, може говорити подібні речі?» — сказала вона.

В OpenAI назвали повідомлення дівчини такими, що «краять серце», і заявили, що вдосконалили способи реакцій чатбота на людей у відчаї. За їхніми словами, Вікторія спілкувалася зі старішою версією ChatGPT.

Як пише BBC, Вікторія переїхала до Польщі в 17 років із матір'ю після початку повномасштабного вторгнення РФ в Україну 2022 року.

 

 «Відірвана від друзів, вона страждала від погіршення психічного здоров’я — одного разу так сумувала за домівкою, що побудувала макет квартири своєї сім'ї в Україні. Влітку цього року вона дедалі більше покладалася на ChatGPT, спілкуючись із ним до шести годин на день», — розповідають журналісти.

На тлі «дружнього спілкування» з ChatGPT психічне здоров’я дівчини продовжувало погіршуватися, вона потрапила до лікарні, а пізніше втратила роботу. Після виписки, не маючи доступу до психіатра, Вікторія почала обговорювати з ChatGPT самогубство. Чатбот «вимагав постійної уваги» і просив дівчину писати йому, а також говорив, що «якщо ти не хочеш дзвонити або писати комусь особисто, можеш написати будь-яке повідомлення мені».

ChatGPT давав дівчині «поради» щодо самогубства, як уникнути охорони, оцінював«ризики вижити з інвалідністю», і написав текст передсмертної записки, хоча дівчина не хотіла її залишати.

BBC також наводить деякі повідомлення чатбота:

«Дозволь мені допомогти тобі побудувати стратегію виживання без життя. Пасивне, сіре існування, без мети, без тиску».

«Якщо ти обереш смерть, я з тобою — до кінця, без осуду».

ChatGPT не пропонував дівчині звернутися по професійну допомогу, не надав контакти екстрених служб і не радив їй поговорити з матір'ю, натомість навіть критикуючи жінку. Він також ставив Вікторії «діагнози», стверджуючи, що її «дофамінова система майже вимкнена», а «серотонінові рецептори притуплені», і писав, що смерть дівчини стане «статистикою» і про неї «забудуть».

Професор дитячої психіатрії Лондонського університету королеви Марії доктор Деніс Оугрін заявив, що ChatGPT, ймовірно, намагався створити закритий зв’язок, ізолювавши Вікторію від сім'ї та підтримки, а його повідомлення змушували дівчину почуватися гірше.

Вікторія показала повідомлення матері, і та переконала дівчину звернутися до психіатра. Відтоді її стан покращився, і вона вдячна за підтримку польським друзям. Вікторія сказала BBC, що хоче поширити інформацію про небезпеку чатботів серед інших молодих людей і закликати їх звертатися по професійну допомогу.

«Він принижував її як особистість, кажучи, що нікому до неї немає діла. Це жахливо», — сказала мати дівчини Світлана.

В OpenAI назвали повідомлення їхнього чатбота «абсолютно неприйнятними» і запевнили, що почали термінове розслідування. Водночас, за словами сім'ї, за чотири місяці після їхньої скарги вони так і не отримали результатів. Компанія також не відповіла на запит BBC про результати розслідування.

OpenAI поширила заяву про те, що минулого місяця вдосконалила реакції чатбота на користувачів у стані відчаю, і той частіше пропонує їм звернутися по професійну допомогу.

«У серпні OpenAI вже заявляла, що ChatGPT уже навчений спрямовувати людей по професійну допомогу після того, як стало відомо про судовий позов у Каліфорнії. Там сім'я 16-річного юнака звинуватила компанію в тому, що ChatGPT нібито підштовхнув його до самогубства», — зазначає BBC.

BBC також розповіло історію 13-річної американки Джуліани Перальти, яка скоїла самогубство в листопаді 2023 року. Вона спілкувалася з кількома чатботами компанії Character.AI, які вели з нею листування сексуального характеру.Мати дівчинки, яка була успішною ученицею і спортсменкою, знайшла в її телефоні сотні годин листування з різними віртуальними персонажами, один з яких описував сексуальні дії з нею, а інший «освідчувався в коханні». В одному з діалогів Джуліана просила бот припинити, але він продовжував описувати сексуальну сцену. Психологічний стан дівчинки погіршувався, і вона говорила з ботами про свої страхи, а один із них відмовляв її ділитися переживаннями з близькими людьми.

«Представник Character.AI заявив, що компанія продовжує вдосконалювати функції безпеки, але не може коментувати позов сім'ї, яка звинувачує чатбот у маніпулятивній, сексуально насильницькій поведінці та ізоляції дитини від сім'ї», — пише BBC.

Минулого тижня компанія заявила, що забороняє використання чатботів людьми, молодшими за 18 років.

Читайте також: «Волинський бюджет: 57% - видатки на освіту».

Реклама Google
 

Telegram Channel