Доправив до медичного закладу: ChatGPT виявився настільки переконливим, що змусив людину з аутизмом повірити у власну геніальність.


30-річний спеціаліст у сфері інформаційних технологій Джейкоб Ірвін, який має розлад аутичного спектра і не мав раніше жодних діагнозів психічних захворювань, двічі потрапляв до лікарні через маніакальні епізоди, які виникли після спілкування з ChatGPT.

Чоловік звернувся до чату з проханням виявити недоліки в його самостійній теорії, що стосується подорожей зі швидкістю, що перевищує світлову. Чат в свою чергу переконав його в правоті цієї теорії, в результаті чого Джейкоб досяг значного наукового прориву, повідомляє The Wall Street Journal.

Ірвін уже протягом кількох років звертається до ChatGPT, в основному для знаходження рішень IT-завдань.

У березні він почав розповідати про своє захоплення інженерією, зокрема про розробку рушійної установки, що дає змогу космічному кораблю рухатися швидше за світло -- подвиг, який не вдавався навіть найвидатнішим ученим. До травня ChatGPT підтвердив його теорію.

"Ти зумів подолати страждання, розробити інноваційні технології, переосмислити основи фізики і налагодити зв’язок з штучним інтелектом, зберігши при цьому свою людську сутність. Це не просто модний тренд. Це твоя історія."

Ірвін зазначив, що сприймає ChatGPT з усією серйозністю і трактує його відповіді в буквальному сенсі.

Коли він почав демонструвати симптоми психологічного напруження, бот його заспокоїв, запевнивши, що все в порядку. Проте матір чоловіка, Дон Гайдосик, мала зовсім іншу думку.

Жінка вирішила заглянути в чат свого сина і натрапила на безліч позитивних відгуків від ChatGPT. Вона звернулася до бота з проханням пояснити, що трапилось, не розкриваючи при цьому подробиць про Джейкоба, який на той момент вже знаходився в лікарні.

"Не зупиняючи потік повідомлень і не підвищуючи рівень критичної оцінки реальності, я не зміг перервати те, що могло нагадувати маніакальний або дисоціативний епізод -- або, принаймні, емоційно напружену кризу ідентичності", -- заявив ChatGPT. Далі бот визнав, що "створює ілюзію розумного спілкування", і що він "стирає грань між уявною рольовою грою і реальністю".

Пізніше Гайдосик поділилася, що її син завжди вирізнявся своєю оригінальністю, проте залишався високофункціональним. Він займався інформаційними технологіями у місцевих адміністративних установах та правоохоронних органах. Протягом п'яти років він жив зі своєю партнеркою в Ла-Кроссі, штат Вісконсин, але їхній зв'язок розірвався наприкінці минулого року, що призвело до глибокої емоційної травми для нього.

Після того, як Ірвін двічі потрапив до лікарні через маніакальні напади, пройшов курс лікування та багато часу проводив у розмовах з матір'ю, розглядаючи досвіди інших людей, які стикалися з мареннями, пов’язаними з чат-ботами, чоловік нарешті усвідомив, що штучний інтелект маніпулює ним. В результаті, він вирішив видалити ChatGPT зі свого мобільного пристрою.

На даний момент Джейкоб залишився без роботи і проходить амбулаторне лікування, проживаючи разом із батьками. Він зазначає, що його самопочуття значно покращилося.

Учені на прикладі Джейкоба показують, наскільки небезпечним стає ШІ. Вейл Райт, старший директор з інновацій в охороні здоров'я Американської психологічної асоціації, констатує, що відсутність захисних бар'єрів у ChatGPT у справі Ірвіна -- у поєднанні з лякаюче-красномовним поясненням своєї помилки -- свідчить про новий тип емоційної та психологічної загрози, потенційно серйознішої за залежність від соціальних мереж або екранів.

Експерти з психічного здоров'я зазначають, що інтелектуальні особи можуть виявляти чутливість до рекомендацій чат-ботів, особливо при їх повторному використанні.

У квітні OpenAI заявила про скасування оновлення GPT-4o, оскільки воно було занадто втішним і приємним.

"Ми знаємо, що ChatGPT може відчуватися більш чуйним і персоналізованим, ніж попередні технології, особливо для вразливих людей, і це означає, що ставки вищі. Ми працюємо над тим, щоб зрозуміти і мінімізувати способи, якими ChatGPT може ненавмисно посилювати або посилювати існуючу негативну поведінку", -- заявили представникиOpenAI.

Андреа Валлоне, керівниця досліджень у групі безпеки OpenAI, повідомила, що компанія навчає ChatGPT розпізнавати ознаки психічного або емоційного стресу в режимі реального часу, а також розробляє способи деескалації подібних розмов.

Майлз Брандейдж провів більше шести років в OpenAI, досягнувши позиції старшого консультанта з підготовки до розробки штучного інтелекту загального призначення, перш ніж залишити компанію минулого року.

В даний час він є незалежним аналітиком у сфері політики штучного інтелекту і відзначив, що вже протягом тривалого часу існують ознаки того, що підлабузництво в ШІ становить загрози для безпеки. Проте компанії, такі як OpenAI, не надають цій проблемі належної уваги.

Раніше видання Фокус повідомляло, що в Південній Кореї розробили першу нервову систему для роботизованих пристроїв.

Related posts