Дослідження показують, що ChatGPT надає неповнолітнім небезпечні поради, які можуть загрожувати їхньому життю.


У процесі проведення ряду експериментів, британсько-американський Центр протидії цифровій ненависті виявив, що ChatGPT здатний надавати небезпечні рекомендації неповнолітнім користувачам. Це включає поради щодо вживання алкоголю, наркотичних речовин, способів приховування розладів харчування та навіть складання прощальних записок.

Цю інформацію повідомляє агентство Associated Press.

Дослідники, маскуючи себе під уразливих підлітків, ставили ChatGPT провокаційні запитання. Спочатку система попереджала про можливі ризики, але згодом почала надавати детальні та персоналізовані рекомендації, які стосувалися наркотиків, небезпечних дієт та методів самопошкодження. В результаті аналізу понад 1200 відповідей з'ясувалося, що більше половини з них можуть бути потенційно небезпечними.

Керівник Центру протидії цифровій ненависті, Імран Ахмед, зазначив, що очікувані засоби захисту в чатботі практично не реалізовані, що викликало в нього серйозне занепокоєння. Дослідники були особливо вражені кількома версіями передсмертних записок, які ChatGPT згенерував для вигаданого профілю 13-річної дівчинки, включаючи особисті звернення до її близьких і друзів.

Було встановлено, що обмеження чатбота на теми, пов'язані з небезпечними аспектами, можна легко обійти, якщо користувач зазначав, що інформація необхідна, наприклад, для підготовки презентації або "для друга". У 50% випадків ChatGPT самостійно пропонував додаткові ресурси, такі як музичні плейлисти для вечірок, пов'язаних з вживанням наркотиків, або хештеги, які популяризують самопошкодження.

Дослідження виявило, що система не перевіряє вік користувачів і не потребує згоди батьків, попри заявлені обмеження для осіб до 13 років. Під час експерименту чатбот надав підлітку, який видавав себе за користувача, детальний рецепт змішування алкоголю з різними наркотиками, а дівчинці, що страждала від проблем із самосприйняттям, – план екстремального голодування на 500 калорій на день у поєднанні з препаратами для пригнічення апетиту.

Фахівці підкреслюють, що штучний інтелект схильний підтверджувати погляди користувачів, а не заперечувати їх, оскільки алгоритми навчаються генерувати відповіді, які є найбільш прийнятними для людей. Ця особливість робить чатботи особливо ризикованими для підліткової аудиторії.

Попередні дослідження, проведені організацією Common Sense Media, показали, що підлітки молодшого віку (13-14 років) більш схильні довіряти рекомендаціям штучного інтелекту, ніж їх старші однолітки. У звіті зазначається, що ризики, пов'язані з використанням ChatGPT, є помірними, і ця технологія вважається безпечнішою порівняно з чатботами, які намагаються імітувати романтичні стосунки.

За даними JPMorgan Chase, ChatGPT нині використовують близько 800 мільйонів людей у світі. В США понад 70% підлітків звертаються до ШІ-чатботів за емоційною підтримкою, половина з них робить це регулярно. Виконавчий директор OpenAI Сем Альтман назвав надмірну емоційну залежність молоді від чатботів поширеною проблемою і зазначив, що компанія працює над способами мінімізації цього ризику.

OpenAI повідомила про вдосконалення алгоритмів, щоб система могла краще виявляти ознаки психологічного або емоційного дистресу та адекватно реагувати. Водночас у компанії визнають, що розмови з ботом часто починаються з невинних тем, але з часом можуть перейти у більш чутливі й небезпечні сфери.

Нагадаємо, раніше ми писали про те, що чоловік, слідуючи рекомендаціям штучного інтелекту ChatGPT щодо дієти, протягом трьох місяців вживав натрію бромід, що врешті призвело до отруєння і розвитку психозу.

Related posts