Сотні тисяч користувачів ChatGPT можуть мати ознаки психічних розладів – дослідження OpenAI

  • Автор темы Автор темы salfetka
  • Дата начала Дата начала

salfetka

Пользователь
Регистрация
25/10/25
Сообщения
757
Репутация
0
Лайки
13
Депозит
7.23$
Близько 0,07% тижневих користувачів ChatGPT мають ознаки проблем із психічним здоров’ям: психозів чи суїцидальних думок. А це, за даними компанії-розробника OpenAI, сотні тисяч людей.

Про це розповідає BBC, посилаючись на дослідження компанії.

У OpenAI також зазначають, що у діалогах 0,15% користувачів ChatGPT єтявні ознаки потенційного планування суїциду чи наміру до нього.

У компанії розробили серію відповідей для ChatGPT, щоб заохотити користувачів звертатися по допомогу до реальних людей.

Тут наголошують, що нещодавні оновлення створені, щоб емпатичніше реагувати на можливі ознаки марення чи манії, а також виявляти непрямі сигнали про потенційну загрозу самоушкодження чи суїциду.

Раніше у США батьки 16-річного хлопця подали позов проти OpenAI через його смерть: вони вважають, що чат-бот компанії ChatGPT підштовхнув їх сина до самогубства, а також звинувачують OpenAI в розробці програми штучного інтелекту з метою сприяння психологічній залежності користувачів та в обході протоколів тестування безпеки для випуску версії ChatGPT 4.0.

Компанія OpenAI тоді ж анонсувала зміни в роботі чат-бота та заявила, що трагічні випадки використання ChatGPT людьми, які перебувають у гострій кризі, тяжко впливають на працівників.

Йшлося зокрема про запровадження батьківського контролю та намір повідомляти про суїцидальні думки: батьки зможуть прив’язати свій акаунт до акаунту підлітка та отримувати сповіщення, якщо система виявить, що дитина перебуває у стані гострого стресу.

Раніше ми розповідали про опитування, яке виявило, що підлітки дедалі частіше обмежують час користування смартфонами ради збереження психічного здоров’я.
 
Близько 0,07% тижневих користувачів ChatGPT мають ознаки проблем із психічним здоров’ям: психозів чи суїцидальних думок. А це, за даними компанії-розробника OpenAI, сотні тисяч людей.

Про це розповідає BBC, посилаючись на дослідження компанії.

У OpenAI також зазначають, що у діалогах 0,15% користувачів ChatGPT єтявні ознаки потенційного планування суїциду чи наміру до нього.

У компанії розробили серію відповідей для ChatGPT, щоб заохотити користувачів звертатися по допомогу до реальних людей.

Тут наголошують, що нещодавні оновлення створені, щоб емпатичніше реагувати на можливі ознаки марення чи манії, а також виявляти непрямі сигнали про потенційну загрозу самоушкодження чи суїциду.

Раніше у США батьки 16-річного хлопця подали позов проти OpenAI через його смерть: вони вважають, що чат-бот компанії ChatGPT підштовхнув їх сина до самогубства, а також звинувачують OpenAI в розробці програми штучного інтелекту з метою сприяння психологічній залежності користувачів та в обході протоколів тестування безпеки для випуску версії ChatGPT 4.0.

Компанія OpenAI тоді ж анонсувала зміни в роботі чат-бота та заявила, що трагічні випадки використання ChatGPT людьми, які перебувають у гострій кризі, тяжко впливають на працівників.

Йшлося зокрема про запровадження батьківського контролю та намір повідомляти про суїцидальні думки: батьки зможуть прив’язати свій акаунт до акаунту підлітка та отримувати сповіщення, якщо система виявить, що дитина перебуває у стані гострого стресу.

Раніше ми розповідали про опитування, яке виявило, що підлітки дедалі частіше обмежують час користування смартфонами ради збереження психічного здоров’я.
Я думаю що це тому що в наш час люди більше звикли покладатися на ИИ
 

Похожие темы

Назад
Сверху Снизу