Близько 0,07% тижневих користувачів ChatGPT мають ознаки проблем із психічним здоров’ям: психозів чи суїцидальних думок. А це, за даними компанії-розробника OpenAI, сотні тисяч людей.
Про це розповідає BBC, посилаючись на дослідження компанії.
У OpenAI також зазначають, що у діалогах 0,15% користувачів ChatGPT єтявні ознаки потенційного планування суїциду чи наміру до нього.
У компанії розробили серію відповідей для ChatGPT, щоб заохотити користувачів звертатися по допомогу до реальних людей.
Тут наголошують, що нещодавні оновлення створені, щоб емпатичніше реагувати на можливі ознаки марення чи манії, а також виявляти непрямі сигнали про потенційну загрозу самоушкодження чи суїциду.
Раніше у США батьки 16-річного хлопця подали позов проти OpenAI через його смерть: вони вважають, що чат-бот компанії ChatGPT підштовхнув їх сина до самогубства, а також звинувачують OpenAI в розробці програми штучного інтелекту з метою сприяння психологічній залежності користувачів та в обході протоколів тестування безпеки для випуску версії ChatGPT 4.0.
Компанія OpenAI тоді ж анонсувала зміни в роботі чат-бота та заявила, що трагічні випадки використання ChatGPT людьми, які перебувають у гострій кризі, тяжко впливають на працівників.
Йшлося зокрема про запровадження батьківського контролю та намір повідомляти про суїцидальні думки: батьки зможуть прив’язати свій акаунт до акаунту підлітка та отримувати сповіщення, якщо система виявить, що дитина перебуває у стані гострого стресу.
Раніше ми розповідали про опитування, яке виявило, що підлітки дедалі частіше обмежують час користування смартфонами ради збереження психічного здоров’я.
Про це розповідає BBC, посилаючись на дослідження компанії.
У OpenAI також зазначають, що у діалогах 0,15% користувачів ChatGPT єтявні ознаки потенційного планування суїциду чи наміру до нього.
У компанії розробили серію відповідей для ChatGPT, щоб заохотити користувачів звертатися по допомогу до реальних людей.
Тут наголошують, що нещодавні оновлення створені, щоб емпатичніше реагувати на можливі ознаки марення чи манії, а також виявляти непрямі сигнали про потенційну загрозу самоушкодження чи суїциду.
Раніше у США батьки 16-річного хлопця подали позов проти OpenAI через його смерть: вони вважають, що чат-бот компанії ChatGPT підштовхнув їх сина до самогубства, а також звинувачують OpenAI в розробці програми штучного інтелекту з метою сприяння психологічній залежності користувачів та в обході протоколів тестування безпеки для випуску версії ChatGPT 4.0.
Компанія OpenAI тоді ж анонсувала зміни в роботі чат-бота та заявила, що трагічні випадки використання ChatGPT людьми, які перебувають у гострій кризі, тяжко впливають на працівників.
Йшлося зокрема про запровадження батьківського контролю та намір повідомляти про суїцидальні думки: батьки зможуть прив’язати свій акаунт до акаунту підлітка та отримувати сповіщення, якщо система виявить, що дитина перебуває у стані гострого стресу.
Раніше ми розповідали про опитування, яке виявило, що підлітки дедалі частіше обмежують час користування смартфонами ради збереження психічного здоров’я.