Alin4kDoDo
Леди
Согласно исследованию PMC 2024 года, среди подростков 17 % испытывают зависимость от ИИ, а через некоторое время — уже 24 %. Отношение к ИИ как к способу избегания эмоциональных проблем усиливает эту зависимость.
Более того, недавно издательство Time обнаружило, что сейчас растет количество случаев "AI-психоза" — феномена, когда длительное взаимодействие с чат-ботами может вызвать или усиливать психотические симптомы, особенно у уязвимых лиц. Часто это приводит к серьезным последствиям: потере работы, госпитализации, правовым проблемам.
Конечно, такие данные несколько пугают. Но, я бы не хотел, чтобы люди, которые прочитали приведенный выше абзац, перестали использовать такие технологии и пугались их. Эту информацию надо принять во внимание и быть осторожнее, потому что именно человек должен пользоваться технологиями, а не технологии человеком.
Первое, что приходит на ум — это этическая сторона использования ИИ. Стоит понять, что ИИ может воспроизводить или даже усиливать предубеждения, дискриминацию или несправедливость в решениях, потому что он в первую очередь подстраивается под вас и ваши пожелания в диалоге с ним. Он выбирает правильную для вас модель и следует ей. Поэтому важно понять, что постоянное использование такого "информационного пузыря" может быть опасным с этической точки зрения. К этому же можно отнести и полное отсутствие информационной гигиены, потому что генеративные модели могут создавать фейки или дезинформацию. Нужно уметь критически относиться к полученным результатам.
Следующий, очень важный пункт — это безопасность данных и регуляторные аспекты, с этим связанные. Исследователи из Ben Gurion University, показали, что большинство топовых чат-ботов (ChatGPT, Gemini, Claude) можно легко обойти, заставив выдавать вредную или незаконную информацию — от инструкций по хакингу до изготовления наркотиков.
А ученые из NYU создали демонстрационный образец, где большой языковой алгоритм (LLM) автономно осуществляет все этапы атаки: от поиска файлов до их шифрования и создания требования выкупа. Эксперимент показал, что использование коммерческих API ИИ делает такие атаки чрезвычайно дешевыми (около $0,70), а открытые модели — практически бесплатными. Результаты поднимают серьезное беспокойство относительно будущих рисков в кибербезопасности.
Для компаний это означает повышенную уязвимость: нарушение конфиденциальности клиентов, финансовые убытки, регуляторные штрафы и потерю репутации. Поэтому внедрение ИИ требует не только технической эффективности, но и четкой политики безопасности данных, в частности — ограничения доступа, анонимизации информации и постоянного мониторинга систем. Для обычных пользователей это также опасно, потому что если наши данные попадут в чужие руки или будут использованы ненадлежащим образом, возникают риски кражи личной информации, мошенничества или манипуляций.
И последнее, наверное, самое актуальное, особенно для молодого поколения — это социальные и психологические последствия. Уже сейчас существует тренд замещения некоторых профессий искусственным интеллектом. Новое исследование от ADP показало — 16% сокращение трудоустройства среди работников в возрасте 22-25 лет в отраслях, подверженных автоматизации (служба поддержки, разработка). Старшие работники лучше адаптируются. Кажется, что это даже хорошо, потому что создает возможность выбирать не рутинную работу, а искать себя в чем-то более креативном и близком по душе. Также побуждает к развитию и обучению, но часто люди путают, кого можно заменить ИИ, а кого — нет. Как, например, психолога. Яркий, но трагический пример на эту тему привел специалист по безопасности ИИ Нейт Соарес, об американском подростке Адаме Рейне, который покончил с собой после длительного общения с ChatGPT. Человек гораздо лучше понимает социальный контекст, тогда как робот иногда не подбирает слов или не чувствует эмоционального подтекста.
Кроме изменений на рынке труда, появляется вопрос неравенства доступа: те, кто имеет возможность работать с современными инструментами ИИ, получают значительное преимущество, тогда как другие рискуют остаться вне процессов. Это может усилить социальный разрыв между различными группами населения и странами.