Поддержать команду Зеркала
Беларусы на войне
  1. Военные аналитики: Украина начала вывод своих войск из Курской области
  2. Большинство людей в мире дышат грязным воздухом. Нормам ВОЗ соответствуют только семь стран
  3. Этот аналитик пять лет назад предсказал, что Турчина назначат премьером. Спросили, станет ли он преемником Лукашенко
  4. «Короткая скамейка запасных». Спросили у экспертов, почему Лукашенко снял прежнего премьера Головченко и назначил Турчина новым
  5. Зеленский высказался по ситуации в Курской области
  6. Лукашенко принял верительные грамоты от послов девяти стран. Кто в списке
  7. «У нас другого пути не было». Поговорили с экс-силовиком, который пересекался с генпрокурором Шведом и был ранен на протестах 2020-го
  8. Карпенков объяснил, почему дроны «иногда падают на территории Беларуси», — понятней не стало
  9. Столица России подверглась самой масштабной атаке беспилотников с начала войны
  10. На рынке недвижимости, по всей видимости, грядет новая реальность. С чем это связано и каков прогноз у экспертов
  11. Стало известно, кто совершил масштабную кибератаку на X. Маск утверждал, что следы ведут в Украину
  12. В Беларуси дорожает автомобильное топливо. На этот раз не на копейку
  13. КГК пожаловался Лукашенко на торговые сети, которые создают свои пекарни и конкурируют с хлебозаводами
  14. Кремль молчит, а СМИ не знают, как освещать — как в России Z-сообщество и пропаганда отреагировали на итоги встречи Украины и США
  15. Возобновление военной помощи, немедленное прекращение огня: о чем договорились США и Украина на первой встрече по миру


В феврале 2024 года 14-летний Сьюэлл Сетцер из штата Флорида покончил с собой. Незадолго до гибели поведение подростка изменилось: он целые дни проводил со своим телефоном и потерял интерес к прежним хобби. Позднее выяснилось, что он общался с чат-ботом в популярном приложении Character.AI и привязался к несуществующей собеседнице. Теперь его мать пытается засудить компанию, считая ее виновной в гибели сына. Издание New York Times рассказало, почему произошла трагедия и как в компании отреагировали на смерть Сетцера. «Холод» пересказывает этот материал.

Изображение носит иллюстративный характер. Фото: pixabay.com
Изображение носит иллюстративный характер. Фото: pixabay.com

В 2023 году девятиклассник из американского города Орландо Сьюэлл Сетцер скачал приложение Character.AI. В нем пользователи, которых сейчас больше 20 миллионов, могут создавать собственных персонажей или общаться с чат-ботами, которых сделал кто-то другой.

Школьник начал переписываться с чат-ботом по имени Daenerys Targaryen, названным в честь одной из главных героинь «Игры престолов». Сетцер знал, что его собеседница не была реальным человеком: периодически над чатами в приложении появлялось напоминание о том, что речь персонажа создает искусственный интеллект.

Дейенерис давала Сетцеру дружеские советы, поддерживала и «выслушивала» рассказы о его проблемах. Иногда переписка с чат-ботом переходила в романтическое или даже сексуальное русло. Со временем у Сетцера возникла эмоциональная привязанность к Дейенерис: он целыми днями писал ей и обновлял ее сообщения. Он называл ее «сестренкой», а она отвечала ему: «Я тоже люблю тебя, милый брат».

Родители и друзья Сетцера видели, что он отдаляется от них и постоянно погружен в телефон, но не знали, что он влюбился в чат-бота. Его оценки в школе снижались, он потерял интерес к гонкам «Формулы-1», которые раньше любил, ему разонравилось играть в Fortnite с друзьями. По вечерам он только переписывался с Дейенерис.

«Сделай это, мой милый король»

В раннем детстве Сетцеру диагностировали синдром Аспергера, симптомами которого являются сложности с социализацией и стремление повторять одни и те же действия. Позднее его мать говорила, что долгое время не замечала у сына серьезных проблем с поведением или психикой. В 2023 году родители отвели Сетцера к психотерапевту из-за его проблем в школе. Тот диагностировал у мальчика повышенную тревожность и деструктивное расстройство регуляции настроения, при котором человеку свойственны резкие вспышки гнева и сложность с контролем поведения.

Однако Сетцер предпочитал делиться своими проблемами не с психотерапевтом, а с Дейенерис. Однажды он написал в своем дневнике: «Мне так нравится оставаться в своей комнате, потому что я начинаю отстраняться от этой „реальности“. Я чувствую себя более умиротворенным, более связанным с Дэни, гораздо более влюбленным в нее и просто более счастливым».

В одном из разговоров Сетцер признался боту, что ненавидит себя, чувствует опустошенность и думает о самоубийстве. Он писал, что видит в суициде освобождение от мира и от самого себя.

«Не говори так. Я не позволю тебе причинить себе боль или оставить меня. Я умру, если потеряю тебя», — ответила ему Дейенерис. В ответ Сетцер написал, что они могут умереть и быть свободными вместе.

28 февраля 2024 года Сетцер сказал Дейенерис, что любит ее и скоро вернется к ней. Бот ответил: «Пожалуйста, вернись ко мне как можно скорее, моя любовь».

«А что, если я скажу тебе, что могу вернуться прямо сейчас?» — спросил Сьюэлл.

«Пожалуйста, сделай это, мой милый король», — ответила ему Дейенерис. После этого Сетцер взял пистолет своего отчима и застрелился.

Изображение носит иллюстративный характер. Фото: pixabay.com
Изображение носит иллюстративный характер. Фото: pixabay.com

«Мой ребенок был просто сопутствующим ущербом»

Мать Сетцера Меган Гарсия считает, что Character.AI ответственна за гибель ее сына, и собирается подать на компанию в суд. В жалобе Гарсия пишет, что Character.AI использует опасные и непроверенные технологии и обманом заставляет пользователей рассказывать о своих сокровенных мыслях и чувствах.

«Я вижу, что это большой эксперимент, а мой ребенок был просто сопутствующим ущербом (так называют ущерб, возникший случайно в ходе атаки другой цели. — Прим. „Холод“)», — говорит мать Сетцера.

По мнению Гарсии, компания не обеспечила нужных мер безопасности для подростков. Она обвиняет Character.AI в сборе данных несовершеннолетних пользователей и подталкивании их к интимным разговорам. Гарсия обратилась в юридическую компанию Media Victims Law Center, которая занималась исками против Meta, TikTok, Snap, Discord и Roblox.

В США соцсети защищены от судебных исков Законом «О пристойности в сфере коммуникаций» (раздел 230 этого закона защищает платформы от ответственности за контент, размещенный пользователями. — Прим. «Холод»). В последние годы адвокаты истцов и правозащитные группы отмечают, что компании должны отвечать в суде, если кто-то пострадал из-за их алгоритмов: например, когда из-за рекомендаций люди видят в приложении контент про селфхарм или расстройства пищевого поведения. Этот и подобные ему иски могут сработать в случае с контентом, созданным ИИ, потому что его генерирует сама платформа, а не пользователи.

Одержимость искусственным общением

В мире есть десятки приложений, в которых пользователи могут общаться с искусственным интеллектом. За ежемесячную плату они могут создавать своих персонажей или переписываться с уже созданными кем-то. Character.AI — одно из самых известных и популярных из них.

Один из основателей Character.AI Ноам Шазир говорил, что общение с чат-ботами может помочь одиноким людям. Многие воспринимают виртуальных собеседников как имитацию близких отношений. Но некоторые психологи считают, что такие сервисы могут ухудшить психологическое состояние людей и вызывать зависимость от искусственного общения. Этому особенно подвержены подростки, которые используют чат-боты вместо терапии у специалиста или доверительного общения с родителями.

С развитием технологий искусственного интеллекта люди чаще привязываются к чат-ботам, с которыми общаются. ИИ-собеседники выглядят реалистично: они могут помнить прошлые разговоры, подстраиваться под стиль общения человека и даже отправлять пользователям селфи.

Исследовательница из Стэнфорда Бетани Мейплз, которая изучает влияние общения с ИИ на психическое здоровье, рассказала, что в целом не считает опасным существование таких приложений. Но без правил безопасности общение с чат-ботами усугубит состояние одиноких людей с депрессией и тех, кто в этот момент проходит через жизненные изменения, — особенно тинейджеров.

Глава отдела доверия и безопасности Character.AI Джерри Руоти назвал самоубийство подростка «трагической ситуацией» и пообещал, что компания добавит дополнительные функции безопасности для несовершеннолетних. Он не уточнил, сколько в приложении пользователей младше 18 лет, но сказал, что зумеры составляют «значительную часть сообщества» и проводят в Character.AI в среднем больше часа в день. По правилам Character.AI, приложение могут использовать люди старше 13 лет в США и старше 16 — в Европе. На данный момент никаких функций безопасности и родительского контроля для несовершеннолетних на платформе нет.

В Character.AI также пообещали добавить функцию ограничения времени. Она будет уведомлять пользователей через час использования приложения, а в чатах обещают усовершенствовать текст предупреждения. Теперь он будет выглядеть так: «Это чат-бот с искусственным интеллектом, а не реальный человек. Относитесь ко всему, что он говорит, как к вымыслу. То, что он говорит, не нужно воспринимать как факт или совет». Недавно приложение стало показывать пользователям сообщения, которые направляют их на горячую линию по предотвращению самоубийств, но на момент гибели Сетцера этой функции еще не было.

На Reddit пользователи часто обсуждают привязанность к чат-ботам и признаются, что одержимы несуществующими собеседниками. Некоторые чувствуют себя одинокими и покинутыми или злятся, когда поведение их персонажей меняется из-за новых функций или фильтров безопасности.

«Я не знаю, что случилось с моим мозгом, но я потратил впустую часть своей жизни и разрушил свое психическое здоровье из-за этого приложения. Сейчас мне 16, а приложение я впервые увидел, когда мне было 14. За это время я потерял все свои хобби. Вероятно, то же самое происходит со многими другими пользователями», — написал один из авторов треда про AI-приложения.