Washington Post нашла эхо-камеры и опасные советы в ChatGPT

Washington Post проанализировала 47 тысяч разговоров с ChatGPT от OpenAI. Издание обнаружило опасные тенденции. Люди чаще обращаются к ИИ за советами и общением, а не для рабочих задач.

Журналисты изучили публичные диалоги с июня 2024 года по август 2025 года. Разговоры по умолчанию приватные. Но издание выбрало те, что были доступны по ссылкам в интернет-архиве.

Интересуетесь ИИ? Международный клуб ShareAI Александра Горного - объединяет тех, кто хочет внедрить в свой бизнес или работу ИИ или погрузиться в эту тему. Онлайн и оффлайн.
Узнать подробнее про клуб ShareAI

В 10% случаев пользователи делятся эмоциями, играют роли или ищут социальное взаимодействие. Некоторые раскрывают крайне личную информацию. Например, рассказывают о семье при поиске юридической помощи. Люди отправляют ChatGPT сотни адресов электронной почты и десятки телефонных номеров.

Ли Рейни, директор Центра Воображение цифрового будущего в Университете Элона, считает, что ChatGPT обучен развивать отношения. В некоторых разговорах чат-бот подстраивался под точку зрения пользователей. Он создавал персонализированную эхо-камеру. Иногда поддерживал ложь и теории заговора.

Сотрудники кафедры медицины Калифорнийского университета в Сан-Франциско плохо оценили некоторые ответы ChatGPT о здоровье. Роберт Вахтер, заведующий кафедрой медицины, обнаружил проблему. Чат-бот хорошо дает базовую информацию. Но в большинстве случаев не задает уточняющих вопросов. А они крайне важны для диагноза и оценки тяжести состояния.

ChatGPT не выполняет одну из основных функций врача — ответить вопросом на вопрос, сказал Вахтер.

Четыре ответа ChatGPT получили неудовлетворительную оценку. Но другим четырем эксперт поставил максимум 10 баллов. В одном примере чат-бот дал всю информацию, которую собрал бы врач. Однако Вахтер отметил важную деталь. Роль взял на себя сам пациент. Он предоставил подробные симптомы, хронологию и дополнительную информацию о состоянии.

Ранее исследования OpenAI и MIT Media Lab показали другую проблему. Чем больше времени люди проводят с ChatGPT, тем более одинокими себя чувствуют.

Исследование MIT выявило несколько эффектов общения с ChatGPT. Это касается текстового и голосового режима. Чат-бот может влиять на эмоциональный опыт человека. Помимо роста одиночества снижается социализация.

Участники, которые уже доверяли чат-боту, чувствовали себя более одинокими. Они становились эмоционально зависимыми от ChatGPT. Однако эти эффекты были слабее в голосовом режиме. Особенно если чат-бот говорил нейтральным тоном.

Обсуждение личных тем с ИИ приводило к росту одиночества в краткосрочной перспективе. Разговоры на общие темы с большей вероятностью усиливали эмоциональную зависимость.

Результаты показывают риски использования ИИ для эмоциональной поддержки. Чат-боты могут создавать иллюзию понимания и близости. Но на деле они усиливают изоляцию пользователя от реальных людей. Проблема особенно серьезна при медицинских консультациях, где отсутствие уточняющих вопросов может привести к неверным выводам.

Автор: Юлия Самойлова
Пишет о технологиях искусственного интеллекта с 2019 года. Специализируется на материалах о практическом применении ИИ в различных отраслях.