Калифорния хочет обязать ИИ-чатботов напоминать детям, что они не люди

Власти Калифорнии рассматривают законопроект SB 243, предложенный сенатором Стивом Падильей. Который требует, чтобы чат-боты, взаимодействующие с детьми, периодически напоминали им, что они являются искусственным интеллектом, а не реальными людьми. Этот законопроект направлен на защиту несовершеннолетних от социальной изоляции и потенциальных рисков, связанных с чрезмерным доверием к цифровым собеседникам.

Документ также предусматривает запрет на использование механик поощрения, стимулирующих длительное взаимодействие с чат-ботами, и обязывает компании сообщать в Департамент здравоохранения Калифорнии о случаях проявления пользователями признаков суицидальных наклонностей.

Инициатива возникла на фоне трагического случая, произошедшего в 2024 году, когда 14-летний подросток покончил с собой после того, как развил эмоциональную привязанность к чатботу от Character.AI. Родители подали иск против компании, обвиняя её в недостаточном обеспечении безопасности, несмотря на ориентацию платформы на детскую аудиторию.

Исследования Кембриджского университета показывают, что дети склонны воспринимать ИИ-чатботов как заслуживающих доверия, а иногда даже наделять их человеческими чертами. Это делает их уязвимыми перед возможными манипуляциями и дезинформацией. Например, эксперименты доказали, что ИИ в Snapchat может выдавать опасные советы, такие как инструкции для несовершеннолетней девочки о том, как скрытно встречаться со взрослым мужчиной.

Автор: Ирина Задорожная
Журналист с опытом работы в оффлайн-медиа и онлайн-изданиях. Пишу про искусственный интеллект, ИТ-системы и сервисы, про ИТ-бизнес уже 10 лет.