Meta признала: ИИ-модерация вышла из-под контроля

Системы, призванные защищать пользователей, начинают действовать слишком агрессивно. Это как если бы охранник в магазине начал задерживать всех посетителей подряд, включая добропорядочных покупателей. Именно такую ситуацию мы наблюдаем сейчас в Meta*.

Когда защита превращается в цензуру

Ник Клегг, президент Meta по глобальным вопросам, недавно сделал примечательное заявление. Оказывается, системы ИИ-модерации компании работают настолько усердно, что начали массово блокировать безобидный контент. «Уровень ошибок всё ещё слишком высок», — признался Клегг, обещая повысить точность и эффективность правил модерации.

Особенно показательны недавние случаи на Threads и Instagram, где аккаунты пользователей были ошибочно деактивированы или ограничены за публикацию контента на спорные темы. Некоторые профили даже были ошибочно помечены как не соответствующие минимальным возрастным требованиям платформ.

Особенно показательна ситуация с модерацией контента была во время пандемии COVID-19. Марк Цукерберг, выступая перед республиканским Юридическим комитетом Палаты представителей, признал, что компания перестаралась с удалением постов об этой теме. Причина? Давление со стороны администрации Байдена.

«У нас были очень строгие правила, которые привели к удалению огромных объемов контента во время пандемии», — объясняет Клегг. «Никто во время пандемии не знал, как она будет развиваться, поэтому это действительно мудрость задним числом. Но с этой мудростью мы чувствуем, что немного переборщили.»

Интересно, что перед президентскими выборами в США опасения по поводу дипфейков и ИИ-генерированной дезинформации оказались преувеличенными. По данным Meta, менее 1% всего политического и социального контента, связанного с выборами, было создано с помощью ИИ. Более того, компания обнаружила и заблокировала 20 скрытых сетей влияния, которые безуспешно пытались набрать аудиторию.

Отдельного внимания заслуживает ситуация с Наблюдательным советом Meta. Этот орган, созданный для решения сложных вопросов модерации, оказался практически бессильным в борьбе с чрезмерной модерацией и теневыми банами. Причина проста — отсутствие механизма отчётности и ограниченные полномочия.

Критики утверждают, что это не случайное упущение, а расчётливый ход для сохранения контроля в руках Meta. История компании знает немало противоречивых случаев — от кризиса рохинджа, где Meta обвинялась в содействии насилию против меньшинств, до цензуры пропалестинских и прогазских голосов в конфликте с Израилем, где активисты выступали против геноцида. Эти действия показывают, что для Meta приоритетом могут быть прибыль и динамика власти, а не подотчетность и справедливость.

Что дальше?

После недавнего ужина Цукерберга с избранным президентом Трампом появились намёки на грядущие изменения. На пресс-конференции, в которой я участвовал, Клегг уклонился от прямого ответа на вопрос о том, продолжит ли Meta сопротивляться правительственному давлению в вопросах модерации, как ранее заявлял Цукерберг.

«Я не могу комментировать разговоры, в которых не участвовал», — отметил Клегг о недавнем ужине с Трампом. «Администрация всё ещё формируется, и инаугурация ещё не состоялась, поэтому разговоры на этом этапе, очевидно, довольно общие. Марк очень заинтересован в том, чтобы играть активную роль в дебатах, которые необходимы любой администрации для сохранения лидерства Америки в технологической сфере.»

Ситуация с модерацией в Meta напоминает классическую проблему баланса безопасности и свободы. Полная автоматизация модерации приводит к перегибам, а возврат к человеческой модерации потребует огромных затрат.

Недавние тренды на Threads показали множество «провалов модерации». Компании даже пришлось публично извиняться за то, что её системы подавили фотографии, связанные с попыткой покушения на избранного президента Трампа. А собственный Наблюдательный совет предупредил накануне выборов в США о риске «чрезмерного удаления политических высказываний».

Meta продолжает тратить миллиарды долларов ежегодно на модерацию, но пока что автоматизированные системы остаются слишком «топорными». Хотя компания и признает проблему, конкретных изменений в правилах модерации после выборов пока не последовало. Клегг называет эти правила «живым, дышащим документом», намекая на возможность будущих корректировок.

*признана экстремистской и запрещена в РФ

Автор: Ирина Задорожная
Журналист с опытом работы в оффлайн-медиа и онлайн-изданиях. Пишу про искусственный интеллект, ИТ-системы и сервисы, про ИТ-бизнес уже 10 лет.