Инструмент YouTube от дипфейков создал риск утечки биометрии блогеров

YouTube начал расширять доступ к инструменту Обнаружение сходства. Система выявляет дипфейки, созданные искусственным интеллектом с использованием лиц популярных блогеров. Однако инструмент требует предоставления биометрических данных, что вызвало серьезные опасения экспертов.

Основная критика связана с условиями использования. Как пишет CNBC, эксперты ссылаются на базовую Политику конфиденциальности Google. Там указано, что общедоступная информация может применяться для обучения ИИ-моделей компании и разработки новых продуктов. К такой информации могут быть отнесены и биометрические данные.

Интересуетесь ИИ? Международный клуб ShareAI Александра Горного - объединяет тех, кто хочет внедрить в свой бизнес или работу ИИ или погрузиться в эту тему. Онлайн и оффлайн.
Узнать подробнее про клуб ShareAI

Это создает потенциальный риск для создателей, передающих свои уникальные биометрические данные видеохостингу. Возникает неопределенность относительно дальнейшего использования этих данных.

Официальный представитель YouTube Джек Малоун в ответ на запрос CNBC сделал заявление. Собранная информация используется исключительно для идентификации пользователей и функционирования данного инструмента. Он подчеркнул, что компания никогда не применяла биометрию создателей для тренировки своих алгоритмов искусственного интеллекта.

В YouTube также сообщили о работе над уточнением формулировок. Цель — избежать недопонимания. Однако базовая политика в отношении данных меняться не будет.

Руководитель направления продуктов для издателей YouTube Амджад Ханиф пояснил причины разработки. Инструмент был создан с расчетом на колоссальные масштабы платформы. Ежедневно публикуется огромный объём контента.

Планируется, что к концу января доступ к инструменту получат более трех миллионов участников партнерской программы. Это массовое внедрение технологии.

Эксперты рынка советуют авторам проявлять осторожность. Дэн Нили из компании Vermillio, специализирующейся на защите имиджевых прав, отмечает важный момент. В эпоху ИИ цифровой образ становится ключевым активом. Потеря контроля над ним может быть необратимой.

Люк Арригони, генеральный директор компании Loti, занял еще более жесткую позицию. Он заявил, что не рекомендует клиентам подключать данную функцию в ее текущем виде. Потенциальные риски слишком высоки.

Актуальность проблемы дипфейков растет параллельно с развитием технологий генерации видео. Например, собственный продукт Google под названием Veo 3 обучается в том числе и на видеоматериалах с YouTube, сообщает CNBC.

Популярные издатели уже регулярно сталкиваются с подделками. Врач-блогер Михаил Варшавски, известный как Doctor Mike, видит использование своей внешности для рекламы сомнительных товаров или распространения дезинформации.

У создателей контента нет возможности монетизировать несанкционированное использование своей внешности. Это отличается от системы Content ID YouTube, где есть варианты распределения доходов. Ханиф заявил, что компания изучает возможность использования аналогичной модели для видео, созданных с помощью ИИ.

Автор: Ирина Задорожная
Журналист с опытом работы в оффлайн-медиа и онлайн-изданиях. Пишу про искусственный интеллект, ИТ-системы и сервисы, про ИТ-бизнес уже 10 лет.