OpenAI, Anthropic и Google решили действовать сообща. Три компании, которые обычно конкурируют друг с другом, начали координировать усилия, чтобы закрыть китайским разработчикам доступ к своим моделям.
Речь идёт о так называемой дистилляции. Это когда берут ответы мощной модели — скажем, GPT-4 или Claude — и используют их как обучающие данные для своей. Метод дешевле и быстрее, чем тренировать с нуля. Именно так DeepSeek и другие китайские лаборатории смогли быстро нарастить возможности своих систем.
Американские компании подозревали, что их модели используют именно так. Теперь они решили выстроить совместную защиту: обмениваться данными о подозрительных паттернах запросов, которые указывают на систематическую выгрузку ответов.
Обычно OpenAI, Anthropic и Google ревностно охраняют не только технологии, но и любую информацию о своих системах. Сотрудничество стало возможным, потому что угроза воспринимается как общая.
США и Китай ведут борьбу за лидерство в ИИ, и Вашингтон давит на технологические компании, требуя ограничить передачу передовых технологий. Совместный фронт OpenAI, Anthropic и Google — сигнал того, что отраслевые игроки сами готовы действовать, не дожидаясь регуляторов.
Насколько это сработает — другой вопрос. Дистилляцию сложно отследить: умный пользователь может маскировать запросы или работать через посредников. Но даже частичное закрытие этой лазейки замедлит тех, кто строит модели на чужих данных.