Компания Anthropic, создатель популярного ИИ-помощника Claude, объявила о полном блокировании доступа к своим услугам для китайских компаний. Такое решение принято для защиты от угроз национальной безопасности США, связанных с использованием ИИ-технологий
Теперь запрет распространяется на любые структуры, контрольный пакет акций которых принадлежит компаниям из Китая, включая их зарубежные подразделения.
Узнать подробнее про клуб ShareAI
В официальном заявлении Anthropic отметила риски использования их технологий: «Китайские организации могли бы использовать наши возможности для разработки приложений и сервисов, которые в конечном итоге будут служить военным и разведывательным службам противника, а также более широким авторитарным целям».
Компания также указала на опасность того, что авторитарные режимы «потенциально используют модели для продвижения собственных разработок ИИ с помощью таких методов, как дистилляция, и для глобальной конкуренции с проверенными технологическими компаниями со штаб-квартирами в США и странах-союзниках».
Anthropic, которая считается одним из мировых лидеров в области искусственного интеллекта, обратила внимание на то, что компании в Китае и других странах с авторитарными режимами могут быть вынуждены делиться данными и сотрудничать с местными разведывательными службами, в том числе через свои дочерние структуры.
В своем заявлении стартап подчеркнул, что продолжит выступать за строгий экспортный контроль США с целью помешать таким режимам разрабатывать передовые системы искусственного интеллекта. «Безопасность разработки ИИ требует коллективных усилий по предотвращению его неправомерного использования авторитарными противниками», — заключили в компании.