Расследования
Репортажи
Аналитика
RADIOInsider

USD

78.73

EUR

91

OIL

110.07

Поддержите нас

309

 

 

 

 

 

Новости

OpenAI, Google и Anthropic объединились, чтобы остановить кражу своих ИИ-технологий Китаем

Фото: Kenneth Cheung via Getty Images

Фото: Kenneth Cheung via Getty Images

OpenAI, Google и Anthropic начали обмениваться данными о попытках несанкционированного копирования своих ИИ-моделей с помощью так называемой дистилляции. Компании действуют через Frontier Model Forum — некоммерческую отраслевую организацию, которую они основали совместно с Microsoft в 2023 году. Об этом сообщает Bloomberg со ссылкой на источники, знакомые с ситуацией.

Дистилляция — это метод, при котором одна ИИ-модель используется для обучения другой путем анализа ответов первой. Американские компании обвиняют пользователей — преимущественно из Китая — в применении этой техники без разрешения для создания конкурирующих продуктов. По оценкам властей США, незаконная дистилляция обходится американским ИИ-разработчикам в миллиарды долларов недополученной прибыли ежегодно, сообщил Bloomberg анонимный источник.

OpenAI подтвердила свое участие в обмене информацией и сослалась на недавно поданную записку в Конгресс, в которой обвинила китайскую компанию DeepSeek в попытке «бесплатно воспользоваться возможностями, разработанными OpenAI и другими американскими лабораториями». Тема приобрела остроту после того, как в январе 2025 года DeepSeek выпустила модель R1, вызвавшую волнения на рынке: OpenAI и Microsoft тогда инициировали расследование, не исключив, что при создании R1 были незаконно использованы данные из американских систем.

Отмечается, что угроза дистилляции остается для американских ИИ-компаний одним из главных источников беспокойства: большинство китайских моделей распространяется с открытыми весами и без ежемесячной подписки, что создает экономическое давление на американских игроков, вложивших сотни миллиардов долларов в инфраструктуру. Anthropic в феврале уже заблокировала доступ к своим сервисам для компаний под китайским контролем и назвала угрозу риском для национальной безопасности — поскольку при дистилляции, как правило, не копируются защитные механизмы, призванные не допустить использования ИИ в опасных целях, например, для создания патогенов.

Ранее Anthropic обвинила три китайские ИИ-лаборатории — DeepSeek, Moonshot и MiniMax — в том, что те создали более 24 тысяч поддельных аккаунтов и сгенерировали свыше 16 млн взаимодействий с чат-ботом Claude, чтобы извлечь его возможности для обучения собственных моделей.

Нам очень нужна ваша помощь

Подпишитесь на регулярные пожертвования

Подпишитесь на нашу еженедельную Email-рассылку