Компании по разработке ИИ переходят на модели, требующие меньше чипов

Канадская компания Cohere Inc. из Торонто анонсировала новую модель под названием Command A, способную выполнять сложнейшие бизнес-задачи, работая всего на двух ИИ-ориентированных чипах Nvidia A100 или H100. Это значительно меньше, чем требуется для некоторых крупных моделей, и даже меньше, чем предположительно необходимо системе DeepSeek.

Днем ранее Alphabet Inc. (материнская компания Google) представила новую серию своих ИИ-моделей Gemma, заявив, что они могут работать на единственном чипе Nvidia H100. Обе компании утверждают, что их модели не уступают или даже превосходят новейшую ИИ-систему DeepSeek по определенным задачам.

Спустя почти два месяца после вирусного успеха китайской компании DeepSeek, заставившего переосмыслить колоссальные затраты технологических гигантов на разработку систем искусственного интеллекта, ведущие ИИ-компании начинают массово переходить к принципу «меньше значит больше».

ИИ-компании, включая Google, продолжают инвестировать миллиарды долларов в центры обработки данных, чипы и таланты для разработки своих самых передовых моделей и обеспечения их широкого внедрения. Однако недавние запуски явно указывают на общеотраслевое стремление создавать программное обеспечение ИИ, способное работать максимально эффективно. Хотя некоторые из этих проектов, включая новую модель Cohere, были запущены еще до последнего релиза DeepSeek, ажиотаж вокруг китайского стартапа может только ускорить эти более широкие усилия.

В январе DeepSeek выпустила ИИ-софт с открытым исходным кодом, который соперничал с моделями от OpenAI и Google — и, как утверждается, был создан за долю стоимости моделей конкурентов. Команда DeepSeek применила несколько простых, но ключевых инноваций, например, нашла способы более эффективного использования компьютерных чипов, к которым имела доступ.

Автор: Ирина Задорожная
Журналист с опытом работы в оффлайн-медиа и онлайн-изданиях. Пишу про искусственный интеллект, ИТ-системы и сервисы, про ИТ-бизнес уже 10 лет.