Американский чипмейкер Nvidia Corp. запустил новый сервис под названием Nvidia DGX Cloud Lepton, который предоставляет удаленный доступ к своим ИИ-чипам. Этот шаг был озвучен на пресс-конференции и подтвержден в публикации The Wall Street Journal.
Nvidia DGX Cloud Lepton представляет собой комплексную ИИ-платформу, созданную для соединения глобальных облачных провайдеров мощностей графических ускорителей с разработчиками в области искусственного интеллекта. Глава компании, Дженсен Хуан, подчеркивает важность этой инициативы: “Nvidia DGX Cloud Lepton соединяет нашу сеть облачных провайдеров с ИИ-разработчиками.”
Платформа направлена на устранение трудностей, с которыми сталкиваются ИИ-разработчики, когда им требуется доступ к вычислительным ресурсам. Вице-президент Nvidia по вопросам DGX Cloud, Алексис Бьорлин, отметила: “Мы наблюдали множество трений в системе ИИ-разработчиков, когда дело доходило до поиска и получения доступа к вычислительным ресурсам.”
С помощью нового решения разработчики смогут работать сразу с несколькими облачными провайдерами. Среди партнеров Nvidia — CoreWeave, Lambda и Crusoe, что позволит пользователям получать более мощные ИИ-системы, объединяя ресурсы нескольких чипов в единое целое.
Такое нововведение важно в контексте продолжающегося роста интереса к технологиям искусственного интеллекта. Ранее Nvidia уже применяла технологию NVLink в своих продуктах, таких как модуль GB200 с интеграцией графических процессоров Blackwell и центрального процессора Grace. Теперь данная технология открывается для использования внешними партнерами, что может привести к новым достижениям в разработке ИИ-систем.
Перспективы использования платформы Nvidia DGX Cloud Lepton выглядят многообещающе. Скорее всего, данный шаг поможет ускорить разработки в сфере ИИ и повысит доступность вычислительных ресурсов для более широкого круга разработчиков, что в свою очередь может способствовать дальнейшему прогрессу в области искусственного интеллекта.
