Akash Network запустила AkashML, предлагая OpenAI‑совместимые API, глобальный доступ с низкой задержкой и экономию до 85% при развертывании LLM.
Akash Network, маркетплейс облачных вычислений, представила первый полностью управляемый сервис AI-инференса, работающий исключительно на децентрализованных GPU. Этот новый сервис устраняет операционные сложности, с которыми ранее сталкивались разработчики при управлении инференсом промышленного уровня на платформе Akash, предоставляя преимущества децентрализованных облачных вычислений без необходимости ручного управления инфраструктурой.
На старте AkashML предлагает управляемый инференс для моделей, включая Llama 3.3-70B, DeepSeek V3 и Qwen3-30B-A3B, которые доступны для немедленного развертывания и масштабируются более чем в 65 дата-центрах по всему миру. Такая архитектура обеспечивает мгновенный глобальный инференс, предсказуемое ценообразование по принципу оплаты за токен и повышает производительность разработчиков.
С момента роста интереса к AI-приложениям после первых успехов OpenAI, Akash поддерживала ранних разработчиков AI и стартапы. За последние несколько лет команда Akash Core сотрудничала с такими клиентами, как brev.dev (куплен Nvidia), VeniceAI и Prime Intellect, чтобы запускать продукты, обслуживающие десятки тысяч пользователей. Хотя эти ранние пользователи были технически подкованы и могли самостоятельно управлять инфраструктурой, обратная связь показала предпочтение API-ориентированного доступа без необходимости работать с базовыми системами. Это стало отправной точкой для разработки непубличной версии AkashML для избранных пользователей, а также для создания AkashChat и AkashChat API, что подготовило почву для публичного запуска AkashML.
AkashML снизит затраты на развертывание LLM до 85%
Новое решение решает ряд ключевых проблем, с которыми сталкиваются разработчики и компании при развертывании крупных языковых моделей. Традиционные облачные решения часто подразумевают высокие затраты: зарезервированные инстансы для модели 70B обходятся более чем в $0,13 за вход и $0,40 за выход на миллион токенов, в то время как AkashML использует рыночную конкуренцию для снижения расходов на 70–85%. Операционные издержки — ещё одно препятствие: упаковка моделей, настройка серверов vLLM или TGI, управление шардированием и обработка отказов могут занять недели инженерного времени; AkashML упрощает этот процесс с помощью OpenAI-совместимых API, позволяющих мигрировать за считанные минуты без изменений в коде.
Задержки также вызывают беспокойство при использовании централизованных платформ, требующих передачи запросов на большие расстояния. AkashML перенаправляет трафик в ближайший из более чем 80 глобальных дата-центров, обеспечивая время отклика менее 200 мс, что подходит для приложений в реальном времени. Привязка к поставщику ограничивает гибкость и контроль над моделями и данными; AkashML использует только открытые модели, такие как Llama, DeepSeek и Qwen, предоставляя пользователям полный контроль над версиями, обновлениями и управлением. Проблемы масштабируемости решаются за счёт авто-масштабирования по децентрализованным GPU-ресурсам, поддерживая 99% времени безотказной работы, устраняя ограничения по мощности и предотвращая внезапные скачки цен.
AkashML разработан для быстрой интеграции и мгновенной отдачи от инвестиций. Новые пользователи получают $100 в AI-токенах для экспериментов со всеми поддерживаемыми моделями через Playground или API. Один API-эндпоинт поддерживает все модели и интегрируется с такими фреймворками, как LangChain, Haystack или кастомными агентами. Прозрачное и модельно-специфичное ценообразование предотвращает неожиданные расходы. Запуски с высоким эффектом могут получить дополнительную огласку благодаря Akash Star, а предстоящие сетевые обновления, включая BME, виртуальные машины и конфиденциальные вычисления, ожидаемо еще больше снизят издержки. Ранние пользователи сообщают о снижении расходов в 3–5 раз и стабильной глобальной задержке менее 200 мс, что создает самоусиливающийся цикл снижения затрат, роста использования и расширения числа провайдеров.
Начать очень просто: пользователи могут создать бесплатный аккаунт на playground.akashml.com менее чем за две минуты, ознакомиться с библиотекой моделей, включая Llama 3.3-70B, DeepSeek V3 и Qwen3-30B-A3B, и увидеть цены сразу. Дополнительные модели можно запросить прямо с платформы. Пользователи могут мгновенно тестировать модели в Playground или через API, отслеживать использование, задержку и расходы в панели управления и масштабироваться до продакшна с помощью закрепления по регионам и авто-масштабирования.
Централизованный инференс остается дорогим, медленным и ограниченным, в то время как AkashML предоставляет полностью управляемый, API-first, децентрализованный доступ к лучшим открытым моделям по рыночным ценам. Разработчики и компании, стремящиеся сократить расходы на инференс до 80%, могут начать использовать платформу уже сейчас.
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
Akash Network запускает AkashML — первый полностью управляемый сервис AI-инференса на децентрализованных GPU
Кратко
Akash Network запустила AkashML, предлагая OpenAI‑совместимые API, глобальный доступ с низкой задержкой и экономию до 85% при развертывании LLM.
Akash Network, маркетплейс облачных вычислений, представила первый полностью управляемый сервис AI-инференса, работающий исключительно на децентрализованных GPU. Этот новый сервис устраняет операционные сложности, с которыми ранее сталкивались разработчики при управлении инференсом промышленного уровня на платформе Akash, предоставляя преимущества децентрализованных облачных вычислений без необходимости ручного управления инфраструктурой.
На старте AkashML предлагает управляемый инференс для моделей, включая Llama 3.3-70B, DeepSeek V3 и Qwen3-30B-A3B, которые доступны для немедленного развертывания и масштабируются более чем в 65 дата-центрах по всему миру. Такая архитектура обеспечивает мгновенный глобальный инференс, предсказуемое ценообразование по принципу оплаты за токен и повышает производительность разработчиков.
С момента роста интереса к AI-приложениям после первых успехов OpenAI, Akash поддерживала ранних разработчиков AI и стартапы. За последние несколько лет команда Akash Core сотрудничала с такими клиентами, как brev.dev (куплен Nvidia), VeniceAI и Prime Intellect, чтобы запускать продукты, обслуживающие десятки тысяч пользователей. Хотя эти ранние пользователи были технически подкованы и могли самостоятельно управлять инфраструктурой, обратная связь показала предпочтение API-ориентированного доступа без необходимости работать с базовыми системами. Это стало отправной точкой для разработки непубличной версии AkashML для избранных пользователей, а также для создания AkashChat и AkashChat API, что подготовило почву для публичного запуска AkashML.
AkashML снизит затраты на развертывание LLM до 85%
Новое решение решает ряд ключевых проблем, с которыми сталкиваются разработчики и компании при развертывании крупных языковых моделей. Традиционные облачные решения часто подразумевают высокие затраты: зарезервированные инстансы для модели 70B обходятся более чем в $0,13 за вход и $0,40 за выход на миллион токенов, в то время как AkashML использует рыночную конкуренцию для снижения расходов на 70–85%. Операционные издержки — ещё одно препятствие: упаковка моделей, настройка серверов vLLM или TGI, управление шардированием и обработка отказов могут занять недели инженерного времени; AkashML упрощает этот процесс с помощью OpenAI-совместимых API, позволяющих мигрировать за считанные минуты без изменений в коде.
Задержки также вызывают беспокойство при использовании централизованных платформ, требующих передачи запросов на большие расстояния. AkashML перенаправляет трафик в ближайший из более чем 80 глобальных дата-центров, обеспечивая время отклика менее 200 мс, что подходит для приложений в реальном времени. Привязка к поставщику ограничивает гибкость и контроль над моделями и данными; AkashML использует только открытые модели, такие как Llama, DeepSeek и Qwen, предоставляя пользователям полный контроль над версиями, обновлениями и управлением. Проблемы масштабируемости решаются за счёт авто-масштабирования по децентрализованным GPU-ресурсам, поддерживая 99% времени безотказной работы, устраняя ограничения по мощности и предотвращая внезапные скачки цен.
AkashML разработан для быстрой интеграции и мгновенной отдачи от инвестиций. Новые пользователи получают $100 в AI-токенах для экспериментов со всеми поддерживаемыми моделями через Playground или API. Один API-эндпоинт поддерживает все модели и интегрируется с такими фреймворками, как LangChain, Haystack или кастомными агентами. Прозрачное и модельно-специфичное ценообразование предотвращает неожиданные расходы. Запуски с высоким эффектом могут получить дополнительную огласку благодаря Akash Star, а предстоящие сетевые обновления, включая BME, виртуальные машины и конфиденциальные вычисления, ожидаемо еще больше снизят издержки. Ранние пользователи сообщают о снижении расходов в 3–5 раз и стабильной глобальной задержке менее 200 мс, что создает самоусиливающийся цикл снижения затрат, роста использования и расширения числа провайдеров.
Начать очень просто: пользователи могут создать бесплатный аккаунт на playground.akashml.com менее чем за две минуты, ознакомиться с библиотекой моделей, включая Llama 3.3-70B, DeepSeek V3 и Qwen3-30B-A3B, и увидеть цены сразу. Дополнительные модели можно запросить прямо с платформы. Пользователи могут мгновенно тестировать модели в Playground или через API, отслеживать использование, задержку и расходы в панели управления и масштабироваться до продакшна с помощью закрепления по регионам и авто-масштабирования.
Централизованный инференс остается дорогим, медленным и ограниченным, в то время как AkashML предоставляет полностью управляемый, API-first, децентрализованный доступ к лучшим открытым моделям по рыночным ценам. Разработчики и компании, стремящиеся сократить расходы на инференс до 80%, могут начать использовать платформу уже сейчас.