Escanea para descargar la aplicación Gate
qrCode
Más opciones de descarga
No volver a recordar hoy

Akash Network lanza AkashML, el primer servicio de inferencia de IA totalmente gestionado en GPUs descentralizadas

En resumen

Akash Network ha lanzado AkashML, que ofrece APIs compatibles con OpenAI, acceso global de baja latencia y hasta un 85% de ahorro en costes para el despliegue de LLMs.

¡Akash Network lanza AkashML, el primer servicio de inferencia de IA totalmente gestionado en GPUs descentralizadas

Akash Network, un mercado de computación en la nube, ha presentado el primer servicio de inferencia de IA totalmente gestionado que opera íntegramente sobre GPUs descentralizadas. Este nuevo servicio elimina los retos operativos que anteriormente enfrentaban los desarrolladores al gestionar inferencias de nivel de producción en Akash, proporcionando las ventajas de la computación en la nube descentralizada sin necesidad de gestionar la infraestructura manualmente.

En su lanzamiento, AkashML ofrece inferencia gestionada para modelos como Llama 3.3-70B, DeepSeek V3 y Qwen3-30B-A3B, disponibles para despliegue inmediato y escalables en más de 65 centros de datos a nivel global. Esta configuración permite inferencia global instantánea, precios predecibles por token y mejora la productividad de los desarrolladores.

Akash ha apoyado a desarrolladores y startups de IA desde el auge de las aplicaciones de IA tras los primeros avances de OpenAI. En los últimos años, el equipo central de Akash ha colaborado con clientes como brev.dev (adquirido por Nvidia), VeniceAI y Prime Intellect para lanzar productos que atienden a decenas de miles de usuarios. Aunque estos primeros adoptantes tenían altos conocimientos técnicos y podían gestionar la infraestructura por sí mismos, el feedback indicó una preferencia por el acceso mediante API sin tener que ocuparse de los sistemas subyacentes. Esta información guió el desarrollo de una versión no pública de AkashML para usuarios seleccionados, así como la creación de AkashChat y AkashChat API, allanando el camino para el lanzamiento público de AkashML.

AkashML reducirá los costes de despliegue de LLMs hasta un 85%

La nueva solución aborda varios desafíos clave que encuentran los desarrolladores y empresas al desplegar grandes modelos de lenguaje. Las soluciones cloud tradicionales suelen implicar costes elevados, con instancias reservadas para un modelo de 70B que superan los 0,13$ por entrada y 0,40$ por salida por millón de tokens, mientras que AkashML aprovecha la competencia del mercado para reducir los gastos entre un 70% y un 85%. La carga operativa es otra barrera, ya que empaquetar modelos, configurar servidores vLLM o TGI, gestionar shards y manejar failovers puede requerir semanas de trabajo de ingeniería; AkashML simplifica esto con APIs compatibles con OpenAI que permiten la migración en minutos sin cambios de código.

La latencia también es una preocupación en plataformas centralizadas que requieren que las solicitudes recorran largas distancias. AkashML dirige el tráfico al más cercano de más de 80 centros de datos globales, proporcionando tiempos de respuesta por debajo de los 200 ms, adecuados para aplicaciones en tiempo real. El vendor lock-in limita la flexibilidad y el control sobre modelos y datos; AkashML utiliza únicamente modelos abiertos como Llama, DeepSeek y Qwen, dando a los usuarios control total sobre versionado, actualizaciones y gobernanza. Los retos de escalabilidad se mitigan con el autoescalado a través de recursos GPU descentralizados, manteniendo un 99% de disponibilidad y eliminando los límites de capacidad mientras se evitan subidas repentinas de precios.

AkashML está diseñado para una incorporación rápida y retorno inmediato de la inversión. Los nuevos usuarios reciben $100 en créditos de tokens de IA para experimentar con todos los modelos soportados a través del Playground o la API. Un único endpoint de API soporta todos los modelos e integra con frameworks como LangChain, Haystack o agentes personalizados. Los precios son transparentes y específicos para cada modelo, evitando costes inesperados. Los despliegues de alto impacto pueden obtener visibilidad a través de Akash Star, y las próximas actualizaciones de red, incluyendo BME, máquinas virtuales y computación confidencial, se espera que reduzcan aún más los costes. Los primeros usuarios informan de reducciones de costes de tres a cinco veces y una latencia global constante por debajo de 200 ms, creando un ciclo virtuoso de menores costes, mayor uso y mayor participación de proveedores.

Comenzar es sencillo: los usuarios pueden crear una cuenta gratuita en playground.akashml.com en menos de dos minutos, explorar la biblioteca de modelos que incluye Llama 3.3-70B, DeepSeek V3 y Qwen3-30B-A3B, y ver los precios por adelantado. Se pueden solicitar modelos adicionales directamente desde la plataforma. Los usuarios pueden probar modelos de forma instantánea en el Playground o vía API, monitorizar el uso, la latencia y el gasto a través del panel de control, y escalar a producción con asignación de regiones y autoescalado.

La inferencia centralizada sigue siendo costosa, lenta y restrictiva, mientras que AkashML ofrece acceso totalmente gestionado, API-first y descentralizado a los principales modelos abiertos a precios determinados por el mercado. Los desarrolladores y empresas que busquen reducir los costes de inferencia hasta un 80% pueden empezar a usar la plataforma de inmediato.

AKT2.35%
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
0/400
Sin comentarios
  • Anclado
Opera con criptomonedas en cualquier momento y lugar
qrCode
Escanee para descargar la aplicación Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)