Cloudflare anunció la disponibilidad general de Workers AI, una plataforma que permite a los desarrolladores ejecutar modelos de inteligencia artificial directamente en su red global de edge computing. La propuesta diferenciadora de Cloudflare es que los modelos se ejecutan cerca del usuario final, reduciendo la latencia a milisegundos en lugar de los cientos de milisegundos típicos de los centros de datos centralizados.
La plataforma incluye soporte para los principales modelos open source, incluyendo Meta's Llama 3, Mistral, y varios modelos de generación de imágenes como Stable Diffusion. Los desarrolladores pueden integrar estas capacidades de AI directamente en sus Workers de Cloudflare con apenas unas pocas líneas de código.
El modelo de precios es significativamente más accesible que alternativas como AWS SageMaker o Google Vertex AI. Cloudflare ofrece un nivel gratuito generoso con 10,000 inferencias por día, con precios de pago por uso para volúmenes mayores.
Para las empresas que manejan datos sensibles, Workers AI ofrece una ventaja adicional: los datos no salen de la región geográfica configurada, lo que simplifica el cumplimiento de regulaciones como GDPR en Europa o la Ley de Protección de Datos en América Latina.
La integración con el ecosistema existente de Cloudflare, incluyendo KV Store, D1 (base de datos SQL) y R2 (almacenamiento de objetos), hace que Workers AI sea especialmente atractivo para equipos que ya usan la infraestructura de Cloudflare. Los primeros benchmarks muestran tiempos de respuesta promedio de 80-120ms para modelos de 7B parámetros.