Encontre aqui seu Software

Busca simples


Busca Avançada

Red Hat y Google Cloud amplían alianza para impulsar la IA empresarial

Postado por Redacción Portal ERP LATAM em 22/05/2025 em Mercado

Compartilhar:

Red Hat será uno de los primeros en probar el modelo abierto Gemma 3 de Google y brindará soporte desde el Día 0.

Foto: cortesía. Portal ERP LATAM.

Red Hat, proveedor de soluciones open source, y Google Cloud anunciaron una colaboración para impulsar la IA en aplicaciones empresariales mediante la combinación de las tecnologías open source de Red Hat y la infraestructura de Google Cloud y la familia de modelos abiertos Gemma de Google.

A través de esta mayor colaboración, Red Hat y Google Cloud se comprometen a promover innovaciones revolucionarias en IA mediante la combinación de sus conocimientos y plataformas. Incorporar el poder de vLLM y las tecnologías open source de Red Hat a Google Cloud y Gemma de Google brinda a los desarrolladores los recursos necesarios para crear soluciones de IA más precisas y de alto rendimiento, impulsadas por capacidades de inferencia optimizadas”, comenta Brian Stevens, senior vice president and Chief Technology Officer de Red Hat.

Te puede interesar: Casos reales de uso de IA en organizaciones de Latinoamérica: Google Cloud

Las empresas promoverán en conjunto casos de uso de grado empresarial para escalar la IA mediante:

·       El lanzamiento del proyecto open source llm-d, con Google como colaborador fundador.

·       La habilitación de soporte para vLLM en TPU de Google Cloud y máquinas virtuales (VM) basadas en GPU para mejorar la inferencia de IA.

·       La prestación de soporte desde el Día 0 para los vLLM en distribuciones del modelo Gemma 3.

·       El soporte de Red Hat AI Inference Server en Google Cloud.

·       El lanzamiento de la IA agéntica con Red Hat como colaborador de la comunidad para el protocolo Agent2Agent (A2A) de Google.

vLLM complementa la inferencia de IA

Como prueba de su compromiso con la disponibilidad desde el Día 0, Red Hat ahora es uno de los primeros en probar la familia de modelos abiertos Gemma de Google, comenzando con Gemma 3, y en brindar soporte inmediato para vLLM.

vLLM es un servidor de inferencia open source que acelera la generación de resultados de las aplicaciones de IA generativa (AI gen). Como principal colaborador comercial de vLLM, Red Hat contribuye a una plataforma con mayor capacidad de respuesta y de menor costo para aplicaciones de IA generativa.

Además, las TPU de Google Cloud —los aceleradores de IA de alto rendimiento que impulsan el portfolio de IA de Google— ahora están habilitadas en vLLM. Esta integración permite a los desarrolladores maximizar los recursos y, al mismo tiempo, lograr el rendimiento y la eficiencia críticos para una inferencia rápida y precisa.

Conscientes de la transición de la investigación de la IA a su implementación en el mundo real, muchas empresas se enfrentan a las complejidades de un ecosistema de IA diverso y a la necesidad de adoptar estrategias de computación más distribuidas. En respuesta, Red Hat ha lanzado el proyecto open source llm-d, con Google como colaborador fundador.

Esta iniciativa, que aprovecha el impulso de la comunidad de vLLM, es ahora una nueva era en la inferencia de la IA generativa. El objetivo es facilitar una mayor escalabilidad entre recursos heterogéneos, optimizar costos y mejorar la eficiencia de las cargas de trabajo, sin dejar de fomentar la innovación continua. 

La innovación impulsada por la comunidad promueve la IA empresarial

Red Hat AI Inference Server, que lleva los avances de la comunidad de desarrollo a la empresa, ya está disponible en Google Cloud. Como distribución de vLLM de Red Hat para la empresa, Red Hat AI Inference Server ayuda a las empresas a optimizar la inferencia de modelos en todo su entorno de nube híbrida.

Al aprovechar la infraestructura sólida y confiable de Google Cloud, las empresas pueden implementar modelos de IA generativa listos para producción que ofrezcan una gran capacidad de respuesta y sean económicamente eficientes a gran escala.

Como testimonio de su compromiso conjunto con la IA abierta, Red Hat ahora también colabora con el protocolo Agent2Agent (A2A) de Google: un protocolo a nivel de aplicación que facilita una comunicación más fluida entre usuarios finales o agentes entre diversas plataformas y entornos de nube. Al participar activamente en el ecosistema A2A, Red Hat busca ayudar a los usuarios a descubrir nuevas formas de innovar, garantizando que los flujos de trabajo de IA sigan siendo dinámicos y efectivos gracias a la IA agéntica.

Postado por Redacción Portal ERP LATAM em 22/05/2025 em Mercado

Para tornar sua experiência mais agradável usamos cookies para armazenar informações sobre como você usa o Portal ERP. Acesse nosso 'Termos de Uso e Política de Privacidade' para saber mais. Ao clicar em 'Aceitar', você consente com a otimização do site pelo uso de cookies.