La plataforma Red Hat AI Factory y NVIDIA impulsa los agentes autónomos en entornos empresariales

ESPACIO PREMIUM
728 x 90 px
ESPACIO PREMIUM
728 x 90 px

A lo largo de mis siete años de trayectoria profesional documentando la evolución del software empresarial y evaluando infraestructuras tecnológicas desde Bogotá, he observado cómo la inteligencia artificial generativa ha pasado de ser un experimento de laboratorio a una necesidad operativa crítica. Sin embargo, el despliegue de estas tecnologías en entornos de producción corporativos exige controles sumamente rigurosos. Durante el Red Hat Summit celebrado este 12 de mayo de 2026 en Atlanta, el proveedor líder en soluciones de código abierto anunció nuevos hitos en su colaboración de ingeniería conjunta con la plataforma de software de NVIDIA.

La actualización de la infraestructura Red Hat AI Factory introduce capacidades de seguridad mejoradas para la operación continua de agentes autónomos. Esta solución proporciona una base unificada y escalable que permite a las organizaciones transitar de la fase piloto a la producción con absoluta confianza, integrando las herramientas y marcos avanzados de NVIDIA AI Enterprise bajo un estricto cumplimiento normativo.

Entorno de ejecución seguro para agentes autónomos

El despliegue de inteligencia artificial corporativa requiere límites operativos claros. Para solucionar este desafío técnico, las compañías están implementando OpenShell, un proyecto de código abierto fundado por NVIDIA que proporciona un entorno de ejecución aislado (sandbox) para agentes autónomos. Esta herramienta otorga a los administradores de sistemas controles de políticas más estrictos, un uso más seguro de las herramientas de software y operaciones completamente auditables.

GOOGLE ADS
(Automático aquí)

A través de la arquitectura de OpenShell, las organizaciones obtienen una capa de política unificada para dictar cómo se ejecutan los agentes algorítmicos, a qué bases de datos corporativas pueden acceder y hacia dónde se enruta la inferencia. Actualmente, se está llevando a cabo un trabajo de ingeniería conjunta para integrar este proyecto de forma nativa con la plataforma de inteligencia artificial de pila completa de Red Hat. Este esfuerzo busca estandarizar la gestión de los agentes a través de la nube híbrida, manteniendo la supervisión ininterrumpida a nivel de infraestructura.

Computación confidencial y protección por hardware

Más allá de la gobernanza definida por software, la plataforma extiende el límite de confianza y aplica políticas de seguridad directamente a nivel de hardware mediante la computación confidencial. Esta arquitectura está diseñada para proteger el sistema contra compromisos maliciosos en tiempo de ejecución, asegurando que un agente permanezca aislado y seguro incluso si otro agente dentro de la misma red corporativa es vulnerado.

Como novedad, los usuarios ahora pueden ejecutar contenedores confidenciales utilizando NVIDIA Confidential Computing como parte integral de Red Hat OpenShift (actualmente en fase de vista previa tecnológica). Esta protección reforzada por hardware se complementa con una arquitectura de confianza cero (zero-trust) que integra el cumplimiento de normativas FIPS, políticas de control de acceso SELinux y protección en tiempo de ejecución basada en las unidades de procesamiento de datos NVIDIA DOCA. Estas capas de control protegen los activos críticos desde el centro de datos hasta el borde de la red, facilitando el cumplimiento de directivas de gobernanza estrictas como la Ley de Inteligencia Artificial de la Unión Europea (EU AI Act).

Gestión del ciclo de vida y modelos como servicio

El entorno de software incorpora ahora toda la amplitud de innovaciones de la versión Red Hat AI 3.4. Entre sus novedades destaca una experiencia gobernada de Modelos como Servicio (MaaS) entregada a través de la puerta de enlace de la plataforma. Esto proporciona a los desarrolladores de software un acceso optimizado a modelos curados de alto rendimiento, como NVIDIA Nemotron, mediante interfaces de programación (API) estándar compatibles con OpenAI.

Para garantizar la supervisión operativa y la transparencia, la fábrica de inteligencia artificial integra una gestión del ciclo de vida lista para producción impulsada por MLflow. Esta adición técnica permite un rastreo de extremo a extremo de las llamadas a los Modelos de Lenguaje Grande (LLM), la ejecución de herramientas externas y cada paso de razonamiento lógico. Este marco unificado cierra la brecha entre la velocidad de desarrollo de los ingenieros y la estabilidad de las operaciones de TI, permitiendo a los auditores comprender exactamente cómo un agente llegó a un resultado específico.

Soporte acelerado para arquitecturas Blackwell y Vera Rubin

La disponibilidad general del sistema Red Hat Enterprise Linux para NVIDIA 26.01 marca un paso crítico para proporcionar soporte desde el día cero (Day 0) a las nuevas arquitecturas de procesamiento gráfico y de tensores. Mientras esta primera iteración soporta oficialmente los aceleradores NVIDIA Blackwell, ambas compañías ya están diseñando las futuras versiones para respaldar la próxima y potente plataforma NVIDIA Vera Rubin. Adicionalmente, la herramienta de orquestación de cargas de trabajo NVIDIA Run:ai ya se encuentra disponible para los clientes de esta solución conjunta.

Para acelerar el tiempo de obtención de valor en las empresas, Red Hat y NVIDIA están proporcionando planos técnicos (Blueprints) y guías de inicio rápido altamente validadas. Estos recursos simplifican el despliegue de patrones complejos, guiando a los equipos a través de casos de uso críticos como la investigación semántica de alta velocidad contra datos propietarios y la Generación Aumentada por Recuperación (RAG) utilizando NVIDIA NeMo Retriever bajo los estrictos controles de gobernanza de Red Hat.

Características de la plataforma y entorno de software

Para dimensionar el nivel técnico de esta infraestructura empresarial orientada a la inteligencia artificial, a continuación se detallan las especificaciones operativas del entorno de software conjunto:

  • Entorno de ejecución: Integración del proyecto OpenShell para crear contenedores aislados (sandbox) orientados a la operación ininterrumpida de agentes autónomos.
  • Seguridad de hardware: Soporte para NVIDIA Confidential Computing dentro de contenedores de Red Hat OpenShift, protegiendo los datos en uso a nivel de silicio.
  • Arquitectura Zero-Trust: Cumplimiento nativo de normativas FIPS, políticas de aislamiento SELinux y seguridad de red acelerada por unidades DPU NVIDIA DOCA.
  • Gestión de modelos (MaaS): Puerta de enlace Red Hat AI 3.4 con interfaces compatibles con OpenAI para el acceso gobernado a modelos como NVIDIA Nemotron.
  • Trazabilidad operativa: Integración de la plataforma MLflow para auditar, monitorear y registrar cada paso de razonamiento y llamada de los modelos de lenguaje grande (LLM).
  • Soporte de infraestructura: Compatibilidad Day 0 con la arquitectura de superchips NVIDIA Blackwell mediante el sistema operativo Red Hat Enterprise Linux para NVIDIA 26.01.
  • Plantillas de despliegue: Inclusión de Blueprints validados para arquitecturas RAG y RAFT corporativas utilizando microservicios de inferencia NVIDIA NeMo Retriever.
GOOGLE ADS
(Automático aquí)

Gustavo Torres

Amante de la tecnología con 7 años de experiencia en el cubrimiento informativo de este sector en temas como telecomunicaciones, tecnología de consumo, dispositivos móviles y plataformas en Colombia.

Mi opinión sobre tecnología ha sido tomada por medios como La República o AS. Soy especialista productos de consumo masivo y reviews de hardware. Soy director de tecnogus.com.co

Comparte...

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *