IBM diseña el procesador Telum para sus sistemas mainframe IBM zSystems. Este chip integra aceleración de inteligencia artificial directamente en su núcleo, lo que permite ejecutar inferencia de aprendizaje automático en tiempo real. Esta capacidad opera dentro de la misma infraestructura que procesa las transacciones críticas de negocio, sin necesidad de enviar datos a sistemas externos. Al procesar modelos de IA junto a las cargas de trabajo transaccionales, se reduce la latencia de forma significativa.


La arquitectura Telum fusiona cómputo transaccional e IA

El chip Telum se basa en una arquitectura de doble núcleo y cuenta con ocho núcleos por módulo. Cada núcleo puede acceder a una caché L2 compartida de 256 MB. La unidad de aceleración de IA, integrada en el chip y compartida por todos los núcleos, está optimizada para operaciones de inferencia con baja precisión numérica, como INT8. Esto permite analizar transacciones sobre la marcha, por ejemplo para detectar patrones fraudulentos en transacciones financieras o evaluar riesgos de crédito al instante, mientras la operación principal aún se procesa.

El impacto se centra en analizar datos en tiempo real

Al incorporar la inferencia de IA en el flujo de datos transaccional, las empresas pueden tomar decisiones inmediatas sin interrumpir sus operaciones centrales. Esto mejora la capacidad de identificar anomalías, prever resultados o personalizar interacciones en el momento exacto en que ocurren. La tecnología busca ofrecer un rendimiento predecible y consistente para cargas de trabajo mixtas, donde la analítica compleja y el procesar transacciones deben coexistir sin comprometer la seguridad o la fiabilidad del sistema mainframe.

Integrar un copiloto de IA en un mainframe es como añadir un detective financiero de élite dentro de la cámara acorazada del banco, que revisa cada transacción mientras ocurre, pero sin tocar el dinero.