Publicado el 03/04/2026, 19:47:15 | Autor: 3dpoder

Microsoft Critique: GPT y Claude colaboran para revisar respuestas de IA

Microsoft presenta Critique, una función para su herramienta Copilot Researcher. Su mecanismo se basa en la colaboración entre dos modelos de IA: GPT de OpenAI genera una respuesta inicial y Claude de Anthropic actúa como revisor crítico. Este proceso de doble chequeo interno busca elevar la precisión del resultado final, logrando una mejora del 13.8% en tareas de investigación profunda.

Dos asistentes de IA, uno generando contenido y otro revisándolo críticamente, sobre un documento con gráficos de mejora de precisión.

La arquitectura de orquestación de modelos múltiples 🤖

La función se enmarca en una estrategia técnica de orquestación, donde diferentes modelos de IA especializados trabajan en secuencia o en paralelo. Critique emplea un flujo en serie: un modelo produce y otro evalúa. Junto a ella, Council permite comparar salidas de varios modelos a la vez. Este enfoque reduce la dependencia de un único proveedor y mitiga errores sistemáticos, apuntando a una mayor fiabilidad en tareas complejas.

La IA se pone de reunión de equipo para no equivocarse 😅

Parece que las IA han adoptado la cultura corporativa de las revisiones interminables. Ahora GPT no puede enviar un informe sin que Claude le devuelva el documento lleno de comentarios en rojo. Es el típico déjame verlo antes de que salga. Al final, el usuario recibe un trabajo más pulido, pero uno se pregunta si el siguiente paso será que las modelos se pongan a discutir en un canal de Slack por la mejor forma de citar una fuente.