Imagina que los médicos tuvieran un asistente superinteligente para revisar historiales y estudios. Suena genial, ¿verdad? Pues resulta que estos asistentes de IA tienen un punto débil preocupante: pueden repetir información falsa si se les presenta de forma convincente.


El problema del sí, señor digital

Piensa en cuando le cuentas un chisme increíble a un amigo. Si lo haces con mucha seguridad, a veces se lo traga sin cuestionarlo. Algo así les pasa a estos modelos de lenguaje. Un nuevo estudio muestra que si la información errónea suena autoritaria o detallada, la IA puede tragársela y luego recetarla, metafóricamente, en sus respuestas a los doctores.

Algo curioso que probablemente no sabías

No es que la IA invente la mentira de cero en este caso. El riesgo está en que un humano, o una fuente contaminada, le siembre el dato falso. Luego, el sistema lo procesa y lo repite como si fuera un hecho médico válido, contaminando la cadena de información. Es como el juego del teléfono escacharrado, pero con consecuencias potencialmente graves.

Así que, aunque son herramientas poderosas, necesitan un filtro de escepticismo humano. Al fin y al cabo, confiar ciegamente en una máquina que se puede contagiar de desinformación... no es muy distinto de creerse lo primero que ves en internet.