El grupo de extorsión Lapsus$ publicó el 4 de abril de 2026 un archivo de cuatro terabytes con datos biométricos de más de 40.000 colaboradores de Mercor, una plataforma que recluta contratistas para entrenar modelos de inteligencia artificial. La filtración incluye grabaciones de voz, escaneos de documentos y selfies de verificación, lo que ha desatado cinco demandas colectivas en diez días por falta de advertencia sobre el uso de huellas vocales como identificador biométrico permanente.
Clonación vocal con quince segundos de muestra 🎙️
El riesgo técnico radica en que la clonación de voz de alta calidad solo necesita quince segundos de audio limpio para replicar una identidad vocal. Las grabaciones de Mercor, que duran entre dos y cinco minutos en condiciones óptimas, proporcionan material suficiente para generar modelos de voz sintética. Esto convierte cada archivo en un vector de suplantación, sin que los afectados puedan revocar su huella vocal. La biometría de voz carece de mecanismos de cambio, a diferencia de contraseñas o tokens físicos, lo que amplifica el daño potencial frente a extorsiones o fraudes telefónicos automatizados.
Tu voz ya no es tuya, es un archivo de entrenamiento 🤖
Lo más curioso del caso es que los afectados trabajaban para entrenar modelos de IA, y ahora son ellos quienes sirven como dataset involuntario para otra clase de inteligencia artificial. Mercor les pidió hablar claro para mejorar algoritmos, pero olvidó mencionar que su voz ya no volvería a ser privada. Con quince segundos de grabación, cualquier script de código abierto puede imitar a un contratista pidiendo un préstamo. Al menos, si les roban la cara con los selfies, pueden usar gafas de sol; para la voz, solo queda el silencio.