La UE se enfoca en Grok pero ignora las apps de desnudos con IA

La UE se enfoca en Grok pero ignora las apps de desnudos con IA
Las autoridades de la Unión Europea han manifestado su alarma ante la posibilidad de que la herramienta de inteligencia artificial Grok pueda fabricar imágenes de personas desnudas. No obstante, esta postura deja de lado una realidad tecnológica mucho más amplia y establecida. Mientras se discute limitar el acceso a este editor, numerosas aplicaciones con funciones idénticas siguen disponibles sin obstáculos en las plataformas de distribución más grandes del mundo. 📱
Un ecosistema masivo en las tiendas oficiales
Un estudio reciente del Proyecto de Transparencia Tecnológica (TTP) pone cifras a este fenómeno. La investigación identifica más de un centenar de apps en las tiendas de Google Play y Apple App Store diseñadas específicamente para quitar la ropa de las personas en fotos de forma digital. Estas herramientas se centran mayoritariamente en retratos de mujeres, pudiendo mostrar a los sujetos totalmente desnudos, parcialmente desvestidos o con muy poca ropa.
Datos clave del informe TTP:- Se detectaron 55 aplicaciones en Google Play y 48 en la App Store de Apple.
- El conjunto de estas apps acumula más de 705 millones de descargas a escala global.
- Han generado ingresos estimados en alrededor de 117 millones de dólares.
El mecanismo para crear imágenes sexualizadas no consensuadas está ampliamente distribuido y es de fácil acceso.
La medida contra Grok es una solución limitada
Plantear restringir solo al editor de imágenes de Grok parece una acción que toca una pequeña parte del conflicto. La existencia de este extenso catálogo de apps especializadas demuestra que el problema es estructural. Enfocarse en un solo servicio, mientras un ecosistema completo opera con impunidad y llega a cientos de millones de usuarios, cuestiona la eficacia real de la respuesta planteada. 🚨
Desafíos para una regulación efectiva:- La respuesta debe involucrar directamente a las tiendas de aplicaciones, exigiendo que refuercen sus políticas de revisión.
- Es necesario un enfoque integral, no acciones aisladas contra herramientas individuales.
- Se evidencia una disparidad en la aplicación de las normas, donde algunas apps pasan los filtros mientras otras son señaladas.
Una conclusión sobre dobles raseros digitales
La situación revela una paradoja del entorno digital: resulta tecnológicamente más sencillo desvestir a una persona en una imagen que implementar controles consistentes y equitativos para evitarlo. Mientras la atención se centra en un actor, decenas operan a la vista de todos, lo que sugiere que las normas, en ocasiones, visten un doble rasero. La solución, si se busca que sea verdadera, requiere mirar más allá del objetivo inmediato y actuar sobre las plataformas que distribuyen estas herramientas. ⚖️