欧盟聚焦Grok却忽略AI裸体应用

发布于 2026年02月22日 | 从西班牙语翻译
Ilustración conceptual que muestra un teléfono móvil con iconos de aplicaciones de IA que generan imágenes de desnudos, superpuesto sobre el logotipo de la Unión Europea, simbolizando la preocupación regulatoria.

欧盟关注Grok但忽略AI裸体应用

欧盟当局对人工智能工具Grok可能制造裸体人物图像的可能性表示震惊。然而,这种立场忽略了一个更广泛且已确立的技术现实。在讨论限制此编辑器访问的同时,众多具有相同功能的应用程序在全球最大的分发平台上仍可无障碍获取。📱

官方商店中的庞大生态系统

技术透明度项目(TTP)的最近研究为此现象提供了数据。该调查在Google Play和Apple App Store中识别出超过一百个专门设计用于数字方式去除照片中人物衣物的应用程序。这些工具主要针对女性肖像,能够显示受试者完全裸体、部分脱衣或穿着极少衣物。

TTP报告的关键数据:
  • 在Google Play中检测到55个应用程序,在Apple App Store中检测到48个
  • 这些应用的 مجموع下载量超过7.05亿次全球。
  • 产生了约1.17亿美元的估计收入。
创建非自愿性感图像的机制广泛分发且易于访问。

针对Grok的措施是有限的解决方案

仅提议限制Grok的图像编辑器似乎只触及冲突的一小部分。这些专业化应用的广泛目录的存在证明了问题具有结构性。仅关注单一服务,而一个完整的生态系统肆无忌惮地运营并触及数亿用户,这质疑了所提出回应的实际效能。🚨

有效监管的挑战:
  • 回应必须直接涉及应用商店,要求它们加强审核政策。
  • 需要综合方法,而不是针对单个工具的孤立行动。
  • 显现出规范应用的差异性,一些应用通过过滤器,而其他被指认。

关于数字双重标准的结论

这种情况揭示了数字环境的悖论:技术上更容易在图像中脱掉一个人的衣服,而不是实施一致且公平的控制来防止它。当注意力集中在单一行为者上时,数十个在众目睽睽之下运营,这表明规范有时穿着双重标准。如果寻求真正的解决方案,需要超越即时目标,针对分发这些工具的平台采取行动。⚖️