Las Ray-Ban Meta, que integran inteligencia artificial y cámara oculta, se han convertido en el gadget más polémico del año. Su diseño, idéntico a unas gafas de sol convencionales, permite grabar vídeo sin levantar sospechas. Un reciente caso en Londres, donde un manfluencer grabó a una mujer sin su consentimiento y luego exigió dinero para borrar el material, ha encendido todas las alarmas sobre los límites de la tecnología wearable y el derecho a la intimidad en espacios públicos.
El dilema técnico del LED indicador y la modificación del hardware 🕵️
El principal problema de seguridad de estos dispositivos reside en el diminuto LED que, según el fabricante, debe iluminarse para señalar que la cámara está activa. Sin embargo, la comunidad hacker ya ha documentado métodos para desactivar o cubrir este indicador, anulando la única advertencia visual para la persona grabada. En Barcelona, un hombre fue detenido tras grabar a cientos de mujeres con unas gafas similares, sin que ninguna detectara el LED. Este fallo de diseño, sumado a la capacidad de las gafas para transmitir en vivo sin un teléfono visible, convierte a cualquier transeúnte en un objetivo potencial de grabación no consentida. La respuesta de TikTok, que eliminó el vídeo viral solo tras una denuncia por acoso explícito, evidencia la lentitud de las plataformas ante este nuevo formato de agresión digital.
¿Prohibición o responsabilidad compartida? ⚖️
La tecnología avanza más rápido que las leyes. Mientras algunos países debaten prohibir el uso de estas gafas en determinados espacios, la responsabilidad recae sobre los fabricantes y las redes sociales. Meta debe endurecer las medidas de seguridad por hardware, haciendo el LED imposible de eludir. Las plataformas, por su parte, necesitan algoritmos capaces de detectar y eliminar automáticamente contenido grabado sin permiso. Para el usuario, la regla de oro sigue siendo la misma: si el dispositivo no es visible, la confianza se rompe. En la era de la IA vestible, la privacidad ya no es solo un derecho, sino un campo de batalla tecnológico que debemos regular antes de que sea demasiado tarde.
¿Cómo pueden los legisladores y las empresas tecnológicas equilibrar la innovación en gafas con IA con el derecho fundamental a la privacidad en espacios públicos sin caer en una vigilancia masiva inadvertida?
(PD: el efecto Streisand en acción: cuanto más lo prohíbes, más lo usan, como el microslop)