A startup israelense Conntour desenvolveu uma plataforma que atua como um Google para câmeras de segurança, analisando milhares de transmissões com IA. Embora sua eficiência técnica seja notável, seu implantação em massa levanta questionamentos críticos em matéria de privacidade e conformidade normativa. Esta análise se centra nos riscos regulatórios e na governança ética de uma ferramenta com tal capacidade de vigilância automatizada.
Funcionamento técnico e escalabilidade sem precedentes 🔍
O sistema da Conntour utiliza modelos de linguagem e visão para responder consultas em linguagem natural sobre vídeo ao vivo ou gravado. Sua principal vantagem competitiva é a arquitetura que permite escalar eficientemente com milhares de câmeras simultâneas, superando soluções tradicionais. Essa escalabilidade é precisamente o que multiplica o impacto legal: processar massivamente fluxos de vídeo de espaços públicos e privados amplifica exponencialmente os riscos de tratamento ilegítimo de dados pessoais, transbordando os princípios de minimização e limitação da finalidade.
O dilema da supervisão e os critérios éticos ⚖️
A empresa afirma selecionar clientes sob critérios éticos e legais, mas surge a pergunta chave: quem audita esses critérios? A opacidade na governança, unida ao uso por governos, cria um cenário de alta opacidade. Sem mecanismos de supervisão independentes e auditorias públicas, a ferramenta poderia facilitar uma vigilância massiva incompatível com marcos como o GDPR, onde o consentimento e a transparência são pilares fundamentais. A tecnologia avança, mas a prestação de contas fica para trás.
Até que ponto plataformas como a Conntour, que indexam câmeras de segurança públicas, podem operar sem violar normativas de proteção de dados, privacidade e segurança nacional?
(PD: os sistemas de verificação são como os suportes de impressão: se falham, tudo desaba)