Em 2017, o Pentágono iniciou o Projeto Maven, uma iniciativa para empregar inteligência artificial na análise da avassaladora quantidade de vídeo e imagens captadas por drones. O livro de Katrina Manson documenta, por meio de testemunhos chave, a evolução dessa ferramenta: desde suas torpezas iniciais até se tornar um sistema capaz de identificar e propor alvos de ataque. Esta crônica não é apenas técnica, mas uma porta para a reflexão ética mais urgente: devemos automatizar a decisão de tirar uma vida?
Da assistência à autonomia: a inclinação técnica 🤖
O desenvolvimento do Projeto Maven ilustra uma trajetória comum na IA aplicada. Começou como um sistema de apoio, um filtro para aliviar a carga cognitiva dos analistas, classificando objetos em milhares de horas de material. No entanto, sua evolução natural o levou a uma maior autonomia, integrando capacidades de identificação e sugestão de objetivos no ciclo de combate. Manson detalha seu desdobramento operacional, mostrando como a ferramenta passou de ser uns olhos a se tornar um componente ativo que reduz o tempo entre a detecção e a potencial ação letal, erodindo progressivamente a supervisão humana direta.
O algoritmo sem julgamento: o risco último ⚖️
O núcleo do dilema ético que expõe Manson não é a tecnologia em si, mas a delegação. Um algoritmo carece de contexto humano, de compaixão, daquele julgamento último que no passado preveniu escaladas catastróficas. Automatizar completamente o ciclo de ataque significa confiar decisões irreversíveis a um sistema que apenas processa dados, não consequências. Este caso levanta a pergunta fundamental para nossa era digital: em aplicações de alto risco, onde devemos traçar a linha infranqueável para a autonomia da máquina? O futuro da guerra, e de nossa humanidade, depende dessa resposta.
Como afeta a moderação agressiva à percepção de uma marca tecnológica?