Um juiz federal anulou o cancelamento de subsídios de mais de 100 milhões de dólares, impulsionado pelo Departamento de Eficiência Governamental. A juíza Colleen McMahon determinou que o uso do ChatGPT para identificar e eliminar fundos relacionados à diversidade, equidade e inclusão (DEI) não tinha base legal. O caso expõe os riscos de delegar decisões administrativas à inteligência artificial sem supervisão humana.
O algoritmo que decidia sem entender o contexto 🧠
Justin Fox, ex-funcionário do DOGE, admitiu ter usado o ChatGPT para analisar descrições de subsídios da Fundação Nacional para as Humanidades. Sua metodologia era simples: perguntar ao chatbot se cada projeto se relacionava com DEI, esperando um Sim ou Não com breve explicação. Fox não definiu o termo DEI para a IA nem verificou como ela interpretava conceitos complexos como inclusão ou equidade. Isso gerou cancelamentos arbitrários de projetos culturais e educacionais.
Quando o chefe é um prompt mal escrito 🤖
O mais curioso do caso é que ninguém se preocupou em explicar ao ChatGPT o que significava DEI. Fox admitiu que desconhecia como a IA interpretava o termo. Basicamente, decidiram o futuro de milhões de dólares perguntando a um chatbot sem contexto, como quem pede a um garçom que escolha o vinho sem saber se o jantar é peixe ou carne. O resultado: um caos legal e subsídios cortados ao acaso.