Ein Bundesrichter hat die Streichung von Subventionen in Höhe von über 100 Millionen US-Dollar gekippt, die vom Department of Government Efficiency vorangetrieben wurde. Richterin Colleen McMahon entschied, dass die Nutzung von ChatGPT zur Identifizierung und Streichung von Mitteln im Zusammenhang mit Diversität, Gleichberechtigung und Inklusion (DEI) keine rechtliche Grundlage hatte. Der Fall verdeutlicht die Risiken, administrative Entscheidungen ohne menschliche Aufsicht an künstliche Intelligenz zu delegieren.
Der Algorithmus, der ohne Kontext entschied 🧠
Justin Fox, ein ehemaliger Mitarbeiter von DOGE, gab zu, ChatGPT genutzt zu haben, um Beschreibungen von Subventionen der National Endowment for the Humanities zu analysieren. Seine Methodik war einfach: Er fragte den Chatbot, ob jedes Projekt mit DEI zu tun habe, und erwartete ein Ja oder Nein mit einer kurzen Erklärung. Fox definierte den Begriff DEI für die KI nicht und überprüfte auch nicht, wie diese komplexe Konzepte wie Inklusion oder Gleichberechtigung interpretierte. Dies führte zu willkürlichen Streichungen von Kultur- und Bildungsprojekten.
Wenn der Chef ein schlecht geschriebener Prompt ist 🤖
Das Kurioseste an dem Fall ist, dass sich niemand die Mühe gemacht hat, ChatGPT zu erklären, was DEI bedeutet. Fox gab zu, nicht zu wissen, wie die KI den Begriff interpretierte. Im Grunde entschied man über die Zukunft von Millionen von Dollar, indem man einen Chatbot ohne Kontext fragte, so wie man einen Kellner bittet, den Wein auszuwählen, ohne zu wissen, ob das Abendessen aus Fisch oder Fleisch besteht. Das Ergebnis: ein rechtliches Chaos und willkürlich gestrichene Subventionen.