Drei Technologiegiganten haben mit dem US-Handelsministerium Vereinbarungen getroffen, dass ihre neuen Modelle der künstlichen Intelligenz vor ihrer öffentlichen Veröffentlichung vom Zentrum für KI-Standards und Innovation (CAISI) überprüft werden. Dieser Schritt erfolgt, während die Trump-Administration laut aktuellen Berichten eine Verschärfung der Branchenaufsicht in Betracht zieht.
Vorab-Prüfung als neuer Filter in der KI-Entwicklung 🤖
Das CAISI wird als technischer Filter fungieren und Aspekte wie Verzerrungen, Sicherheit und Leistung jedes Modells analysieren. Dieser Prozess zielt darauf ab, Fehler zu erkennen, bevor die Software die Nutzer erreicht. Die Unternehmen werden zusammenarbeiten, indem sie Trainingsdaten und Testergebnisse teilen. Die Maßnahme zielt darauf ab, einen Mindeststandard festzulegen, obwohl Details zu den Genehmigungskriterien noch nicht veröffentlicht wurden.
Die Regierung will die KI sehen, bevor die KI sie sieht 🏛️
Jetzt stellt sich heraus, dass dieselben Leute, die ihre eigene Steuer-Website nicht zum Laufen bringen, überprüfen sollen, ob eine KI sicher ist. Man stellt sich einen Beamten vor, der ChatGPT fragt: Sind Sie ein Risiko für die nationale Sicherheit?. Und die KI antwortet: Kommt darauf an, haben Sie Kaffee?. Gut, dass sie eine Vereinbarung unterzeichnet haben, sonst hätte die KI sich vielleicht selbstständig gemacht und ihnen den Job geklaut.