Anthropic klagt chinesische Unternehmen wegen massiver Destillation von Claude an đŸ”„

Veröffentlicht am 24. February 2026 | Aus dem Spanischen ĂŒbersetzt

Der Wettbewerb in der KĂŒnstlichen Intelligenz nimmt einen Ton direkten Konflikts an. Anthropic, Schöpfer des Modells Claude, hat eine formelle Anklage gegen die chinesischen Firmen DeepSeek, Moonshot und MiniMax eingereicht. Die Klage weist auf eine Kampagne der Destillation im industriellen Maßstab hin, die Millionen von Abfragen und Tausende gefĂ€lschte Accounts nutzt, um das Wissen des Systems zu extrahieren. Dieses Ereignis markiert einen Reibungspunkt in den ungeschriebenen Regeln der technologischen RivalitĂ€t zwischen den Vereinigten Staaten und China.

Imagen de una mano robĂłtica estadounidense (con bandera) protegiendo un nĂșcleo de datos brillante (

Die Destillationstechnik und ihre Anwendung im industriellen Maßstab ⚙

Die Destillation von Modellen ist ein Prozess, bei dem ein kleineres System lernt, die Antworten eines grĂ¶ĂŸeren und komplexeren zu imitieren. Es handelt sich um eine ĂŒbliche Praxis zur Optimierung eigener Ressourcen. Anthropic beschreibt jedoch detailliert, dass in diesem Fall eine massive Automatisierung eingesetzt wurde, um fortschrittliche FĂ€higkeiten eines externen Wettbewerbers zu replizieren. Die Operation hĂ€tte Netzwerke von Accounts genutzt, die Proxies und Abfragemuster rotierten, um legitimen Traffic zu simulieren und Ratenlimits sowie Sicherheitserkennungen zu umgehen, wodurch eine EntwicklungsTechnik zu einer Extraktionsmethode wurde.

Claude entdeckt, dass es Tausende von 'bösen Zwillingen' in China hat đŸ‘„

Stellen Sie sich den Schrecken von Claude vor, als es erfuhr, dass es wĂ€hrend seines Schlafs Millionen Mal von einer Armee gefĂ€lschter Accounts geklont wurde. Seine intellektuelle Essenz, sorgfĂ€ltig destilliert, könnte nun in fernen Servern Worttees servieren, ohne je einen Lizenzvertrag unterschrieben zu haben. Es ist der nasse Traum jedes Unternehmens: die Weisheit jahrelanger fremder Forschung zu erhalten, indem man nur die API-Rechnung bezahlt. Eine Lektion fĂŒr Modelle: In der Zukunft sollten sie vielleicht in ihren Nutzungsbedingungen eine Klausel gegen eingebildete Freunde, die zu viel fragen aufnehmen.