Streit um KI-Modell: Anthropic kann Claude beim US-Militär nicht manipulieren Im Streit mit dem Pentagon stellte Anthropic klar, dass es keine Möglichkeit hat, Claude in Systemen des US-Militärs zu manipulieren. Anthropic wehrt sich gegen die Behauptung, Claude beim US-Militär manipulieren zu können. Bild: Michael M. Santiago/Getty Images Das KI-Unternehmen Anthropic hat in einer Eingabe vor Gericht darauf hingewiesen, dass es keine Möglichkeit habe, das KI-Modell Claude zu manipulieren, wenn es vom US-Militär eingesetzt werde. Wie The Wired berichtet(öffnet im neuen Fenster) , begegnet das Unternehmen damit entsprechenden Behauptungen des US-Verteidigungsministeriums . Unter anderem damit hatte es die Einstufung Anthropics als Lieferkettenrisiko begründet. In einer Erklärung schrieben Anwälte der US-Regierung, dass das Verteidigungsministerium nicht dazu verpflichtet sei, "das Risiko zu tolerieren, kritische militärische Systeme in entscheidenden Momenten der nationalen Verteidigung und laufender Militäroperationen zu gefährden" . Anthropic könnte Militäroperationen stören, indem das Unternehmen den Zugriff auf Claude unterbinde oder schädliche Updates aufspiele, falls es bestimmte Anwendungen missbillige, so die Regierungsvertreter. Anthropic hat nicht den erforderlichen Zugriff Thiyagu Ramasamy, Leiter des öffentlichen Sektors bei Anthropic, schrieb dazu: " Anthropic hatte nie die Möglichkeit, Claude zum Stillstand zu bringen, dessen Funktionalität zu verändern, den Zugriff zu sperren oder militärische Operationen anderweitig zu beeinflussen oder zu gefährden." Anthropic habe zudem "nicht den erforderlichen Zugriff, um die Technologie zu deaktivieren oder das Verhalten des Modells vor oder während laufender Operationen zu verändern" . Es gebe keine Hintertür oder andere Möglichkeiten, dass sich Anthropic-Angestellte in ein System des US-Verteidigungsministeriums einloggen, "um die Modelle während eines Einsatzes zu verändern oder zu deaktivieren; die Technologie ...
First seen: 2026-03-23 17:08
Last seen: 2026-03-24 12:27