KI-Modelle wie Claude von Anthropic werden schon zur Beantwortung von Fragen in geheimen Umgebungen eingesetzt. Zu den Anwendungsbereichen gehört unter anderem die Analyse von Zielen im Iran. Modellen jedoch zu gestatten, mit vertraulichen Daten zu trainieren und daraus zu lernen, wäre eine neue Entwicklung. Diese würde einzigartige Sicherheitsrisiken mit sich bringen: Sensible Geheimdienstinformationen, wie Überwachungsberichte oder Lagebeurteilungen auf dem Schlachtfeld, könnten in die Modelle selbst eingebettet werden. Gleichzeitig wären die KI-Unternehmen in engerem Kontakt mit geheimen und sensiblen Daten als bisher. Pentagon will generative KI-Modelle mit geheimen Daten trainieren Das Trainieren von KI-Modellen mit Geheimdienstdaten soll die Modelle bei bestimmten Aufgaben genauer und effektiver machen, so ein US-Verteidigungsbeamter, der sich gegenüber der US-Ausgabe von MIT Technology Review vertraulich äußerte. Die Nachricht kommt zu einer Zeit, in der die Nachfrage nach leistungsfähigeren Modellen hoch ist: Das Pentagon hat Vereinbarungen mit OpenAI und Elon Musks xAI getroffen, um deren Modelle in geheimen Umgebungen zu betreiben. Dafür setzt das Pentagon eine neue Agenda um, um angesichts der Eskalation des Konflikts mit dem Iran zu einer „‚KI-first‘-Kriegsstreitmacht“ zu werden. (Das Pentagon äußerte sich zum Zeitpunkt der Veröffentlichung nicht zu seinen KI-Trainingsplänen.) Das Training würde in einem Rechenzentrum stattfinden, das für die Durchführung geheimer Regierungsprojekte akkreditiert ist und in dem eine Kopie eines KI-Modells mit geheimen Daten abgeglichen wird. Das sagen zumindest zwei Personen, die mit der Funktionsweise solcher Operationen vertraut sind. Obwohl das Verteidigungsministerium Eigentümer der Daten bliebe, könnten Mitarbeiter:innen von KI-Unternehmen in seltenen Fällen auf die Daten zugreifen, sofern sie über eine entsprechende Sicherheitsfreigabe verfügen, sagte der Beamte. Claude Gov und Computer-Vision-Modelle nutzt das Mili...
First seen: 2026-03-28 20:44
Last seen: 2026-03-29 15:54