Generative KI vermüllt das Internet. Ein bis zwei Fünftel der Inhalte dort, je nach Schätzung, sind nicht menschengemacht. Zumindest nicht direkt, denn Menschen bedienen die Content-Schleudern. Weiterlesen nach der Anzeige Skurrile Videos mit Kindern oder Katzen, Selbstporträts als Actionfigur oder wortreiche SEO-Texte: Solcher KI-Krempel ist zwar schnell und kostengünstig mit wenigen Klicks generiert. Doch die Menschheit und den Planeten könnte diese digitale Müllflut teuer zu stehen kommen. Mehr anzeigenWeniger anzeigen Denn um die Nachfrage nach GenAI-Systemen zu befriedigen, ziehen die Anbieter Rechenzentren hoch, die so viel Strom schlucken wie eine Großstadt. Um den in die Höhe schießenden Energiebedarf zu übertünchen, investieren sie in halbgare Zukunftstechnik wie Small Modular Reactors oder Kernfusion. Nach dem Motto: Wird schon irgendwie, Hauptsache, wir können jetzt mit dem Hype Geld scheffeln. KI-Müll ist nicht harmlos Hinzu kommt, dass der KI-Müll inhaltlich selten so harmlos ist wie KI-generierte Traumstrände und Engelskinder-Fotos. Im Zusammenhang mit dem Krieg im Nahen Osten verbreiten sich irreführende KI-generierte Inhalte unkontrolliert – und das ist nicht das erste Mal. Sobald eine vermeintliche Nachricht ein Narrativ bestätigt, wird sie flugs geteilt, ohne ihren Wahrheitsgehalt zu prüfen. Diese Lügen wieder einzufangen, ist kaum möglich. Greta Friedrich ist Redakteurin bei c’t. Im Ressort für Internet, Datenschutz und Anwendungen testet sie unter anderem Tools und Apps, recherchiert zu gesperrten Microsoft-Konten, stellt Websites vor und erklärt Messenger. Dabei lernt sie täglich Neues und wenn das Grundlagenwissen aus ihrem Studium im Bereich Technische Redaktion nicht reicht, fragt sie ihre Kolleginnen und Kollegen aus. Damit sind generative KI-Systeme praktische Werkzeuge für alle, die diffuse Angst säen und schüren wollen. Sie helfen dabei, gefühlte Wahrheiten scheinbar zu bestätigen und so Meinungen zu beeinflussen. Sie machen es zum Beispi...
First seen: 2026-03-27 06:20
Last seen: 2026-03-29 15:54