Tokenmaxxing: Wer verbraucht die meisten KI-Tokens? In Tech-Unternehmen wetteifern Mitarbeiter darum, so viele KI -Tokens wie möglich zu verbrauchen – mit Kosten im sechsstelligen Bereich pro Monat. 23. März 2026 um 10:05 Uhr / Michael Linden Token-Verbrauch als Statussymbol für Entwickler Bild: KI generiert mit Nano Banana Pro Inhalt Tokenmaxxing: Wer verbraucht die meisten KI-Tokens? Was bringt KI den Unternehmen? Bei OpenAI hat ein Ingenieur in einer einzigen Woche 210 Milliarden Tokens durch die KI-Modelle des Unternehmens gejagt – genug Text, um die Wikipedia 33 Mal zu füllen. Bei Anthropic soll ein Nutzer des Claude-Code-Systems in einem Monat über 150.000 Dollar verbraucht haben. Dahinter steckt nach Angaben der New York Times ein Trend(öffnet im neuen Fenster) : Tech-Mitarbeiter nutzen die KI-Tools ihrer Arbeitgeber immer exzessiver, und die Firmen bauen ihre gesamte Strategie genau darauf auf. Der Trend hat einen Namen: Tokenmaxxing. Das Prinzip ist simpel. Es werden so viele Tokens wie möglich verbraucht, also jene Grundeinheiten, in denen KI-Modelle Text verarbeiten(öffnet im neuen Fenster) , grob vergleichbar mit Wortfragmenten. Ob das echter Produktivitätsgewinn ist oder nur Beschäftigungstherapie, steht noch nicht fest. Bestenlisten machen KI-Nutzung zum Wettkampf Bei Meta und OpenAI gibt es interne Ranglisten, die zeigen, wie viele Tokens jeder Mitarbeiter verbraucht. Jeder sieht, wo er im Vergleich zu den Kollegen steht. Gedacht ist das wohl als Anreiz zur Nutzung. Ob dabei sinnvolle Arbeit herauskommt oder nur ein Wettbewerb ums Verbrauchen, ist eine andere Frage. Für manche Entwickler ist ein großzügiges Token-Budget inzwischen so etwas wie ein Jobvorteil – ähnlich wie Essenszuschüsse oder eine gute Krankenversicherung. Max Linder, Softwareingenieur aus Stockholm, gibt nach eigenen Angaben mehr für Claude aus, als er verdient – auf Kosten seines Arbeitgebers, berichtet die NYT. Das zeigt, wie normal solche Ausgaben in Teilen der Branche schon gewor...
First seen: 2026-03-23 10:02
Last seen: 2026-03-24 07:20