DE EN
agenticPunk

[Tokenomics]

Tokenmaxxing — Die falsche Metrik für Agentic AI

Tokenmaxxing — Die falsche Metrik für Agentic AI

25. März 2026 | Roman Zenner

Unternehmen haben keine Ahnung, wie sie die Produktivität ihrer KI-Agenten messen sollen. Also messen sie Token-Verbrauch. Ein Entwickler bei OpenAI hat letzte Woche 210 Milliarden Tokens durch die hauseigenen Modelle gejagt — genug Text, um Wikipedia 33 Mal zu füllen.

Mehr lesen →