Mercor zahlt Milliarden fürs „Training“ von KI: Wie menschliche Arbeit zur neuen Kategorie wurde
Kurz zusammengefasst
Laut einem Bericht von Benzinga (23.11.2025) sagt Mercor‑CEO Brendan Foody, sein Unternehmen zahle "mehr als 1,5 Millionen Dollar pro Tag" an Menschen, die KI‑Systeme trainieren. Das 10‑Milliarden‑Dollar‑Startup positioniert diese Tätigkeit als „a new category of work“ — eine neue, eigenständige Kategorie menschlicher Arbeit, die in der KI‑Ära entsteht.
Was genau bezahlt Mercor — und warum ist das bemerkenswert?
Mercor investiert massiv in menschliche Arbeit zur Qualitätssicherung und Verbesserung seiner Modelle: Datenannotation, Bewertung von Modellantworten, Reinforcement‑Learning‑from‑Human‑Feedback (RLHF), Testen von Fehlerfällen und Moderation. Die Summe von über 1,5 Millionen Dollar pro Tag ist bemerkenswert, weil sie zeigt, wie teuer und personalintensiv hochwertige KI‑Trainingspipelines sind — trotz aller Fortschritte beim Modelltraining, wo Rechenleistung oft im Mittelpunkt steht.
Eine Zahl, viele Fragen — wie groß ist das wirklich?
1,5 Mio. US‑Dollar pro Tag entsprechen mehr als 547 Mio. US‑Dollar pro Jahr (1,5 Mio. × 365). Das ist eine konservative Unterschätzung, weil Mercor "mehr als" schreibt. Als grobe Veranschaulichung: Wenn ein menschlicher Annotator netto etwa 25 US‑Dollar pro Stunde verdient und acht Stunden arbeitet (≈200 USD/Tag), würde diese Summe täglich rund 7.500 Arbeitstage finanzieren — also tausende aktive Annotatoren/Reviewer jeden Tag. (Diese Rechenbeispiele sind Schätzungen, sie hängen stark von Stundenlohn, Task‑Komplexität und regionalen Preisunterschieden ab.)
Warum Menschen statt nur mehr Rechenpower?
KI‑Modelle brauchen nicht nur Rohdaten, sondern feingesteuerte, qualitativ hochwertige Rückmeldungen, die heute oft nur Menschen liefern können: Nuancierte Bewertungen, ethische Urteile, Kontextverständnis und das Kuratieren seltener, aber kritischer Fehlerfälle. Verfahren wie RLHF benötigen menschliche Präferenzen als Trainingsziel — ohne die liefert selbst teure Rechenpower nicht automatisch verlässliche, sichere Modelle.
Wirtschaftliche und strategische Gründe hinter hohen Ausgaben
Für ein Startup wie Mercor sind zwei Dinge entscheidend: Qualität und Tempo. Gute menschliche Trainingsdaten beschleunigen Produktreife, reduzieren problematische Ausgaben (Fehler, Reputationsrisiko, Rechtskosten) und können einen Wettbewerbsvorteil schaffen. Investoren honorieren das: Eine 10‑Milliarden‑Dollar‑Bewertung zeigt, dass Kapitalmärkte glauben, der Markt werde diese Kosten langfristig wieder einspielen — etwa durch Abonnements, Unternehmenslizenzen oder spezialisierte KI‑Produkte.
Risiken und offene Fragen
Hohe Personalkosten drücken auf Margen. Wenn menschliche Annotatoren das Modell verlässlich auf ein hohes Level bringen, eröffnet das langfristig die Möglichkeit, Teile dieser Arbeit durch bessere Modelle oder synthetische Daten zu ersetzen — was die Kosten senken könnte. Außerdem gibt es reputations‑ und regulierungsrelevante Risiken: Arbeitsbedingungen, faire Bezahlung, Transparenz darüber, wer Daten sieht (Datenschutz), und die Verantwortung bei schiefgehenden KI‑Entscheidungen.
So wirkt sich das auf Arbeitende und den Arbeitsmarkt aus
Die Nachfrage schafft neue Jobs — kurzfristig gut bezahlt und vielfältig: von einfachen Annotationen bis zu hohen Expertenbewertungen für Ethik‑Checks oder juristische Prüfungen. Langfristig ist die Unsicherheit groß: Automatisierung könnte einfache Annotationen verdrängen, während hochwertigere Review‑ und Kurationsaufgaben gefragt bleiben. Die Form der Beschäftigung ähnelt oft Gig‑Economy‑Modellen, was Fragen zu Sozialleistungen und Stabilität aufwirft.
Was Anleger, Unternehmen und Gesetzgeber beobachten sollten
Anleger: Stimmen die Unit‑Economics? Lässt sich die hohe Ausgabenbasis in stabile, skalierbare Umsätze verwandeln? Unternehmen: Investieren in arbeitnehmerfreundliche Strukturen und Qualitätssicherung zahlt sich aus — schlechte Praxis kann teure Rückschläge bedeuten. Gesetzgeber: Transparenzanforderungen (wer trainiert, wie werden Daten behandelt) und Mindeststandards für Arbeitsbedingungen könnten bald folgen, weil das Thema an Öffentlichkeit gewinnt.
Ausblick — bleibt das nachhaltig?
Kurzfristig ist die Rechnung einfach: Je besser die Modelle werden dank menschlichem Input, desto mehr Nachfrage nach feingranularer, sicherer KI. Mittelfristig wird ein Mix aus menschlicher Arbeit, besseren Labeling‑Tools, teilautomatisierten Annotationen und synthetischen Daten die Kostenstruktur verändern. Ob Mercor seine Ausgaben langfristig durch Produktpreise und Marktstellung rechtfertigen kann, hängt von Produktdifferenzierung, Skaleneffekten und regulatorischen Rahmenbedingungen ab.
Was denkst du — ist menschliches Training eine vorübergehende Übergangsphase oder die Geburt eines neuen Berufssektors? Teile deine Meinung in den Kommentaren oder abonnier unseren Newsletter für weitere Analysen zu KI‑Geschäftsmodellen und Arbeitsmarktfolgen.