„Die Kultur des Silicon Valley ist autoritär“
Die Journalistin Karen Hao
Foto: Tony Luong
Das Interview führte Julia Stanton
Frau Hao, Sie begleiten das Silicon Valley als Journalistin schon lange. Auch OpenAI, die Firma, die ChatGPT auf den Markt brachte und auf die Sie sich in Ihrem Buch „Empire of AI“ konzentrieren, hat dort ihren Standort. OpenAI begann als Non-Profit-Organisation mit der Mission, der Menschheit zu nützen. Davon ist wenig übrig: Jetzt, fast zehn Jahre nach der Gründung, ist es ein ultrakapitalistisches Unternehmen, das vor allem eigene Geschäftsinteressen verfolgt. Was hat sich verändert?
Es gibt zwei Möglichkeiten, diese Frage zu beantworten. Die eine lautet: Alles hat sich verändert. OpenAI sollte ursprünglich ein Labor für Grundlagenforschung sein, konzentriert sich heute aber auf die aggressive Kommerzialisierung seiner Produkte. Es schottet sich zunehmend ab und hat damit eine Entwicklung in der gesamten KI-Branche angestoßen: hin zu größerer Geheimhaltung, was die tatsächlichen Möglichkeiten und Grenzen dieser Technologien anbelangt.
Auf der anderen Seite könnte man sagen, dass sich gar nichts verändert hat. Von Anfang an war OpenAI gewissermaßen ein egozentrisches Projekt. Als Sam Altman und Elon Musk es gründeten, geschah das als Reaktion auf die Dominanz von Google. Sie dachten sich: Warum sollte es Google sein, das diese Technologie kontrolliert, die die Welt verändern wird? Warum nicht wir? Diese Denkweise prägt die Branche bis heute. Das KI-Rennen wird von Milliardären angetrieben, die entschlossen sind, KI zu einer Erweiterung ihrer selbst zu machen.
Wie sieht aktuell die KI-Kultur im Silicon Valley aus?
Wenn man auf Partys Leute trifft, die in diesem Bereich arbeiten, hat man das Gefühl, sie befinden sich in einer anderen Realität. Sie sprechen ihre eigene Sprache und haben quasi-religiöse Überzeugungen hinsichtlich der KI, etwa ihr Potenzial, die Menschheit zu vernichten – die sogenannte „Doom Probability“ – oder Utopien zu realisieren. Sie stellen weitreichende Behauptungen auf, die durch keinerlei Beweise gestützt sind. Im Silicon Valley herrscht eine unwissenschaftliche und letztlich autoritäre Kultur der Abschottung, eine, deren Vertreter sich das Recht anmaßen, eine Technologie zu gestalten, die alle Menschen auf dem Planeten betrifft.
Im April 2025 haben mehrere Autoren, darunter Daniel Kokotajlo, der bis 2024 bei OpenAI arbeitete, gemeinsam den AI-2027-Bericht veröffentlicht, in dem es heißt, dass KI die menschliche Intelligenz schon bald übertreffen könnte. Wie realistisch ist das?
Das Problem mit solchen Vorhersagen ist, dass wir gar nicht wissen, was menschliche Intelligenz ist. Es gibt keine verlässliche Möglichkeit, sie zu quantifizieren. In der Geschichte diente der Versuch, das zu tun, oft dazu, Unterdrückung oder Vernichtung zu rechtfertigen. Wenn wir also menschliche Intelligenz nicht sinnvoll messen können, wie sollen wir dann wissen, wann KI sie übertroffen hat? Einige behaupten, dieser Moment sei schon gekommen. Es gibt in der Debatte keine Klarheit über Definitionen oder Maßstäbe. Deshalb bezeichne ich entsprechende Prophezeiungen als quasireligiös.
Ein weiteres Problem besteht darin, dass der Begriff „Künstliche Intelligenz“ ursprünglich ein Marketingbegriff war. Früher hätte niemand behauptet, Taschenrechner seien intelligenter als Menschen, nur weil sie besser rechnen können. Das Ganze hat einiges mit sprachlicher Verschleierung zu tun: Der Begriff „Intelligenz“ führt zu falschen Vergleichen, die nie hätten gezogen werden dürfen.
„KI-Unternehmen beanspruchen Ressourcen, die ihnen nicht gehören“
Als Sie Ihr Buch „Empire of AI“ schrieben, war Donald Trump noch nicht Präsident. Nun hat er sämtliche Regulierungen im KI-Sektor zurückgenommen. Was wird das für Folgen haben?
Die Trump-Regierung hat den Leichtsinn und die imperialen Ambitionen des Silicon Valley auf einzigartige Weise befeuert. Die Firmen dort haben nun einen Verbündeten im mächtigsten Mann der Welt, der ihnen ermöglicht, so viel Kapital, Land und Energie zu erschließen, wie es physisch möglich ist. Sie investieren gerade Billionen in den Aufbau von Recheninfrastruktur auf der ganzen Welt. In vier Jahren werden viele dieser Projekte zumindest teilweise abgeschlossen sein. Und dann? Selbst wenn ein neuer Präsident ins Amt kommt, wird es schwer sein, diese Entwicklung rückgängig zu machen.
Sie vergleichen OpenAI mit einem modernen Imperium. Warum?
Die Taktiken von KI-Unternehmen und -Konzernen sind identisch mit denen früherer Imperien: Sie beanspruchen Ressourcen, die ihnen nicht gehören, und definieren die Regeln neu, um dann zu behaupten, sie hätten immer schon ein Anrecht darauf gehabt, etwa, indem sie sich geistiges Eigentum von Künstler:innen und Autoren aneignen und sagen, das sei „fair use“. Sie beuten gewaltige Mengen an Arbeitskräften aus – so wie Imperien früher. Zudem tragen sie zu einer Monopolisierung der Wissensproduktion bei: Die „KI-Imperien“ haben die meisten Forscher:innen und Forscher, die weltweit im Bereich der KI tätig sind, aufgekauft. Das, was über die Fähigkeiten und Grenzen dieser Technologien bekannt ist, wird aufgrund von Unternehmensinteressen verzerrt dargestellt. Wir bekommen kein klares Bild mehr davon, was diese Systeme tatsächlich sind oder können. Und schließlich verbreiten diese Imperien ähnliche Narrative: Es gebe „böse Imperien“ auf der Welt, und deshalb müsse man selbst ein „gutes Imperium“ sein, um sie zu besiegen – in einer Art zivilisatorischer Mission für das Wohl der Menschheit. Die religiösen Ansätze der KI-Welt sind daher zutiefst kolonial: Wie einst Religion zur Rechtfertigung imperialer Expansion diente, wird nun der Glaube an »Artificial General Intelligence« benutzt, um die Welt von der »Heil bringenden« Wirkung dieser Technologie zu überzeugen und alle Schäden als notwendiges Opfer auf dem Weg ins Paradies darzustellen.
„Alles, was ein KI-Modell jemals können wird, muss ihm ein Mensch beibringen“
Für Ihre Recherchen waren Sie in Kenia und Venezuela. Wie sieht die Auslagerung von KI-Arbeit in der Praxis aus, und welche Folgen hat das für die Menschen vor Ort?
Alles, was ein KI-Modell jemals können wird, muss ihm von einem Menschen beigebracht werden. Doch diejenigen, die diese Arbeit leisten, werden erbärmlich schlecht bezahlt. Sie haben keine Verträge oder irgendeine andere Absicherung. Ihr Einkommen hängt davon ab, ob über bestimmte Plattformen gerade Aufgaben verfügbar sind. Eine Arbeiterin erzählte mir, dass sie kaum ein normales Leben führen konnte, weil sie ständig am Computer saß, in der Hoffnung auf neue Arbeit. Die Plattform setzte alle in Konkurrenz zueinander: Wer zuerst klickte, bekam den Auftrag.
Im Zeitalter der generativen KI kommt eine neue Ebene der Ausbeutung hinzu: Die Arbeit ist zunehmend toxisch. Bei der Content-Moderation – jetzt unverzichtbar, weil Modelle mit ungefilterten Internetdaten trainiert werden – werden Arbeiter mit schockierenden, oft traumatisierenden Inhalten konfrontiert. In Ländern wie Kenia oder Venezuela werden Zehntausende junge, gut ausgebildete Menschen in diese Tätigkeiten gedrängt. Ihre körperliche und psychische Gesundheit leidet darunter.
Nicht nur Menschen, auch die Umwelt ist zunehmend von der KI-Technologie betroffen. Was sind die ökologischen Kosten und welche Folgen haben sie in fünf, zehn oder zwanzig Jahren?
Die Umweltfolgen sind vielfältig und hängen eng mit gesundheitlichen Folgen zusammen. Die Menge an Rechenzentren, die gebaut werden, um das Training und den Betrieb dieser Modelle zu ermöglichen, ist beispiellos. Sie führt zu einem historischen Anstieg des Energiebedarfs in Ländern, in denen dieser zuvor teilweise sogar gesunken war. Ein Bericht von McKinsey prognostizierte, dass die KI-Industrie in den kommenden fünf Jahren so viel Energie benötigen wird, wie Großbritannien derzeit insgesamt verbraucht. Ein Großteil davon wird durch fossile Brennstoffe gedeckt. Hinzu kommt: Rechenzentren müssen mit Süßwasser gekühlt werden, weil andere Wasserarten Korrosion verursachen würden. Laut einer Bloomberg-Recherche werden zwei Drittel aller neuen Rechenzentren in wasserarmen Regionen gebaut. Das wird zu mehr Klimakatastrophen, Luftverschmutzung und Gesundheitsproblemen führen. Eine Untersuchung von „Business Insider“ kam zu dem Ergebnis, dass allein in den USA die öffentlichen Gesundheitskosten durch die Luftverschmutzung der KI-Industrie im Land rund zehn Milliarden Dollar betragen könnten. In Chile habe ich zum Abbau der Mineralien recherchiert, die für diese Technologien benötigt werden, und gesehen, wie dadurch einzigartige Ökosysteme zerstört werden. Es ist erschütternd: Lebensräume, die potenziell neue medizinische Entdeckungen oder wissenschaftliche Erkenntnisse ermöglichen könnten, werden irreversibel vernichtet.
„In den USA wächst die Sorge ihre Auswirkungen Gesundheit“
Das chinesische Unternehmen DeepSeek hat im Januar 2025 einen KI-basierten Chatbot veröffentlicht, der sehr viel weniger Energie benötigte. Das zeigt, dass es möglich ist, die Entwicklung voranzutreiben, ohne riesige Mengen an Energie zu verbrauchen.
DeepSeek hat der Welt gezeigt, was viele Forscherinnen und Forscher ohnehin wussten. Bevor OpenAI das Paradigma verschob – hin zu immer größeren Modellen mit immer höherem Energieverbrauch – bewegte sich die KI-Forschung in die entgegengesetzte Richtung. Von 2018 bis 2020 versuchte die Branche, kleinere und effizientere Modelle zu entwickeln, um sie auf mobilen Geräten einsetzen zu können. Innerhalb von nur vier Jahren drehte sich das Denken um 180 Grad. Es war wie eine kollektive Amnesie. Deshalb kritisiere ich den Ansatz von OpenAI und den Firmen im Silicon Valley so stark: Er ist aus technischer und wissenschaftlicher Sicht völlig unnötig.
Warum hat OpenAI seinen ursprünglichen Weg nicht weiterverfolgt?
Grundlagenforschung ist unvorhersehbar. Wissenschaft verläuft nicht linear und lässt sich nicht an kommerzielle Zyklen anpassen. OpenAI wollte Google übertreffen und wählte dafür den berechenbaren Weg: Um den Gegner schlagen zu können, benötigte man mehr Daten und größere Computer. Das ist eine intellektuell billige, aber renditensichere Strategie. Sobald OpenAI diesen Kurs einschlug, folgten alle anderen. Das Rennen war eröffnet. Statt auf unvorhersehbare Forschung setzte man auf Masse – „mehr reinpumpen“. So haben sich die Unternehmen ein Monopol gesichert und erhalten ihre Macht. Würden sie kleinere Modelle bauen, gäbe es mehr Konkurrenten, weil die Eintrittshürden niedriger wären.
Glauben Sie, dass sich diese großen Unternehmen verändern werden?
Ich halte es für unrealistisch, dass sie sich ohne Druck von außen bewegen. Sollte dieser gegeben sein, wird Veränderung möglich. Wenn ich diese Unternehmen als Imperien kritisiere, plädiere ich nicht dafür, sie vollständig abzuschaffen, sondern nur dafür, ihre imperialen Eigenschaften zu beseitigen. Wir müssen vom Imperium wieder zu einem normalen Unternehmen zurückkehren. Für mich besteht der Unterschied darin, dass ein Unternehmen mit dem Status eines Imperiums buchstäblich tun kann, was es will, ohne den Menschen einen fairen Wertausgleich dafür zu bieten, dass es ihnen alle möglichen Ressourcen entzieht. Traditionelle Unternehmen können sich nur dann behaupten, wenn sie ihren Kunden und Nutzer:innen effektiv dienen und ein fairer Werteaustausch stattfindet. Um das zu erreichen, müssen Menschen innerhalb und außerhalb der Unternehmen zusammenarbeiten. Es geht darum, genügend Druck aufzubauen, sodass es für das Unternehmen zur existenziellen Aufgabe wird, sich zu verändern.
Welche politischen Maßnahmen könnten dazu beitragen, dass das passiert?
Ein Ansatz wäre, Unternehmen zu verpflichten, offenzulegen, welche Daten sie zum Trainieren ihrer Modelle nutzen. So ließe sich verhindern, dass sie große Mengen geistigen Eigentums übernehmen, ohne Urheber zu entschädigen oder zu nennen. Das würde einen nötigen Werteaustausch erzwingen – wenn sie zahlen müssen, ist es zumindest nicht einfach nur eine Aneignung, sondern ein Handel. Ebenso wichtig wäre es, Transparenz über den Energieverbrauch beim Training und Betrieb dieser Modelle herzustellen. Bislang ist das alles äußerst intransparent. Unabhängige Forscherinnen und Forscher versuchen, den ökologischen Fußabdruck zu schätzen, doch die Unternehmen verweigern die dafür nötigen Angaben. Zudem wächst in den USA die Sorge über Chatbots und ihre Auswirkungen auf die psychische Gesundheit, insbesondere von Jugendlichen. Es gab Fälle, in denen sich Jugendliche nach längeren Gesprächen mit Chatbots das Leben nahmen. Ein aktueller Gesetzesvorschlag würde Unternehmen für solche Schäden haftbar machen. Das wäre ein möglicher Anreiz für sie, vorsichtiger mit der Einführung und Gestaltung ihrer Systeme zu sein.