"Für die Menschheit" — und dann fürs Pentagon: OpenAIs Jahrzehnt der Lügen

OpenAI versprach offene KI für die Menschheit. Jetzt landen die Modelle im Pentagon. Jedes gebrochene Versprechen von Sam Altman — mit Belegen.

Sam Altman hat am Freitagabend auf X gepostet, dass OpenAI einen Deal mit dem Pentagon abgeschlossen hat. Seine KI-Modelle werden auf klassifizierten Militärnetzwerken eingesetzt.

Er hat es „Department of War" genannt. Nicht Defense. War. Als wäre das ein Flex.

Wenige Stunden zuvor wurde Anthropic — gegründet von Leuten, die OpenAI aus Sicherheitsbedenken verlassen haben — von der Trump-Regierung auf die schwarze Liste gesetzt. Ihr Vergehen? Sie wollten ihre KI nicht ohne Einschränkungen für autonome Waffen und Massenüberwachung freigeben.

Anthropic hat Nein gesagt. Wurde dafür bestraft. OpenAI ist über sie drübergestiegen und hat den Vertrag unterschrieben.

Der Chatbot, den du für E-Mails und Brainstorming benutzt? Der wird jetzt in Systeme eingebaut, die darüber entscheiden, wer lebt und wer stirbt. Und der Mann, der ihn gebaut hat, hat ein Jahrzehnt lang geschworen, dass genau das nie passieren würde.


Was das für uns in Europa bedeutet

Bevor wir in die Details eintauchen — kurz mal Klartext aus europäischer Perspektive.

Wir reden hier nicht nur über amerikanische Innenpolitik. Die Modelle, die auf Pentagon-Netzwerken landen, sind dieselben Modelle, die Millionen Europäer täglich nutzen. ChatGPT verarbeitet deine Prompts, deine Ideen, deine Daten. Und das Unternehmen dahinter hat gerade einen Deal mit dem mächtigsten Militär der Welt unterschrieben.

In Deutschland nutzen laut einer Bitkom-Studie von 2025 42 Prozent der Beschäftigten KI-Tools über private Accounts — ohne Auftragsverarbeitungsvertrag, ohne Datenschutz-Folgenabschätzung, ohne dass die IT-Abteilung davon weiß. Schatten-KI halt. Und jetzt stell dir mal vor, der Anbieter hinter dieser Schatten-KI ist derselbe, der seine Technologie auf klassifizierten Militärnetzwerken bereitstellt.

Der CLOUD Act verpflichtet US-Unternehmen zur Datenweitergabe an US-Behörden — auch wenn die Daten in Europa gehostet werden. OpenAI hat zwar seit 2025 EU-Datenresidenz für Enterprise-Kunden eingeführt, aber seien wir ehrlich: Wer glaubt, dass die Firewall zwischen einem Pentagon-Contractor und den europäischen Nutzerdaten desselben Unternehmens wasserdicht ist, der glaubt auch an den Weihnachtsmann.

Und der EU AI Act? Nimmt militärische KI-Systeme explizit vom Anwendungsbereich aus. Erwägungsgrund 24, kannst du nachlesen. Bedeutet: Die strengen Regeln für Hochrisiko-KI, die ab August 2026 voll greifen, gelten nicht für das, was OpenAI gerade mit dem Pentagon macht. Regulierungslücke, so groß wie ein Scheunentor.


Was „klassifizierte Netzwerke" wirklich bedeutet

„Pentagon-Deal" klingt abstrakt. Also machen wir’s konkret.

Klassifizierte Militärnetzwerke verarbeiten Geheimdienstdaten. Zielidentifikation. Bedrohungsanalyse. Kommunikationsüberwachung. Die gesamte Infrastruktur, auf der moderne Kriegsführung und Überwachung laufen, lebt auf diesen Netzwerken.

Wenn Altman sagt, OpenAI wird Modelle auf klassifizierten Netzwerken einsetzen, dann meint er: Die Kerntechnologie hinter ChatGPT wird in die Systeme eingesteckt, mit denen das US-Militär Menschen findet, Menschen überwacht und entscheidet, was mit ihnen passiert.

Altman besteht darauf, dass der Vertrag Verbote für „inländische Massenüberwachung" und „autonome Waffensysteme" enthält. Er sagt, das Pentagon habe „tiefen Respekt für Sicherheit" gezeigt.

Aber — und jetzt wird’s halt interessant. Anthropic hat exakt dieselben Einschränkungen gefordert. Das Pentagon hat Nein gesagt. Verteidigungsminister Pete Hegseth nannte diese Einschränkungen „philosophisch" und „woke". Dann hat die Regierung Anthropic als Lieferkettenrisiko für die nationale Sicherheit eingestuft — eine Bezeichnung, die normalerweise chinesischen Unternehmen wie Huawei vorbehalten ist.

Das Pentagon hat also Sicherheitsleitplanken abgelehnt, als Anthropic sie vorgeschlagen hat. Und dann akzeptiert, als OpenAI sie vorgeschlagen hat. Dieselben Leitplanken. Anderes Unternehmen.

Irgendwas stimmt da nicht.


Wir wissen bereits, wie „KI auf Militärnetzwerken" aussieht

Wir müssen uns nicht vorstellen, was passiert, wenn KI in militärische Zielerfassung eingebunden wird. Wir haben’s ja schon gesehen.

Das Lavender-System

In Gaza hat die israelische Armee ein KI-System namens „Lavender" eingesetzt, das Massenüberwachungsdaten verarbeitet — Telefonprotokolle, soziale Verbindungen, Verhaltensmuster — und bis zu 37.000 Palästinenser als potenzielle Ziele markiert hat.

Ein zweites System, „Where’s Daddy?", verfolgte diese markierten Personen über Mobilfunk-Standortdaten und benachrichtigte die Operatoren, wenn Ziele zu Hause ankamen. Zu Hause. Bei ihren Familien.

Die menschliche Überprüfung pro Ziel? Etwa 20 Sekunden. Genug Zeit, einen Namen abzuhaken. Nicht genug, um einen Algorithmus zu hinterfragen.

Das System hatte eine bekannte Fehlerquote von 10 Prozent. Das bedeutet: Rund 3.700 dieser 37.000 markierten Personen waren mit hoher Wahrscheinlichkeit falsch identifiziert — Polizisten, Hilfsarbeiter, Leute, die zufällig denselben Namen trugen. UN-Experten berichteten, dass mehr als 15.000 zivile Todesopfer in den ersten sechs Wochen zu beklagen waren, als diese KI-Systeme massiv zur Zielauswahl eingesetzt wurden.

Kein Science-Fiction. Ist passiert. Und diese KI-Systeme waren deutlich primitiver als das, was OpenAI jetzt auf klassifizierte Netzwerke bringt.

Der Präzedenzfall Libyen

Im März 2020 hat eine türkische Kargu-2-Drohne eigenständig menschliche Ziele in Libyen aufgespürt und angegriffen — ohne dass eine Datenverbindung zwischen Operator und Waffe nötig war. Ein UN-Sicherheitsratsbericht bezeichnete das als „fire, forget and find"-Fähigkeit. Die Drohne hat ihre Ziele selbst ausgewählt.

Das war Technologie von 2020. Steinzeit im Vergleich zu GPT-4 oder was auch immer OpenAI jetzt einsetzt.

Das Skalierungsproblem

DARPA arbeitet aktuell an Schwärmen von 250 autonomen, bewaffneten Drohnen. Indien plant 1.000-Drohnen-Schwärme. Der UN-Generalsekretär fordert bis 2026 einen rechtsverbindlichen Vertrag zum Verbot autonomer Waffen.

Und jetzt pack die leistungsfähigsten Sprachmodelle der Welt dazu. Modelle, die Geheimdienstberichte verarbeiten, Datenbanken abgleichen, Muster über Millionen Datenpunkte erkennen und Handlungsempfehlungen generieren können.

Das kommt auf klassifizierte Netzwerke.


Die Zukunftsvision, über die niemand redet

Der Pentagon-Deal ist kein Endpunkt. Er ist eine Startlinie. Und die Ziellinie ist furchteinflößend.

Massenüberwachung, industrialisiert

KI macht Überwachung nicht nur möglich. Sie macht sie automatisch.

Aktuell braucht Überwachung noch Menschen. Analysten müssen abgefangene Kommunikation lesen, Kameraaufnahmen sichten, Verbindungen zwischen Datenpunkten herstellen. Das ist teuer und langsam. Und das ist eigentlich ein Feature, kein Bug — die Reibung ist es, die Regierungen davon abhält, alle, die ganze Zeit, zu überwachen.

KI beseitigt diese Reibung.

Anthropic-CEO Dario Amodei hat erklärt, warum sein Unternehmen die Grenze gezogen hat: KI ermöglicht es einer Regierung, „verstreute, einzeln harmlose Daten [über einzelne Amerikaner] zu einem umfassenden Bild des Lebens jeder Person zusammenzusetzen — automatisch und in massivem Umfang."

Deine Standortdaten. Dein Kaufverhalten. Deine Social-Media-Kontakte. Deine E-Mail-Metadaten. Jedes einzelne Stück für sich ist nichts. Aber ein KI-Modell kann sie zu einem vollständigen Profil zusammensetzen: wer du bist, wo du hingehst, mit wem du redest und was du glaubst.

Und es kann das für jeden tun. Gleichzeitig. Ohne müde zu werden oder Fragen zu stellen.

Klingt nach dystopischem Film? Tja — für uns Europäer ist das Ganze nochmal eine Stufe beunruhigender. Denn die Daten, die ChatGPT verarbeitet, liegen auf US-Servern. Und jetzt ist der Betreiber dieser Server ein Pentagon-Contractor. Der CLOUD Act gibt US-Behörden Zugriff auf Daten von US-Unternehmen, egal wo sie gespeichert sind. Die DSGVO kann dagegen wenig ausrichten, solange die Infrastruktur amerikanisch bleibt.

Altman sagt, der Vertrag verbiete „inländische Massenüberwachung". Aber was heißt „inländisch"? Was ist mit US-Bürgern im Ausland? Was mit Kommunikation, die Grenzen überquert? Was mit den Daten ausländischer Staatsbürger auf amerikanischen Servern? Also — unsere Daten.

Und wer setzt das Verbot durch? OpenAI sagt, es werde Mitarbeiter mit Sicherheitsfreigabe einsetzen, um die Nutzung zu überwachen. Eine Handvoll Firmenangestellte, die beaufsichtigen, wie das gesamte US-Militär ihre Technologie auf klassifizierten Netzwerken nutzt — Netzwerken, auf denen per Definition keine Außenstehenden sehen können, was passiert.

Na dann mal viel Spaß damit…

Autonome Tötungsketten

Was „menschliche Verantwortung für den Einsatz von Gewalt" in der Praxis bedeutet: Irgendwo in der Kette klickt ein Mensch auf „Bestätigen".

Aber wie sieht diese Bestätigung aus, wenn die KI das Ziel bereits identifiziert, den Bedrohungswert berechnet, die Reaktion empfohlen und die Waffe ausgewählt hat? Der Mensch trifft nicht die Entscheidung. Er stempelt die Entscheidung der KI ab. Genau wie die 20-Sekunden-Überprüfungen in Gaza.

Thomas Wright von der Brookings Institution hat es klar formuliert: „Bedingungslosen Zugang zu fordern, bevor diese Systeme bereit sind, ist kein Ausdruck von Autorität. Es ist eine Wette, dass die Unbekannten keine Rolle spielen werden."

Kann ein GPT-Modell zuverlässig zwischen einem Kombattanten und einem Zivilisten auf Drohnenaufnahmen unterscheiden? Kann es kulturellen Kontext in der Geheimdienstanalyse berücksichtigen? Kann es verstehen, dass die Person, die etwas trägt, das wie eine Waffe aussieht, vielleicht ein landwirtschaftliches Gerät in der Hand hält?

Die Antwort ist: Nein. Auch Anthropic hat das anerkannt und gesagt, ihre Modelle seien „nicht zuverlässig genug, um in vollautonomen Waffen eingesetzt zu werden" und dass „der Einsatz aktueller Modelle auf diese Weise Amerikas Soldaten und Zivilisten gefährden würde."

Das war Anthropics Argument. Das Pentagon nannte es „woke".

Deutschland und die Bundeswehr: Nicht so weit weg, wie man denkt

Übrigens: Das hier ist kein rein amerikanisches Thema. Die Bundeswehr investiert massiv in KI — von Aufklärung über Lagebilderstellung bis hin zum Uranos-System, das ab 2026 bei der deutschen NATO-Brigade in Litauen zum Einsatz kommen soll.

Und dann ist da der 900-Millionen-Euro-Auftrag für bewaffnete Kampfdrohnen (Loitering Munition) an Helsing, Stark Defence und Rheinmetall. Deutschland baut halt eben auch an KI-gestützten Waffensystemen — nur redet man hierzulande weniger laut darüber.

Die Bundeswehr betont zwar, sie strebe den Einsatz letaler autonomer Waffensysteme (LAWS) nicht an. Aber die internationale Regulierungslücke — die UN hat es bis 2026 nicht geschafft, ein verbindliches Verbot zu verabschieden — bedeutet, dass ethische Selbstverpflichtungen das Einzige sind, was zwischen dem Status quo und dem Einsatz autonomer KI-Waffen steht.

Selbstverpflichtungen. Wie die von OpenAI. Wir sehen ja, wie gut die halten.

Das Normalisierungsproblem

Das Gefährlichste an diesem Deal ist nicht der Deal selbst. Sondern was danach kommt.

Wenn KI erstmal auf klassifizierten Netzwerken läuft, wird sie zur Infrastruktur. Sie wird in Arbeitsabläufe integriert. Leute werden abhängig davon. Und die Leitplanken, die heute existieren? Werden verhandelbar. Weil die nächste Vertragsverlängerung nicht öffentlich stattfindet. Sie passiert hinter Geheimhaltungsbarrieren, wo niemand außerhalb des Pentagon und OpenAI erfährt, was sich geändert hat.

Heute: „Keine Massenüberwachung, keine autonomen Waffen." Nächstes Jahr: „Begrenzte autonome Zielerfassung in definierten Szenarien." Übernächstes Jahr: „Erweiterter Einsatz im Einklang mit der sich entwickelnden Bedrohungslage."

So funktioniert institutioneller Drift. Nicht in großen dramatischen Sprüngen, sondern in kleinen Neudefinitionen von Begriffen, die von Anfang an flexibel klangen.


Jedes Versprechen, jeder Bruch — mit Belegen

Sam Altman ist echt gut darin, das Richtige zum richtigen Zeitpunkt zu sagen. Hier ist, was er gesagt hat, und was tatsächlich passiert ist.

„Open Source, für die Menschheit" → Geschlossen, für Profit

2015: OpenAIs Gründungscharta verpflichtete sich, „digitale Intelligenz auf eine Weise voranzutreiben, die der gesamten Menschheit am ehesten zugutekommt, ohne von der Notwendigkeit, finanzielle Erträge zu erzielen, eingeschränkt zu sein." Forschung wurde frei veröffentlicht. Code wurde geteilt.

2019: OpenAI schuf eine „Capped-Profit"-Tochtergesellschaft, die 100-fache Investorenrenditen ermöglichte. Microsoft investierte 1 Milliarde Dollar. Interne Kommunikation von 2016-2017, enthüllt durch die OpenAI Files, zeigt Mitgründer Greg Brockman: „cannot say that we are committed to the non-profit. don’t want to say that we’re committed."

2025: OpenAI hat die Umwandlung in eine gewinnorientierte Public Benefit Corporation mit einer Bewertung von 500 Milliarden Dollar abgeschlossen. SoftBank investierte 41 Milliarden.

„Mir gehört kein Anteil" → Doch, tat es

Mai 2023: Altman sagte vor dem US-Senat: „I have no equity in OpenAI. I’m doing this because I love it."

Dezember 2024: TechCrunch berichtete, Altman hielt indirekte Anteile über einen Sequoia-Fonds und einen Y-Combinator-Fonds.

September 2024: Reuters berichtete, die Umstrukturierung sei darauf ausgelegt, Altman erstmals Anteile zu geben. Im endgültigen Deal vom Oktober 2025 erhielt er keine Anteile — aber seine Senatsaussage war durch die indirekten Beteiligungen bereits widerlegt.

Muss man erst mal sacken lassen: Vor dem Senat unter Eid sagen, man besitze keine Anteile, und dann — Überraschung — doch Anteile besitzen. In Deutschland hätte sowas zumindest eine parlamentarische Anfrage ausgelöst. Mindestens.

„Wir brauchen starke Regulierung" → Regulierung ist Überregulierung

Mai 2023: Altman sagte dem Kongress, „regulatorisches Eingreifen wäre entscheidend, um die Risiken immer leistungsfähigerer Modelle zu mindern."

Mai 2025: Derselbe Mann, derselbe Senat. Stimmte Senator Ted Cruz zu, dass „Überregulierung" die eigentliche Gefahr sei.

Puh. Zwei Jahre, und die Position dreht sich um 180 Grad? Das ist nicht mal mehr Pragmatismus. Das ist halt einfach: sagen, was gerade am besten ankommt.

„20 Prozent der Rechenleistung für Sicherheit" → Sicherheitsteams aufgelöst

2023: OpenAI versprach, 20 Prozent seiner Rechenleistung dem Superalignment-Team für langfristige KI-Sicherheitsforschung zur Verfügung zu stellen.

Mai 2024: Beide Teamleiter traten zurück. Jan Leike — ein Deutscher übrigens, zuvor bei der Uni Oxford — sagte beim Abgang: „Sicherheitskultur und -prozesse sind hinter glänzenden Produkten zurückgetreten." Er wechselte zu Anthropic. Das Superalignment-Team wurde aufgelöst. Die Rechenleistung ging an ChatGPT. Mindestens sieben sicherheitsorientierte Mitarbeiter verließen OpenAI — darunter auch Mitgründer Ilya Sutskever und der Sicherheitsforscher Daniel Kokotajlo. Später im Jahr wurde das AGI-Readiness-Team aufgelöst. Anfang 2026 auch das Mission-Alignment-Team. Drei Sicherheitsteams, weg.

Wenn dir dein Sicherheitspersonal reihenweise weglauft und dabei das Unternehmen öffentlich kritisiert — vielleicht, nur vielleicht, ist das ein Zeichen.

„Ich wusste nichts von den NDAs" → Seine Unterschrift war drauf

2024: Als OpenAIs Equity-Clawback-NDAs öffentlich wurden — Vereinbarungen, die Ex-Mitarbeiter zwangen, ihre Anteile aufzugeben, wenn sie schlecht über das Unternehmen sprachen — entschuldigte sich Altman und behauptete Unwissenheit. Vox erhielt Gründungsdokumente vom April 2023 mit Altmans Unterschrift, die genau diese Bestimmungen autorisierten.

Daniel Kokotajlo, ein Sicherheitsforscher, verzichtete auf Anteile im Wert von 85 Prozent des Familienvermögens, um sein Recht zu behalten, frei über die Sicherheitsmängel des Unternehmens sprechen zu können.

85 Prozent des Familienvermögens. Damit er reden darf. Lass das mal wirken.

„Kein militärischer Einsatz" → Pentagon-Netzwerke

Bis 10. Januar 2024: OpenAIs Nutzungsrichtlinien verboten ausdrücklich Anwendungen im Bereich „Militär und Kriegsführung".

10. Januar 2024: Diese Worte wurden still und leise gelöscht. Kein Blogpost. Keine Ankündigung. The Intercept hat’s bemerkt.

November 2025: OpenAI löschte das Wort „safely" komplett aus seinem Leitbild. Alt: „safely benefits all of humanity." Neu: „benefits all of humanity."

Februar 2026: Voller Einsatz auf klassifizierten Pentagon-Netzwerken. Stunden nachdem das Unternehmen, das Nein gesagt hat, auf die schwarze Liste gesetzt wurde.

„Wir teilen Anthropics rote Linien" → Wir haben unterschrieben, was Anthropic abgelehnt hat

Der frischeste Widerspruch. In einem Memo an die Mitarbeiter sagte Altman, OpenAI würde „im Wesentlichen Anthropics Ansatz folgen", wenn es in derselben Position wäre.

Aber sie sind nicht in derselben Position. Anthropic ist auf der schwarzen Liste. OpenAI hat den Vertrag. Zu sagen, man teile die Prinzipien eines anderen, während man den Deal nimmt, den der andere abgelehnt hat — das sind halt doch nur Worte.

Hunderte Mitarbeiter von Google und OpenAI haben inzwischen eine Petition unterschrieben, die ihre Unternehmen auffordert, Anthropics tatsächliche Position zu übernehmen — nicht nur deren Sprache.


Das Muster ist der Punkt

Was Altman gesagt hatWas er getan hat
„Open Source, für die Menschheit"500-Milliarden-Dollar-Gewinnunternehmen
„Mir gehört kein Anteil"Hielt die ganze Zeit indirekte Anteile
„Wir brauchen starke Regulierung"Nannte Regulierung „Überregulierung"
„20 % Rechenleistung für Sicherheit"3 Sicherheitsteams in 2 Jahren aufgelöst
„Wusste nichts von den NDAs"Seine Unterschrift war drauf
„Kein Militär und keine Kriegsführung"Verbot leise gelöscht, dann fürs Pentagon unterschrieben
„Safely benefits all of humanity"Das Wort „safely" aus der Mission gestrichen
„Wir teilen Anthropics rote Linien"Den Deal unterschrieben, den Anthropic abgelehnt hat

Jede einzelne Position wurde aufgegeben, sobald sie unbequem wurde. Nicht einmal. Nicht zweimal. Achtmal, aktenkundig.

Das ist kein Mensch, der seine Meinung geändert hat. Das ist ein Muster. Und das Muster sagt: Was auch immer Sam Altman dir heute erzählt — überleg dir, was er gerade braucht, dass du es glaubst, und du verstehst, warum er es gesagt hat.


Was du tun kannst

Du wirst vermutlich nicht die Beschaffungspolitik des Pentagon beeinflussen. Aber machtlos bist du auch nicht.

Die KI, die du nutzt, ist eine Wahl. ChatGPT ist nicht die einzige Option. War es nie. Claude, Gemini, Copilot, Llama, Mistral — es gibt Modelle von Unternehmen mit anderen Werten, anderen Strukturen und anderen Beziehungen zur Militärmacht. Nutze mehr als eines. Vergleiche sie. Lass dich nicht von Bequemlichkeit an einen einzigen Anbieter fesseln, dessen Prioritäten sich unter deinen Füßen verschieben.

KI-Skills sind portabel. Ein gut formulierter Prompt funktioniert in ChatGPT, Claude, Gemini oder jedem anderen Modell. Wenn du deine eigenen KI-Skills herunterlädst und speicherst, gehören sie dir. Es sind Textdateien. Denen ist egal, welches Modell sie ausführt. Wenn dein aktueller Anbieter — mal wieder — die Richtung ändert, funktionieren deine Skills trotzdem.

Achte darauf, wer Nein sagt. In einer Branche, in der alle finanziellen Anreize in Richtung Ja drücken, sagen dir die Unternehmen, die Nein sagen, etwas über ihre tatsächlichen Werte. Nicht ihr Marketing. Ihre Werte. Anthropic hat gerade einen 200-Millionen-Dollar-Vertrag verloren und wurde von der US-Regierung auf die schwarze Liste gesetzt, weil sie Sicherheitsleitplanken nicht entfernen wollten. Das hat sie was Reales gekostet.

Und als Europäer: Push für digitale Souveränität. Europäische KI-Alternativen wie Mistral, gehostet in EU-Rechenzentren in Paris, mit DSGVO-Konformität als Grundprinzip — das sind keine zweitklassigen Optionen mehr. Und wenn du im Unternehmen arbeitest: Stell die Frage, ob euer KI-Anbieter gleichzeitig Pentagon-Contractor ist. Das ist doch mal eine DSGVO-Folgenabschätzung wert.

Folge den Leitbildern, nicht den Pressemitteilungen. Wenn ein Unternehmen das Wort „safely" aus seiner Mission streicht und seine Technologie im selben Quartal auf militärische Geheimnetzwerke bringt, dann ist das kein gemischtes Signal. Das ist ein verdammt klares.


Die Frage, die niemand beantworten will

Was mich an der ganzen Sache nachts wach hält:

Die Technologie selbst ist neutral. Große Sprachmodelle verarbeiten Text. Sie sagen Token voraus. Denen ist egal, ob der Text ein E-Mail-Entwurf oder ein Geheimdienstbriefing ist, ob die Token ein Rezept oder eine Zielliste darstellen.

Die Frage ist, wer sie kontrolliert und welche Leitplanken es gibt.

Im Moment sehen die Leitplanken so aus: Ein Vertrag, von dem Sam Altman sagt, er enthalte Sicherheitsbeschränkungen, durchgesetzt von einer Handvoll OpenAI-Mitarbeitern auf klassifizierten Netzwerken, auf denen keine externe Aufsicht möglich ist, unterschrieben von einem CEO, der in den letzten zehn Jahren jedes größere Versprechen gebrochen hat.

Das ist die Leitplanke zwischen „KI-Assistent, der dir beim Schreiben hilft" und „KI-System, das Massenüberwachungsdaten für das mächtigste Militär der Welt verarbeitet".

Und wenn die Leitplanke versagt? Werden wir’s nicht erfahren. Weil: geheim.


Verwandte Skills

Echte KI-Skills aufbauen

Schritt-für-Schritt-Kurse mit Quizzes und Zertifikaten für den Lebenslauf