paint-brush
Von OpenAI zu Closed AI: Kundenspezifische Chips schließen die Türen – was kommt als Nächstes?von@bigmao
450 Lesungen
450 Lesungen

Von OpenAI zu Closed AI: Kundenspezifische Chips schließen die Türen – was kommt als Nächstes?

von susie liu11m2024/11/20
Read on Terminal Reader

Zu lang; Lesen

Gerüchten zufolge arbeitet OpenAI mit Broadcom an der Entwicklung maßgeschneiderter Chips. In diesem Gerücht steckt die Botschaft, dass die Tage der allgemein zugänglichen KI gezählt sein könnten – hier erfahren Sie, warum Designer-Hardware unausweichlich ist, wie die Technik uns mithilfe von Chips fesseln könnte und was wir ab 2025 erwarten können.
featured image - Von OpenAI zu Closed AI: Kundenspezifische Chips schließen die Türen – was kommt als Nächstes?
susie liu HackerNoon profile picture
0-item
1-item
2-item

Ende Oktober tauchten Berichte auf (mit freundlicher Genehmigung von Reuters), dass OpenAI mit Broadcom an der Entwicklung maßgeschneiderter Chips arbeitet, die auf die enormen KI-Arbeitslasten des Unternehmens zugeschnitten sind . Quellen zufolge hat sich das Unternehmen Fertigungskapazitäten bei TSMC gesichert und ein 20-köpfiges Team von Ingenieuren zusammengestellt, das ehemalige Veteranen aus Googles Tensor-Prozessorabteilung abwirbt. Die Produktionszeitpläne bleiben flexibel, die Chips könnten möglicherweise erst 2026 auf den Markt kommen, aber die Grundlagen für einen radikalen Wandel in der Art und Weise, wie OpenAI seine Infrastruktur handhabt, werden bereits gelegt.


Während dieser Schritt tatsächlich mit der laufenden Strategie von OpenAI übereinstimmt, seine Lieferkette zu diversifizieren und die steigenden Infrastrukturkosten unter Kontrolle zu bringen, könnte in diesem Gerücht die Botschaft stecken, dass die Tage der allgemein zugänglichen KI gezählt sein könnten. Die Zukunft der KI ist keine größere, hellere Welt, die jedem mit einem brillanten Verstand offen steht – es ist eine VIP-Lounge mit maßgeschneiderten Chips für die Wände , wo der Mitgliedsbeitrag ein Milliardenbudget beträgt.


Maßgeschneiderte Hardware wird zweifellos Durchbrüche bringen , aber auch Barrieren errichten , Barrikaden, die die Öffentlichkeit – und die meisten anderen Akteure – außen vor lassen.


Und vielleicht ist es genau das, was die Technik schon immer wollte.


Sehen wir uns an, warum das Hardware-Wettrüsten unvermeidlich ist, welche Rolle Chips in der übergeordneten Strategie der Technologiebranche zur Vorherrschaft spielen und was als Nächstes zu erwarten ist.

Benutzerdefinierte Chips: Eine elegante Art zu sagen: „Wir stecken fest“

KI hat uns große Träume beschert – von personalisierten Therapie-Bots über autonome Lieferdrohnen bis hin zu KI-gesteuerten Diagnosefunktionen auf jedem Telefon. Doch der jüngste Schritt von OpenAI, kundenspezifische Chips zu entwickeln, zeigt, dass unsere wilden KI-Ambitionen mittlerweile so gewaltige Modelle erfordern, dass selbst die leistungsstärksten Allzweckprozessoren die weiße Fahne hissen . Bei kundenspezifischem Silizium geht es nicht darum, KI schneller, besser und freier zu machen, sondern darum, das Ganze trotz immer höher werdender Anforderungen über Wasser zu halten – ein stillschweigendes Eingeständnis, dass wir eine Innovationsgrenze erreicht haben, die nur noch durch Hardware durchbrochen werden kann.


Dies sind die Gründe für den Bedarf an kundenspezifischem Silizium.


Die wahre Persönlichkeit von ChatGPT: Hoher Wartungsaufwand

Die Weisheit von LLMs wie GPT-4 und Gemini basiert auf transformer-basierten Modellen , die Milliarden von Parametern im Auge behalten. Aber diese Intelligenz hat ihren Preis : ein Rückgrat von Selbstaufmerksamkeitsmechanismen , die massive Matrixmultiplikationen erfordern, die viel Speicherbandbreite verschlingen. Die Architektur von Transformatoren erfordert außerdem eine quadratische Komplexitätsskalierung , was bedeutet, dass eine Modellerweiterung den Bedarf exponentiell in die Höhe treibt. Wenn LLMs versuchen, ihre Leistung durch den Einsatz von bestärkendem Lernen (RL) zu verbessern, um sich in Echtzeit an Feedback anzupassen, oder versuchen, Verbindungen mithilfe von Graph Neural Networks (GNNs) abzubilden, gerät das Ganze zu einer wahren Datenparty, die den Strombedarf in die Höhe treibt. Falls Ihnen aufgefallen ist, dass ChatGPT in letzter Zeit gelegentlich epileptische Anfälle hatte, ist dies der Grund .


Benutzerdefinierte Chips wie die TPUs von Google können diese Probleme lösen, indem sie einen Speicher mit hoher Bandbreite (HBM) in den Chip integrieren, die Datenbewegung verwalten und die Speicherhierarchien verbessern, um die Latenz zu verringern, und außerdem systolische Arrays nutzen, um Matrixoperationen zu parallelisieren.

Generative KI: Von Ergebnissen bis zu Ausfällen

Generative KI verlagert sich von der Bereitstellung einzelner Ausgaben wie Text oder Bilder hin zu modalübergreifenden Meisterwerken durch die Mischung mehrerer Medienformen (Text, Audio, Video). Diese technische Zauberei führt zu Rechenchaos – jede Modalität hat unterschiedliche Verarbeitungsanforderungen, und wenn man von der KI verlangt, alles gleichzeitig zu verarbeiten, werden Allzweck-GPUs, die nicht als Meisterjongleure konzipiert wurden, überfordert. Darüber hinaus erfordern Echtzeitsynthesemodelle für verbesserte Engagement-Funktionen, wie dynamisch adaptive Handlungsstränge für Spiele oder SFX-Filter für Live-Streaming, extrem niedrige Latenzzeiten und schnelle Inferenzgeschwindigkeiten – Anforderungen, die GPUs nur schwer erfüllen können, ohne Verzögerungen und eine astronomische Stromrechnung zu verursachen.


Kundenspezifische Chips wie NVIDIAs A100 und Googles TPUs lösen diese Probleme mit Multi-Instance-GPUs (MIG) und Tensor-Cores und ermöglichen energieeffiziente Cross-Modal-Berechnungen in Echtzeit, indem sie Aufgaben in parallele, isolierte Prozesse auf demselben Chip aufteilen. Es kann auch Arithmetik mit reduzierter Genauigkeit eingeführt werden, um die Verarbeitung in Formaten wie FP16 oder INT8 anstelle von FP32 zu ermöglichen. Dabei bleibt die Genauigkeit erhalten, ohne dass die Hardware durchbrennt.

KI auf Leben und Tod: Präzision, die das Stromnetz erschöpft

Um sich im Chaos der realen Welt zurechtzufinden, in dem hohe Risiken bestehen – denken Sie an autonomes Fahren, Robotik, Drohnen – muss ereignisgesteuerte KI mit übermenschlicher Geschwindigkeit reagieren, eine Aufgabe, die neuromorphen und probabilistischen Modellen gerecht wird, die einen handelsüblichen Chip zerstören würden. Kundenspezifische Chips wie Intels Loihi werden mit Architekturen gebaut, die biologische neuronale Netzwerke nachahmen. Sie basieren auf Spiking Neural Networks (SNNs) und ereignisbasierter Verarbeitung, um Daten nur bei relevanten Ereignissen zu analysieren und Ressourcen dynamisch basierend auf eingehenden Datenmustern zuzuweisen. Dieses Design ermöglicht zwar stromsparende und latenzarme Operationen im großen Maßstab, ist jedoch mit Hardware auf dem freien Markt inkompatibel.

Soziale KI: Die Menschheit zu knacken ist eine schwierige Aufgabe

Ah, die verlockende, wenn auch ethisch fragwürdige Anwendung von KI, mit der die Titanen hoffen, dass sie uns weiterhin von ihren Plattformen verzaubern und uns in ihre programmierten Haustiere vernarrt halten. Um die Unfassbarkeit der menschlichen Natur zu entschlüsseln, braucht es Systeme, die Verhalten auf individueller und gesellschaftlicher Ebene interpretieren, vorhersagen und sich daran anpassen – kreuzmodale Aufmerksamkeitsmechanismen , GNNs zur Analyse kollektiver Interaktionen, affektive Informatik zur Entwicklung emotionaler Intelligenz, Wissensgraphen zur Gewährleistung kontextueller Relevanz, und die Liste geht noch weiter. Außerdem könnte soziale KI in sensiblen Kontexten operieren (wie in einem Robo-Nagetier zur Heilung von Depressionen), was eine geräteinterne KI zum Schutz der Benutzerdaten erforderlich macht . Es ist unnötig zu erwähnen, dass all diese Berechnungen Mainstream-Chips und ihre Stapelverarbeitung in einen Zustand der Lähmung versetzen.


Diese Prozesse erfordern Effizienz bei spärlichen Daten und hohe Genauigkeit bei geringer Latenz . Diese Anforderungen können Designer-Silizium durch die Integration von Funktionen wie einheitlicher Speicherarchitektur , aufgabenspezifischen Beschleunigern , Optimierung spärlicher Daten (verwendet in der IPU von Graphcore) und multimodaler Fusionsoptimierung erfüllen.

Wissenschaftliche KI: Die letzte Grenze, zu groß für konventionelle Hardware

Obwohl sie nicht so sehr von den Medien geliebt wird wie andere Bereiche, wurde die wissenschaftliche KI dazu entwickelt, die revolutionärste Grenze der künstlichen Intelligenz zu werden . Aber nur, wenn die Hardware mithalten kann. Damit die generative wissenschaftliche KI neue Möglichkeiten schaffen kann (z. B. neuartige Moleküle, Materialien und Systeme), müssen fortgeschrittene Rechenrahmen wie Diffusionsmodelle , VAEs , Transformatoren und bestärkendes Lernen mit domänenspezifischem Wissen kombiniert werden. Nicht-generative KI, die für prädiktive Modellierung und Simulationen verwendet wird, verarbeitet Daten im Petabyte-Bereich und hochdimensionale Systeme und verwendet Mechanismen wie PDE-Löser , GNNs , Bayes-Modelle und die Finite-Elemente-Analyse (FAEs) . Obwohl die beiden Zweige der wissenschaftlichen KI unterschiedlichen Zwecken dienen, erfordern beide Präzision, Skalierbarkeit und Rechenintensität – Kriterien, die nur die besten Mechanismen sowohl der generativen als auch der prädiktiven KI erfüllen können. Es ist ein Kinderspiel, dass vorgefertigte Hardware dafür nicht ausreichen wird.

Der Tod Open AI und der Reiz der Exklusivität

Der Weg zu maßgeschneidertem Silizium ist mit einem Preisschild versehen, das die Schichtung des Zugangs zu KI fast garantiert. Ökonomie 101: Um die astronomischen Kosten zu decken, werden OpenAI (und alle, die diesem Beispiel folgen) die Last zwangsläufig auf die Kunden abwälzen und den Zugang zu Angeboten bündeln, die unsere aktuellen Abonnements wie ein Klacks aussehen lassen .


Aber man sollte überhöhte Preise und ein hierarchisches System, in dem Finanzkraft eine Grundvoraussetzung ist, nicht mit einer reaktiven Überlebenstaktik verwechseln; es ist eine strategische Chance – denn Exklusivität ist kein Fehler, sondern das Feature, auf das die Technologie gewartet hat.


Vendor Lock-In 2.0: Unternehmen durch Chips binden

Proprietäre Hardware bringt ein Gravitationsfeld mit sich: Sind Unternehmen erst einmal in ein Ökosystem eingebettet, das Software und kundenspezifische Chips vereint, sind sie effektiv daran gebunden. Durch die Einbindung eines Software-Stacks in Chips entsteht ein Mechanismus, bei dem Systeme nur innerhalb der Domänen des Anbieters ihre Höchstleistung erbringen können – ein irreversibles Setup, bei dem die Hardware die Software diktiert . Nachdem Unternehmen ihre Anwendungen und Workflows um diese kundenspezifische Umgebung herum aufgebaut haben, ist ein Ausstieg nicht einfach eine Frage der Übertragung von Daten oder Softwarelizenzen, sondern einer Neuentwicklung von Grund auf – so, als würde man versuchen, Fortschritte von der PS auf die Xbox zu übertragen .


Und mit der Iteration der Hardware wird die Integration nahtloser, wodurch die Ausstiegskosten mit jedem Update in die Höhe schnellen . Mit der verbesserten Leistung geht eine gefestigte Loyalität einher – wie bei den meisten vertikal integrierten Ökosystemen bedeutet ein Wechsel, dass man von vorne beginnen muss.

Benutzerdefinierte Chips, benutzerdefinierte Regeln: Abschaffung des Wettbewerbs durch Absicht

Maßgeschneiderte Chips fragmentieren das KI-Ökosystem in abgeschottete Bereiche, in denen die Interoperabilität, die den frühen KI-Boom ausmachte, verloren geht. Aufgrund der höheren Effizienz und Kontrolle, die maßgefertigte Chips bieten, könnte OpenAI Standards (wie Leistungsgrenzen, Funktionen und Kompatibilitätsanforderungen) setzen, die sich um seine proprietären Systeme und geistigen Patente drehen , und so Open-Source-Initiativen und kleinere Akteure an den Rand drängen, die mit hardwareabhängigen Fortschritten nicht mithalten können. Wenn Sie eine Idee haben, müssen Sie sie möglicherweise zu OpenAI bringen und um Hardware-Support betteln, so wie sich derzeit die Techniker vor den Drehtüren von NVIDIA anstellen.


Maßgefertigte Siliziumchips schaffen Wissens- und Zugangslücken. Durch die Entwicklung von Hardware, die für proprietäre KI-Architekturen optimiert ist, beschleunigt OpenAI nicht nur seine eigenen Modelle, sondern baut auch unverständliche Ökosysteme auf, die von Wettbewerbern nicht effektiv zurückentwickelt oder reproduziert werden können. Diese Lernasymmetrie hindert Wettbewerber effektiv daran, innerhalb desselben Paradigmas zu lernen oder Innovationen zu entwickeln, und nutzt Exklusivität als Waffe, um den branchenweiten Fortschritt zu verlangsamen.


Exklusive Hardware wird zu einer Innovationsblockade , die es den Anbietern ermöglicht, das Tempo des Fortschritts zu kontrollieren und sicherzustellen, dass sie im Mittelpunkt des nächsten Kapitels der KI bleibeneines Kapitels, in dem Talent und Kreativität der Kraft des Rohkapitals unterliegen .

Hinter Closed Chips: Intransparenz sichert Dominanz

Im Gegensatz zu Software, die rückwärts entwickelt oder geforkt werden kann, sind hardwarebasierte Prozesse physisch undurchsichtig und schwer zu dekonstruieren, ohne Unmengen an Geld zu verbrennen. Diese undurchdringliche Abstraktionsschicht fungiert als ultimative Festung und stärkt OpenAIs Anspruch auf den Eisernen Thron der KI.


Kontrolle umgehen: Rechenschaftspflicht ohne Antworten


Maßgefertigte Siliziumchips bieten einen praktischen Schutz vor den bohrenden Augen der Regulierungsbehörden und den harten Fragen der Medien und Interessengruppen, indem sie zusätzliche Komplexitätsebenen hinzufügen, die es schwieriger machen, die Funktionsweise der Systeme zu erklären und noch schwerer zu prüfen. Unternehmen können argumentieren, dass bestimmte Ergebnisse keine absichtlichen Konstruktionsfehler, sondern Nebenprodukte der Interaktion zwischen Hardware und Software sind, und sich so der Prüfung entziehen, indem sie auf die inhärente Intransparenz des Systems verweisen.


Auch vorhersehbare Leistungsparameter könnten integriert werden, um die Systemvariabilität bei der Bereitstellung in bestimmten kritischen Umgebungen zu reduzieren. Diese Intransparenz stellt sicher, dass Unternehmen Kompromisse oder Schwachstellen in ihren Modellen nicht offenlegen müssen, insbesondere in Branchen wie dem Gesundheitswesen, dem Finanzwesen oder der Verteidigung, in denen Zuverlässigkeit von größter Bedeutung ist.


Interne Versicherung: Schutz der Kronjuwelen


Da die meisten KI-Unternehmen auf eine verteilte Belegschaft, Vertragspartner oder Cloud-Infrastrukturanbieter angewiesen sind, steigt das Risiko des Abflusses geistigen Eigentums. Aufgrund der Universalität von Programmiersprachen und Frameworks ist Software von Natur aus portierbar und replizierbar. Die Hardware-Entwicklung hingegen ist stark kontextbezogen und beruht auf spezialisiertem und isoliertem Fachwissen sowie auf dem Zugang zu bestimmten Fertigungspipelines, -prozessen und -anlagen. Diese Abschottung bedeutet, dass kein einzelner Ingenieur über genügend Wissen oder Ressourcen verfügt, um für einen Konkurrenten das Zauberwerk zu zaubern. Indem OpenAI Innovationen in Chips einarbeitet, verknüpft das Unternehmen sein geistiges Eigentum mit der Infrastruktur und nicht mit Einzelpersonen . Dadurch wird das Risiko minimiert, den Wettbewerbsvorteil zu verlieren, wenn Ingenieure kündigen.

Der Netzwerkeffekt: Wahrnehmung in Realität umsetzen


Indem OpenAI die Funktionsweise von KI-Systemen unzugänglich macht, stellt es sicher, dass nur sie deren Fähigkeiten definieren und kontrollieren können . So wie NVIDIAs GPUs aufgrund von Benchmarks, die für ihre Architektur optimiert waren, zum Synonym für KI-Leistung wurden, könnte OpenAI seine eigenen Metriken erstellen, die an ihre Siliziumchips gekoppelt sind, und inkrementelle Verbesserungen als bahnbrechend darstellen . Der Mangel an Transparenz bedeutet auch, dass ausgewählte Leistungsmeilensteine (z. B. „5x schnellere Inferenz“), die durch kleinere Hardwareoptimierungen erreicht werden, als echte Durchbrüche vermarktet werden können . So genießt man die Vorteile, als Pionier wahrgenommen zu werden, während Kompromisse oder Einschränkungen verschleiert werden.


Da es keine Möglichkeit gibt, Behauptungen zu vergleichen oder zu überprüfen, müssen Kunden, Investoren und Medien der PR-Masche des Unternehmens vertrauen. Eine Lüge kann um die halbe Welt reisen, während die Wahrheit noch nicht fertig ist: Bald kaufen wir alle diese manipulierte Version von „Innovation“, geben das Geld und die Schlagzeilen aus, und die erfundene Dominanz wird zur greifbaren Realität.

Diese Illusion ist sowohl eine Markenstrategie als auch eine technische Strategie: Sie verwandelt Undurchsichtigkeit in ein Instrument für eine nachhaltige Marktführerschaft.

Ausblick 2025: Es wird Innovationen geben, nur nicht für Sie


Hardware ist ein Engpass, aber die Technologie hat noch nie wegen einer Geschwindigkeitsbeeinträchtigung an Tempo verloren. Lassen Sie sich nicht täuschen – echte Fortschritte dienen dazu, den Einfluss und die Wettbewerbskontrolle von Unternehmen zu festigen, während Neuheiten, die dem einfachen Volk und Unternehmen präsentiert werden, nur Datenerhebung sind, die durch PR-Schichten getarnt ist.

Spielzeug für Verbraucher: Daten, Ablenkung und nachlassende Wachsamkeit

Sie glauben, dass die Arbeitsbelastung durch die Hardware-Entwicklung den Verbraucherbetrieb zum Erliegen bringen wird? Nein, es wird sich scheinbar alles beschleunigen , denn wir geben unsere Verhaltensdaten nur im Austausch für „ Fortschritt “ weiter. Aber jetzt, wo unsere Großeltern sich an Chatbots amüsieren, wird die Technik von Versuchen, Sie mit Butlern zu fesseln, zu Gimmicks übergehen, die sich anfühlen, als kämen sie aus „Zurück in die Zukunft“. (Keine Sorge, die Technik wird diesen schrulligen Assistenten regelmäßig ein neues Gesicht geben, damit sie auf unserem Radar bleiben. Berichten zufolge wird OpenAI im Januar 2025 einen KI-Agenten namens „Operator“ vorstellen. Quellen deuten darauf hin, dass Operator direkt mit Ihrem Computer interagieren und in erster Linie als Workflow-Verbesserer und Webbrowser-Tool fungieren wird, Aufgaben automatisieren und das Online-Erlebnis optimieren wird. Also ein Desktop-Spion.)


Die Großen werden von Software auf schicke Gadgets umsteigen, um anspruchsvolle Kunden anzusprechen – Altman hat gerade Orions frühere Hardware-Chefin Caitlin Kalinowski abgelöst, Zuck arbeitet an Roboterhänden und sogar Cook denkt über Smart-Home-Geräte nach. Die Wall Street wird das Absurde auf den Markt bringen, von ausgefallenen Produkten wie Friends gruseliger Halskette bis hin zu fragwürdigen Apps wie Daze.


Der unaufhörliche Hype und die Schlagzeilen werden uns nicht nur zum Kauf drängen; sie werden auch unsere Abwehrkräfte untergraben und uns dazu verleiten, alles freudig anzunehmen, was die hardwaregestützte künstliche Intelligenz der Zukunft uns bringt.

Enterprise-Tools: Skalierung in der Tiefe, nicht in der Breite

Das wahre Geld liegt in den Geldbörsen von Institutionen, nicht von Einzelpersonen. Unternehmen werden jedoch nur Lösungen übernehmen, die sie dort treffen, wo es wehtut. Das bedeutet, dass KI über oberflächliche Schmerzpunkte hinausgehen muss. Im nächsten Jahr wird es nicht um Allzwecktools gehen, um Unternehmen für die Idee der KI zu begeistern, sondern um domänenspezifische Modelle, die Algorithmen mit allen Einzelheiten jedes Sektors, jeder Abteilung, jedes Teams und jedes Mitarbeiters vertraut machen.


Ein typisches Beispiel : Microsoft hat in Zusammenarbeit mit Siemens , Bayer und Rockwell gerade eine Reihe von KI-Modellen auf den Markt gebracht, die sich speziell den Herausforderungen in der Fertigung, der Landwirtschaft und im Finanzdienstleistungsbereich widmen. Auch nischenspezifische KI-Startups scheffeln Geld – Breakr für Musikmarketing, Dreamwell für Influencer-Automatisierung, Beeble für VFX und das ist nur der Stand der letzten paar Monate. Analysten prognostizieren, dass die Marktkapitalisierung der vertikalen KI mindestens zehnmal so groß sein wird wie die der herkömmlichen vertikalen SaaS.

Bewachtes Genie: Pionierarbeit für die Prestigeträchtigen

Die Technologiebranche spart ihre PS für bahnbrechende Fortschritte auf, die ihre Zukunft mit der der Elite verbinden werden: der Konzerngiganten und der Regierungen. OpenAI präsentiert Trump einen Entwurf für die US-amerikanische KI-Infrastruktur, und Anthropic ist gerade eine Partnerschaft mit dem Rüstungskonzern Palantir eingegangen, um „riesige Mengen komplexer Daten schnell zu verarbeiten, datengesteuerte Erkenntnisse zu verbessern, Muster und Trends effektiver zu erkennen, die Dokumentenprüfung und -vorbereitung zu rationalisieren und US-Beamten zu helfen, in zeitkritischen Situationen fundiertere Entscheidungen zu treffen.“ Microsoft geht eine Partnerschaft mit BlackRock ein, IBM ist mit AWS im Bett und Google ist nach Saudi-Arabien gegangen .


Was steckt hinter diesen Partnerschaften? Das wird sich erst mit der Zeit herausstellen.

Abschließende Gedanken: Eine Fallstudie für die PR Hall of Fame


Die Geschichte von der KI für alle – ein Versprechen gemeinsamer Innovation und universellen Zugangs – kam einem immer zu schön vor, um wahr zu sein. Aber könnten dieselben Visionäre, die den Code der Intelligenz selbst geknackt haben, im Rückblick wirklich von der Unvermeidlichkeit maßgeschneiderter Silizium- und Milliardeninvestitionen überrumpelt worden sein?


Dieser Autor ist nicht überzeugt.


Und indem sie nun die Hardware-Neuausrichtung als heroische Antwort auf die wachsenden Anforderungen der künstlichen Intelligenz darstellen, umgehen Unternehmen wie OpenAI geschickt die Realität, dass sie von Anfang an auf Exklusivität hingearbeitet haben.


„Offen“ war immer eine Markenübung, ein PR-Plot, der über Jahrzehnte hinweg entwickelt wurde, und „Demokratie“ war nur ein Slogan.


Der vielleicht revolutionärste Aspekt der KI ist nicht die Technologie, sondern das Märchen, das uns verkauft wurde.