Letztes Jahr um diese Zeit habe ich „ The Metaverse Needs An Operating System “ geschrieben, in dem ich mich eingehend mit der Frage befasse, warum die Idee neuer Softwaregrundlagen nötig war, um einen Wandel in der Art und Weise, wie wir durch räumliches Computing interagieren, zu bewältigen. Es wurden neue und alte Konzepte untersucht, aber letztendlich kam man zu dem Schluss, dass die Richtung, in die wir uns bewegen, in vielerlei Hinsicht ein Umdenken im Betriebssystemdesign von Grund auf erfordert.
Wir kommen einfach nicht weiter, wenn das Denken immer noch im Kernel-Design und der Betriebssystemarchitektur aus der Mitte der 1980er und 1990er Jahre feststeckt. Jetzt, mit dem Aufkommen von KI und großen Sprachmodellen, Datensouveränität und Benutzerkontrolle, Identität und den uralten Argumenten „ proprietär vs. Open Source “, stellt sich erneut die Frage, ob das Betriebssystem von gestern für morgen überdacht werden muss.
Ich wollte die im letzten Jahr durchgeführte Erkundung übernehmen, aber das Denken auf eine andere Branche verlagern, die viel Aufmerksamkeit erhalten hat und als die Zukunft der Menschheit angepriesen wird – die Raumfahrtindustrie. Es gibt wahrscheinlich keinen Sektor, in dem die Anforderungen an Software und Hardware aufgrund der Umgebung, in der sie eingesetzt werden, so streng oder so sicher sind (mit Ausnahme der Bereiche Verteidigung und Luft- und Raumfahrt, die natürlich ohnehin immer noch Teil desselben Gesamtsektors sind).
Ziemlich große Vorbehalte: Was folgt, ist rein konzeptioneller Natur und basiert auf Sekundärrecherchen in Bereichen, in denen ich kein Experte bin, in denen ich jedoch der grundsätzlichen Überzeugung (ob richtig oder falsch) bin, dass sich die Dinge ändern müssen. Ich halte mich bewusst an die Grundprinzipien Dezentralisierung, Open Source und Modularität. Ich werde versuchen, die Fragen zu neuen CPU- und Silizium-Architekturen, die erforderlich sind, um die Änderungen wirklich nutzen zu können, gänzlich zu vermeiden, denn seien wir ehrlich, wir bleiben aufgrund des Betriebssystemdesigns irgendwie bei der gleichen Denkweise hängen. Es handelt sich um ein zweifaches Problem.
Die Raumfahrtindustrie basiert trotz all ihrer Innovationen im letzten Jahrzehnt dank SpaceX immer noch auf betrieblichen Softwareprinzipien, die bis in die 1960er Jahre zurückreichen, und dies ist keine Grundlage für den Aufbau der Zukunft der Weltraumforschung („The [Starlink] „Konstellation verfügt derzeit über mehr als 30.000 Linux-Knoten (und mehr als 6.000 Mikrocontroller) im Weltraum“, sagte Matt Monson in einem Reddit AMA im Jahr 2020. Das ist eine Menge Code, der in einer fragmentierten Architektur steckt, die ursprünglich in den 90er Jahren konzipiert wurde.
Ich bin ein großer Befürworter und Verfechter der Dezentralisierung, obwohl die Ideologie von schwachsinnigen Web3-VCs und Kryptocoin-Startups usurpiert wird. Grundsätzlich weist eine verteilte und dezentrale Architektur den Weg zu einem neuen Internet und der Art und Weise, wie wir Software schreiben, die uns über unsere irdischen Grenzen hinausführen würde.
Die Betriebssystemlandschaft, insbesondere im Raumfahrtsektor, ist durch ein Flickenteppich aus proprietären und Open-Source-Systemen gekennzeichnet, jedes mit seinen eigenen Schnittstellen und Protokollen. Dieser Mangel an Standardisierung hat zu Ineffizienzen, erhöhten Kosten und Komplexität beim Missionsdesign geführt . Etwas Neues würde diese Herausforderungen direkt angehen, indem es eine zusammenhängende Plattform bereitstellt, die durch einen einzigartigen Ansatz – eine Kombination aus dezentralen und RTOS-Architekturen – Kompatibilität und nahtlose Kommunikation zwischen verschiedenen Hardware- und Softwarekomponenten gewährleistet.
Das Konzept eines dezentralen Betriebssystems ist nicht neu. Bell Labs hat bereits in den 1980er Jahren Plan 9 erstellt, der den Weg dafür aufzeigt, und es ist an der Zeit, dort weiterzumachen, wo sie aufgehört haben, und die Arbeit abzuschließen.
Für Uneingeweihte: Plan 9 von Bell Labs ist ein verteiltes Betriebssystem, das Mitte der 1980er Jahre vom Computing Science Research Center (CSRC) bei Bell Labs entstand und auf UNIX-Konzepten aufbaute, die dort erstmals in den späten 1960er Jahren entwickelt wurden. Seit 2000 ist Plan 9 kostenlos und Open Source. Die endgültige offizielle Veröffentlichung erfolgte Anfang 2015. Plan 9 ersetzte Unix als primäre Plattform von Bell Labs für die Betriebssystemforschung. Es wurden verschiedene Änderungen am ursprünglichen Unix-Modell untersucht, die die Verwendung und Programmierung des Systems, insbesondere in verteilten Mehrbenutzerumgebungen, erleichtern.
Warum sollte man sich überhaupt darum kümmern, warum sollte man sich damit beschäftigen? Nun, weil die Konzepte hinter Plan 9 (und in gewissem Maße auch GridOS, die im ursprünglichen Artikel zu Metaverse OS erwähnt wurden) den Weg zu einem radikalen Wandel in der Art und Weise weisen, wie wir wirklich über Betriebssystemdesign und Kernel-Architektur nachdenken müssen, insbesondere im Raumfahrtindustrie.
Dezentralisiert und modular : Etwas Neues sollte dezentral konzipiert sein, was bedeutet, dass es über ein verteiltes Netzwerk betrieben werden kann, wodurch einzelne Fehlerquellen reduziert und möglicherweise die Widerstandsfähigkeit und Fehlertoleranz verbessert werden, was für weltraumgestützte Operationen von entscheidender Bedeutung ist.
Anpassbarkeit : Dank einer modularen Mikrokernel-Architektur soll es eine größere Flexibilität ermöglichen. Module können je nach Bedarf für verschiedene Anwendungen oder Missionen hinzugefügt oder entfernt werden, wodurch es sich hervorragend an verschiedene Anforderungen anpassen lässt.
Echtzeitfähigkeiten : Durch die Integration von Echtzeitverarbeitungsfunktionen, die für zeitkritische Anwendungen, wie sie bei der Weltraumforschung und im Satellitenbetrieb vorkommen, von entscheidender Bedeutung sind, werden einige der unmittelbaren Bedenken hinsichtlich der Dezentralisierung und der Knotenkommunikation berücksichtigt.
Community-gesteuert und Open Source : Es muss auf einem Open-Source-Modell aufbauen, Community-Beiträge fördern und den Quellcode zur Überprüfung verfügbar machen, was Innovation und Vertrauen fördern kann.
Kompatibilität und Übergang : Muss unter Berücksichtigung der Kompatibilität entwickelt werden, unterstützt also vorhandene Hardwareplattformen und kann Legacy-Anwendungen in sicheren Modulen ausführen, was den Übergang von herkömmlichen Betriebssystemen erleichtert.
Das Design von etwas so Kritischem würde darauf abzielen, das etablierte Puzzle von Red Hat, verschiedenen Linux-Varianten, eingebetteter Software und Vxworks von Wind River aufzulösen, indem es einen Sprung in der Betriebssystemarchitektur schafft und einen neuen und unbestrittenen Marktraum eröffnet. Wenn Sie das Design in einem der härtesten Märkte unter Beweis stellen, könnten Sie dann in der Lage sein, es zu replizieren und rückwärts in ähnliche Branchen zu arbeiten, die für die Weltraumforschung notwendig sein werden – einschließlich Bergbau, Fertigung, IOT und andere Schwerindustrien, die alle auf derselben alten Software basieren Prinzipien.
Was Windows als Allzweck- und Produktivitäts-Betriebssystemplattform ist, würde es im Gegenteil zu einer hochgradig abgestimmten Betriebssoftwareplattform für die Zukunft der Menschheit im Weltraum machen.
Wenn Sie noch einen Schritt weiter gehen möchten, insbesondere wenn Space Domain Awareness (SDA) eine wichtige Initiative von Regierungsbehörden ist, könnte jedes neue Betriebssystem für die Weltraumforschung eine entscheidende Komponente sowohl für zivile als auch für militärische Einheiten sein, die Vermögenswerte im Weltraum betreiben Auch.
Verbesserte Datenintegration : Der modulare Aufbau ermöglicht die nahtlose Integration verschiedener Sensoren und Datenquellen. Diese Fähigkeit ist für SDA von entscheidender Bedeutung, wo Daten von Radar, Teleskopen, Satelliten und anderen Sensoren synthetisiert werden müssen, um ein umfassendes Bild der Weltraumumgebung zu liefern.
Verbesserte Datenverarbeitung und -analyse : Der dezentrale Aspekt eines neuen Betriebssystems kann die verteilte Datenverarbeitung erleichtern und so den Zeitaufwand für die Analyse großer Mengen raumbezogener Daten reduzieren. Eine schnellere Datenverarbeitung führt zu schnelleren Reaktionen auf Bedrohungen wie Weltraummüll, gegnerische Manöver oder Naturphänomene.
Resilienz und Redundanz : Für militärische Operationen ist Resilienz von entscheidender Bedeutung, damit eine dezentrale Struktur eine größere Resilienz gegenüber Cyberangriffen und Systemausfällen bieten kann. Fällt ein Knoten aus, können andere Knoten übernehmen und so einen kontinuierlichen SDA-Betrieb gewährleisten.
Interoperabilität : Da an militärischen Operationen häufig Koalitionen beteiligt sind, kann ein dezentrales Betriebssystem standardisierte Kommunikationsprotokolle und Schnittstellen bereitstellen und so die Interoperabilität zwischen Systemen verschiedener Länder und Dienste ermöglichen, was für gemeinsame SDA-Bemühungen unerlässlich ist.
Anpassungsfähigkeit und Skalierbarkeit : Der modulare Aufbau eines dezentralen Betriebssystems ermöglicht eine schnelle Anpassung an neue Sensoren, Technologien oder Missionsanforderungen. Mit der Weiterentwicklung des Raumfahrtbereichs können auch neue Module integriert werden, um neue SDA-Anforderungen zu erfüllen, ohne das gesamte System zu überarbeiten.
Sicherheit : Mit einer neuen Kernel-Architektur können Sicherheitsprotokolle eng in jedes Modul integriert werden und bieten so robuste Sicherheitsmaßnahmen, die für militärische Operationen von entscheidender Bedeutung sind. Der dezentrale Charakter bedeutet auch, dass ein Angriff auf ein Modul weniger wahrscheinlich das gesamte System gefährdet.
Kosteneffizienz : Die Standardisierung auf ein modulares Betriebssystem kann zu Kosteneinsparungen führen, da der Bedarf an kundenspezifischer Softwareentwicklung für jede neue SDA-Initiative verringert wird. Diese wirtschaftliche Effizienz kann Ressourcen für andere wichtige Verteidigungsbedürfnisse freisetzen.
Lassen Sie uns nun die Zukunft von Betriebssystemen wie Windows und Linux in einer Welt der künstlichen Intelligenz diskutieren. Sind monolithische Betriebssysteme nicht überflüssig, wenn wir KI verwenden können, um Anwendungen zu erstellen, im Internet zu surfen, komplexe Fragen zu beantworten, Recherchen durchzuführen und einen Lebensmitteleinkauf mit automatisierten Agenten zu erledigen, die uns zur Verfügung stehen?
So würde ich sagen. Der Ansatz besteht derzeit lediglich darin, LLMs und KI in verschiedene Teile des Betriebssystems oder der Produktivitätsplattformen zu integrieren , anstatt KI von Grund auf als integralen Bestandteil zu entwickeln. Subtiler Unterschied.
Die Integration (eher eine Art Schuhanzieher) von KI in Betriebssysteme wie Windows wirft in der Tat die Frage auf, ob eine vollständige Neugestaltung, beginnend beim Kernel aufwärts, notwendig ist, um die Fähigkeiten der KI in dieser neuen Ära voll auszuschöpfen, also müssen wir einen Blick darauf werfen was erforderlich sein könnte.
Tiefe Integration vs. oberflächliche Add-Ons: Aktuelle Betriebssysteme könnten KI als zusätzliche Ebene integrieren und so bestimmte Funktionalitäten verbessern. Dieser Ansatz schöpft jedoch möglicherweise nicht das volle Potenzial der KI aus. Eine Neugestaltung auf Kernel-Ebene könnte KI tiefer in die Kernfunktionen des Betriebssystems einbetten, was zu einem ganzheitlicheren Ansatz führen würde.
Ressourcenmanagement und -planung : Herkömmliche Betriebssysteme sind nicht in erster Linie für die Komplexität von KI-Workloads ausgelegt. Eine Neugestaltung des Kernels könnte eine effizientere Verwaltung von Ressourcen (wie CPU, GPU und Speicher) für KI-Prozesse ermöglichen und so Leistung und Energieverbrauch optimieren.
Sicherheit und Datenschutz: KI bringt neue Sicherheits- und Datenschutzherausforderungen mit sich. Ein im Hinblick auf KI neu gestalteter Kernel könnte fortschrittlichere Sicherheitsprotokolle integrieren, um diese Herausforderungen zu bewältigen, insbesondere bei der Verarbeitung großer Mengen sensibler Daten.
Echtzeitverarbeitung und Edge Computing : KI-Anwendungen, insbesondere solche, die maschinelles Lernen und Echtzeit-Datenverarbeitung beinhalten, können von einer Verarbeitung mit geringer Latenz und hoher Geschwindigkeit profitieren. Ein Redesign auf Kernel-Ebene könnte diese Prozesse optimieren, insbesondere für Edge-Computing-Szenarien.
Autonomer Betrieb und Selbstheilung : Ein KI-gesteuerter Kernel könnte es dem Betriebssystem ermöglichen, autonome Optimierungs- und Selbstheilungsaufgaben durchzuführen, Systemausfälle vorherzusagen und zu verhindern und die Leistung ohne menschliches Eingreifen zu optimieren.
Hardwarebeschleunigung : Moderne KI-Anwendungen basieren häufig auf spezieller Hardware wie GPUs und TPUs. Ein unter Berücksichtigung dieser Aspekte entwickelter Kernel könnte eine bessere Unterstützung und Optimierung dieser Hardware bieten und so die Leistung von KI-Anwendungen verbessern. Ähnlich wie das, was Graphcore mit seiner IPU vorhatte, aber es scheiterte an der Produktmarkttauglichkeit und den hohen Kapitalinvestitionsanforderungen, um fortzufahren.
Abwärtskompatibilität und Übergang : Eine wesentliche Herausforderung bei der Neugestaltung des Kernels für KI besteht darin, die Kompatibilität mit vorhandenen Anwendungen und Systemen aufrechtzuerhalten. Dieser Übergang würde eine sorgfältige Planung und eine schrittweise Umsetzung erfordern.
Wenn wir beim Betriebssystemdesign einen revolutionären Ansatz verfolgen und KI-First-Architektur, KI-Integration auf Kernel-Ebene und Dezentralisierung als Kernprinzipien kombinieren, würde sich ein neuer Kernel und eine neue Betriebssystemarchitektur erheblich von herkömmlichen Systemen wie Windows und Linux unterscheiden. Natürlich würde ein solcher Wandel auch die Überwindung erheblicher Hürden in Bezug auf Entwicklung, Akzeptanz und Kompatibilität mit bestehender Technologie und Infrastruktur erfordern. Keine leichte Aufgabe, aber wenn man die Sache unter dem Gesichtspunkt angeht, dass die Entwicklung eines solchen Betriebssystems eine Blue-Ocean-Strategie war, dann ist es ein größeres Spiel und ein größerer Preis, den man anstreben kann, wenn man geduldig ist und dies über ein paar Jahrzehnte hinweg pflegt.
Die Blue-Ocean-Strategie ist das gleichzeitige Streben nach Differenzierung und niedrigen Kosten, um einen neuen Marktraum zu erschließen und neue Nachfrage zu schaffen. Es geht darum, unbestrittenen Marktraum zu schaffen und zu erobern und so die Konkurrenz irrelevant zu machen. Es basiert auf der Ansicht, dass Marktgrenzen und Branchenstruktur keine Selbstverständlichkeit sind und durch die Handlungen und Überzeugungen der Branchenakteure rekonstruiert werden können.
Rote Ozeane sind alle heute existierenden Branchen – der bekannte Marktraum, in dem Branchengrenzen definiert werden und Unternehmen versuchen, ihre Konkurrenten zu übertreffen, um einen größeren Anteil am bestehenden Markt zu erobern. Der mörderische Wettbewerb färbt den Ozean blutrot. Daher der Begriff „rote“ Ozeane.
Blaue Ozeane bezeichnen alle Industrien, die es heute nicht mehr gibt – den unbekannten Marktraum, unerforscht und frei von Konkurrenz. Wie der „blaue“ Ozean ist er riesig, tief und mächtig – im Hinblick auf Chancen und profitables Wachstum.
Ein perfektes Beispiel dafür war die Veröffentlichung der Wii durch Nintendo.
Die Nintendo Wii kam 2006 auf den Markt und ihr Kernstück ist das Konzept der Wertinnovation. Dies ist ein Schlüsselprinzip der Blue-Ocean-Strategie, bei der niedrige Kosten und Differenzierung gleichzeitig angestrebt werden.
Um die Kosten zu senken, verzichtete Nintendo auf die Festplatten- und DVD-Funktionalität der meisten Spielekonsolen und reduzierte die Verarbeitungsqualität und Grafik. Gleichzeitig führte Nintendo einen kabellosen Motion-Control-Stick ein, um sich vom Marktangebot abzuheben. Dies ermöglichte es dem Unternehmen, eine Reihe neuer Funktionen und Vorteile anzubieten, die es in der Gaming-Welt bisher nicht gab, wie beispielsweise die Möglichkeit, eine Spielekonsole zu nutzen, um fit zu werden oder in einer größeren sozialen Gruppe zu spielen.
Durch das Streben nach Mehrwertinnovationen könnte Nintendo in einem überfüllten und hart umkämpften roten Ozean über den Wettbewerb mit PlayStation und X-Box hinausgehen. Stattdessen konnte ein völlig neuer Markt erschlossen werden. Die Nintendo Wii sprach mit ihren innovativen, neuen Funktionen und dem erschwinglichen Preis einen völlig neuen und expansiven Markt an – einen blauen Ozean, der Nicht-Gamer, ältere Menschen und Eltern mit kleinen Kindern umfasst.
Durch die Übernahme des gleichen Ansatzes mit einem neuen Betriebssystem würde der etablierte Markt ausgelöscht, der mit technischen Schulden und Altlasten übersät ist und aufgrund der für einen Richtungswechsel erforderlichen Anstrengungen nicht in der Lage wäre, darauf zu reagieren.
Es ist keineswegs eine einfache oder kleine Anstrengung. Der Grund, warum ich mich für KI und Weltraum entschieden habe, war, dass es sich um komplementäre Ansätze für dasselbe Problem mit denselben Antworten handelt. Wir bauen auf Konzepten und Ideen auf, die noch nie zuvor auf diese Weise zusammengeführt wurden, aber zu den Bausteinen der nächsten 50–100 Jahre Softwarearchitektur führen könnten, weil sie für die bevorstehende schöne neue Welt zweckdienlich sein müssen uns schnell.
Nehmen Sie die aktuellen experimentellen Bereitstellungen von IPFS (Interplanetary File System) mit Lockheed Martin . Diese Mission ist die erste ihrer Art, die Anwendungsfälle für dezentrale Speicherung im Weltraum evaluiert. Gehostet wird es an Bord des selbstfinanzierten LM 400 Technology Demonstrator von Lockheed Martin – einem softwaredefinierten Satelliten von der Größe eines Kühlschranks, der für die Unterstützung einer Vielzahl von Missionen und Kunden konzipiert ist. Sobald sich das Raumschiff im Orbit befindet, wird es seine softwaredefinierte Satellitentechnologie SmartSat™ nutzen, um die IPFS-Demonstration hochzuladen und durchzuführen.
Wir experimentieren ständig mit dezentralen Technologien, scheinen aber zu zögern, sie künftig zu einer zentralen Grundlage für Plattformen zu machen.
Das sind konzeptionelle Rahmenwerke und Ideen, mit denen ich herumgewirbelt habe, und Gott weiß, ob sie bleiben werden, aber wenn irgendjemand da draußen heftig zustimmend nickt – egal, ob Sie ein Software-Ingenieur oder ein Investor sind – schlagen Sie meine Tür ein und lassen Sie uns reden Ich habe den Wunsch, dies Wirklichkeit werden zu lassen.
Auch hier veröffentlicht.