Por volta dessa época, no ano passado, escrevi “ O metaverso precisa de um sistema operacional ”, um mergulho profundo na razão pela qual era necessária a ideia de novas bases de software para lidar com uma mudança na forma como interagimos por meio da computação espacial. Ele explorou conceitos novos e antigos, mas, em última análise, a conclusão foi que o rumo que estamos tomando em muitos aspectos requer uma repensação do design do sistema operacional desde o início.
Simplesmente não podemos avançar onde o pensamento ainda está preso no design do kernel e na arquitetura do sistema operacional de meados das décadas de 1980 e 1990. Agora, com a ascensão da IA e dos grandes modelos de linguagem, da soberania dos dados e do controle do usuário, da identidade e dos antigos argumentos de “ código proprietário versus código aberto ”, a questão da necessidade de repensar o sistema operacional de ontem para amanhã surge novamente.
O que eu queria fazer era pegar na exploração feita no ano passado, mas mudar o pensamento para outra indústria, que tem recebido muita atenção e é considerada o futuro da humanidade – a indústria espacial. Provavelmente não existe um sector onde as exigências de software e hardware sejam tão rigorosas ou tão seguras devido ao ambiente em que operam (excepto a defesa e a aeroespacial que, claro, ainda fazem parte do mesmo sector global).
Advertências bastante amplas: o que se segue é puramente conceitual, baseado em pesquisas documentais em áreas nas quais não sou especialista, mas com uma crença fundamental (certa ou errada) de que as coisas precisam mudar. Mantenho-me propositadamente nos princípios fundamentais da descentralização, do código aberto e da modularidade. Tentarei evitar completamente as questões em torno das novas arquiteturas de CPU e silício necessárias para realmente aproveitar as vantagens das mudanças, porque, convenhamos, estamos presos ao mesmo pensamento por causa do design do sistema operacional. É um problema duplo.
A indústria espacial, apesar de todas as suas inovações na última década graças à SpaceX, ainda se baseia em princípios de software operacional que remontam à década de 1960 e esta não é uma base para construir o futuro da exploração espacial (“The [Starlink] A constelação tem mais de 30.000 nós Linux (e mais de 6.000 microcontroladores) no espaço agora”, disse Matt Monson em um Reddit AMA em 2020. É muito código colocado em uma arquitetura fragmentada originalmente concebida nos anos 90.
Sou um grande defensor e acredito na descentralização, apesar da ideologia ter sido usurpada por VCs idiotas da web3 e startups de criptomoedas. Fundamentalmente, uma arquitectura distribuída e descentralizada aponta o caminho para uma nova Internet e para a forma como escrevemos software, uma que nos levaria para além dos nossos confins terrestres.
O panorama dos sistemas operativos, particularmente no setor espacial, é caracterizado por uma colcha de retalhos de sistemas proprietários e de código aberto, cada um com o seu próprio conjunto de interfaces e protocolos. Esta falta de padronização levou a ineficiências, aumento de custos e complexidades na concepção da missão . Algo novo abordaria diretamente esses desafios, fornecendo uma plataforma coesa que garantisse compatibilidade e comunicação perfeita entre diversos componentes de hardware e software por meio de uma abordagem única – uma combinação de arquiteturas descentralizadas e RTOS.
O conceito de um sistema operacional descentralizado não é novo, o Bell Labs na década de 1980 criou o Plano 9 que mostrou o caminho a seguir para isso e é hora de continuar de onde pararam e concluir o trabalho.
Para os não iniciados, o Plan 9 do Bell Labs é um sistema operacional distribuído originado do Computing Science Research Center (CSRC) do Bell Labs em meados da década de 1980 e construído sobre conceitos UNIX desenvolvidos pela primeira vez lá no final da década de 1960. Desde 2000, o Plan 9 é gratuito e de código aberto. O lançamento oficial final foi no início de 2015. O Plano 9 substituiu o Unix como a principal plataforma do Bell Labs para pesquisa de sistemas operacionais. Explorou diversas mudanças no modelo Unix original que facilitam o uso e a programação do sistema, notadamente em ambientes multiusuários distribuídos.
Por que se preocupar com isso, por que se preocupar com isso? Bem, porque os conceitos por trás do Plano 9 (e até certo ponto, GridOS também mencionado no artigo original do Metaverse OS ) apontam o caminho para uma mudança radical em como realmente precisamos pensar sobre o design do sistema operacional e a arquitetura do kernel, especialmente no indústria espacial.
Descentralizado e Modular : algo novo deve ser concebido para ser descentralizado, o que significa que pode operar através de uma rede distribuída, reduzindo pontos únicos de falha e potencialmente aumentando a resiliência e a tolerância a falhas, que são críticas para operações baseadas no espaço.
Personalização : graças a uma arquitetura modular de microkernel, deve permitir maior flexibilidade. Os módulos podem ser adicionados ou removidos conforme necessário para diferentes aplicações ou missões, tornando-o altamente adaptável a vários requisitos.
Capacidades em tempo real : a integração de capacidades de processamento em tempo real, cruciais para aplicações sensíveis ao tempo, como as encontradas na exploração espacial e nas operações de satélite, aborda algumas das preocupações imediatas sobre a descentralização e a comunicação dos nós.
Orientado para a comunidade e de código aberto : deve ser construído num modelo de código aberto, incentivando as contribuições da comunidade e disponibilizando o código-fonte para revisão, o que pode promover a inovação e a confiança.
Compatibilidade e transição : precisa ser projetado tendo em mente a compatibilidade, para suportar plataformas de hardware existentes e poder executar aplicativos legados em módulos seguros, facilitando a transição de sistemas operacionais tradicionais.
O design de algo tão crítico teria a intenção de desmontar o quebra-cabeça existente da Red Hat, vários sabores de Linux, software embarcado e Vxworks da Wind River, criando um salto na arquitetura de sistema operacional e abrindo um espaço de mercado novo e incontestado. Ao provar o design em um dos mercados mais difíceis, você poderá então estar preparado para replicar e trabalhar retroativamente em setores semelhantes que serão necessários para a exploração espacial – incluindo mineração, manufatura, IOT e outras indústrias pesadas que se baseiam no mesmo software antigo. princípios.
O que o Windows é como plataforma de sistema operacional de uso geral e produtividade o tornaria uma plataforma de software operacional altamente sintonizada para o futuro da humanidade no espaço, como seu oposto.
Se você quiser levar isso um passo adiante, especialmente onde a Conscientização do Domínio Espacial (SDA) é uma iniciativa crítica com agências governamentais, então qualquer novo sistema operacional feito para a exploração espacial poderia ser um componente crítico para entidades civis e militares que operam ativos no espaço. também.
Integração de dados aprimorada : uma natureza modular permite a integração perfeita de vários sensores e fontes de dados. Esta capacidade é crucial para a SDA, onde os dados de radar, telescópios, satélites e outros sensores devem ser sintetizados para fornecer uma imagem abrangente do ambiente espacial.
Processamento e análise de dados aprimorados : o aspecto descentralizado de um novo sistema operacional pode facilitar o processamento distribuído de dados, reduzindo o tempo necessário para analisar grandes quantidades de dados no domínio espacial. O processamento de dados mais rápido leva a respostas mais oportunas a ameaças como detritos espaciais, manobras adversárias ou fenômenos naturais.
Resiliência e Redundância : para operações militares, a resiliência é crítica para que uma estrutura descentralizada possa oferecer maior resiliência contra ataques cibernéticos e falhas de sistema. Se um nó falhar, outros poderão assumir o controle, garantindo operações contínuas de SDA.
Interoperabilidade : como as operações militares envolvem frequentemente coligações, um sistema operacional descentralizado pode fornecer protocolos e interfaces de comunicação padronizados, permitindo a interoperabilidade entre sistemas de diferentes países e serviços, o que é essencial para os esforços conjuntos de SDA.
Adaptabilidade e escalabilidade : o design modular de um sistema operacional descentralizado permite uma rápida adaptação a novos sensores, tecnologias ou requisitos de missão. À medida que o domínio espacial evolui, também é possível incorporar novos módulos para atender às necessidades emergentes de SDA sem revisar todo o sistema.
Segurança : com uma nova arquitetura de kernel, os protocolos de segurança podem ser totalmente integrados em cada módulo, fornecendo medidas de segurança robustas que são vitais para operações militares. A natureza descentralizada também significa que é menos provável que um ataque a um módulo comprometa todo o sistema.
Eficiência de custos : a padronização em um sistema operacional modular pode levar à economia de custos, reduzindo a necessidade de desenvolvimento de software personalizado para cada nova iniciativa de SDA. Esta eficiência económica pode libertar recursos para outras necessidades críticas de defesa.
Agora, vamos discutir o futuro de sistemas operacionais como Windows e Linux em um mundo de inteligência artificial. Os sistemas operacionais monolíticos não são redundantes, onde podemos usar IA para construir aplicativos, navegar na web, responder perguntas complexas, realizar pesquisas e fazer compras com agentes automatizados à nossa disposição?
Eu diria que sim. A abordagem agora é apenas integrar LLMs e IA em várias partes do sistema operacional ou plataformas de produtividade, em vez de arquitetar a IA desde o início para ser integral . Diferença sutil.
A integração (mais como uma calçada) da IA em sistemas operacionais como o Windows levanta de fato a questão de saber se uma reformulação completa, começando do kernel para cima, é necessária para aproveitar totalmente as capacidades da IA nesta nova era, por isso precisamos dar uma olhada em o que pode ser necessário.
Integração profunda versus complementos superficiais: os sistemas operacionais atuais poderiam integrar a IA como uma camada adicional, aprimorando certas funcionalidades. No entanto, esta abordagem pode não aproveitar todo o potencial da IA. Uma reformulação a partir do nível do kernel poderia incorporar a IA mais profundamente nas funções principais do sistema operacional, levando a uma abordagem mais integral.
Gerenciamento e agendamento de recursos : os sistemas operacionais tradicionais não são projetados principalmente para as complexidades das cargas de trabalho de IA. Redesenhar o kernel poderia permitir um gerenciamento mais eficiente de recursos (como CPU, GPU e memória) para processos de IA, otimizando o desempenho e o consumo de energia.
Segurança e privacidade: a IA apresenta novos desafios de segurança e privacidade. Um kernel redesenhado tendo em mente a IA poderia incorporar protocolos de segurança mais avançados para lidar com esses desafios, especialmente no processamento de grandes volumes de dados confidenciais.
Processamento em Tempo Real e Edge Computing : Os aplicativos de IA, especialmente aqueles que envolvem aprendizado de máquina e processamento de dados em tempo real, podem se beneficiar do processamento de baixa latência e alta velocidade. Um redesenho no nível do kernel poderia otimizar esses processos, especialmente para cenários de computação de ponta.
Operação autônoma e autocura : um kernel orientado por IA poderia permitir que o sistema operacional executasse tarefas autônomas de otimização e autocura, prevendo e prevenindo falhas do sistema e otimizando o desempenho sem intervenção humana.
Aceleração de hardware : os aplicativos modernos de IA geralmente dependem de hardware especializado, como GPUs e TPUs. Um kernel projetado com isso em mente poderia fornecer melhor suporte e otimização para esse hardware, melhorando o desempenho do aplicativo de IA. Muito parecido com o que a Graphcore se propôs a fazer com sua IPU, mas não se adaptou ao mercado do produto e aos altos requisitos de investimento de capital para continuar.
Compatibilidade com versões anteriores e transição : um desafio significativo no redesenho do kernel para IA é manter a compatibilidade com aplicativos e sistemas existentes. Esta transição exigiria um planeamento cuidadoso e uma implementação gradual.
Se adotarmos uma abordagem revolucionária para o design de sistemas operacionais, combinando arquitetura AI-first, integração de IA em nível de kernel e descentralização como princípios básicos, um novo kernel e arquitetura de sistema operacional difeririam significativamente dos sistemas tradicionais como Windows e Linux. É claro que tal mudança também exigiria a superação de obstáculos significativos no caminho em termos de desenvolvimento, adoção e compatibilidade com a tecnologia e infraestrutura existentes. Não é tarefa fácil, mas se você abordar isso do ponto de vista de que construir um sistema operacional como este era uma estratégia do Oceano Azul, então ser paciente e nutrir isso ao longo de algumas décadas e este é um jogo maior e um prêmio a ser almejado.
A estratégia do oceano azul é a busca simultânea de diferenciação e baixo custo para abrir um novo espaço de mercado e criar nova demanda. Trata-se de criar e capturar espaço de mercado incontestado, tornando assim a concorrência irrelevante. Baseia-se na visão de que as fronteiras do mercado e a estrutura da indústria não são um dado adquirido e podem ser reconstruídas pelas ações e crenças dos participantes da indústria.
Os oceanos vermelhos são todas as indústrias que existem hoje – o espaço de mercado conhecido, onde as fronteiras da indústria são definidas e as empresas tentam superar os seus rivais para conquistar uma fatia maior do mercado existente. A competição acirrada torna o oceano vermelho-sangue. Daí o termo oceanos “vermelhos”.
Os oceanos azuis denotam todas as indústrias que não existem hoje – o espaço de mercado desconhecido, inexplorado e não contaminado pela concorrência. Tal como o oceano “azul”, é vasto, profundo e poderoso – em termos de oportunidades e crescimento rentável.
Um exemplo perfeito disso foi quando a Nintendo lançou o Wii.
O Nintendo Wii foi lançado em 2006 e tem como cerne o conceito de inovação de valor. Este é um princípio fundamental da estratégia do oceano azul, que busca simultaneamente o baixo custo e a diferenciação.
Para reduzir custos, a Nintendo eliminou a funcionalidade de disco rígido e DVD encontrada na maioria dos consoles de jogos e reduziu a qualidade de processamento e os gráficos. Ao mesmo tempo, a Nintendo introduziu um controle de movimento sem fio para se diferenciar da oferta do mercado. Isso permitiu à empresa oferecer uma série de novos recursos e benefícios que não haviam sido vistos anteriormente no mundo dos jogos, como a capacidade de usar um console de jogos para entrar em forma ou jogar em um grupo social maior.
Ao perseguir a inovação de valor, a Nintendo poderia ir além da competição com empresas como a PlayStation e a X-Box num oceano vermelho lotado e ferozmente competitivo. Em vez disso, foi capaz de abrir um mercado inteiramente novo. O Nintendo Wii, com seus novos recursos inovadores e preço acessível, atraiu um mercado inteiramente novo e expansivo – um oceano azul que abrange não jogadores, idosos e pais com filhos pequenos.
Ao adoptar a mesma abordagem com um novo sistema operativo, destruiria o mercado actual, repleto de dívidas técnicas e de legado, que seria incapaz de responder devido ao esforço necessário para mudar de direcção.
Não é um esforço simples ou pequeno, de forma alguma. A razão pela qual escolhi IA e Espaço foi porque são abordagens complementares para o mesmo problema e usam as mesmas respostas. Estamos construindo conceitos e ideias que nunca foram reunidos dessa forma antes, mas que podem levar aos alicerces dos próximos 50 a 100 anos de arquitetura de software, porque eles precisam ser adequados ao propósito do admirável mundo novo que está chegando. nós rápido.
Vejamos as atuais implantações experimentais de IPFS (Sistema de Arquivos Interplanetários) com a Lockheed Martin . Esta missão é a primeira do tipo a avaliar casos de uso no espaço para armazenamento descentralizado. Ele será hospedado a bordo do LM 400 Technology Demonstrator, autofinanciado pela Lockheed Martin – um satélite definido por software do tamanho de uma geladeira, projetado para apoiar uma ampla gama de missões e clientes. Assim que a espaçonave estiver em órbita, ela usará sua tecnologia de satélite definida por software SmartSat™ para carregar e realizar a demonstração IPFS.
Estamos experimentando tecnologias descentralizadas o tempo todo, mas parecemos hesitantes em torná-las uma base central das plataformas futuras.
Essas são estruturas conceituais e ideias que venho apresentando e só Deus sabe se elas vão durar, mas se houver alguém por aí concordando violentamente - seja você um engenheiro de software ou um investidor - bata na minha porta e vamos conversar, porque Tenho vontade de tornar isso realidade.
Também publicado aqui.