I begyndelsen af 2026 rejste en Tesla Model 3 fra Tesla Diner i Los Angeles til Myrtle Beach, South Carolina - en afstand på 2.732.4 miles. Han trykkede ikke på bremsen. I to dage og tyve timer navigerede bilen kontinentets mellemstatslige arterier, håndterede den kaotiske sammensmeltning af byudbredelser og dockede sig på Superchargers, alle kontrolleret af den usynlige hånd af Full Self-Driving (FSD) v14.2.1 Det var et "Kitty Hawk" øjeblik for autonom kørsel, en demonstration af, at intuitionen af et neuralt netværk endelig havde mestret strømmen af den åbne vej. af David Moss af David Moss Men i de tætte, tågefyldte gader i San Francisco foregår der en anden slags revolution. Der, hvide Jaguar I-PACEs, der bærer den roterende krone i Waymos sensor suite, navigerer i komplekse bymiljøer med ingen i førerens sæde overhovedet. Disse maskiner opererer på et grundlæggende anderledes princip. De reagerer ikke bare, de planlægger. De er afhængige af en bevidst, begrundet og verificeret metode - støttet af en sensor suite, der ser verden ikke bare som pixels, men som et præcist geometrisk gitter af lasermålet sandhed. På den ene side står Tesla, den maverick-oprøreren, der satser huset på en vision-kun-tilgang, der efterligner menneskelig biologi: øjne (kameraer) og en hjerne (neurale netværk). På den anden side er Waymo, den metodiske titan født fra Google, der anvender en flåde af robotaxis lastet med et sofistikeret, dyrt sortiment af lasere og radarer, langsomt men sikkert erobrer by efter by. Denne rapport er et udtømmende tårer af dette teknologiske løb for Gran Turismo of Autonomous Driving. Vi vil sprænge op for neurale netværk, analysere sensorfysikken, undersøge siliciumarkitekturen og analysere indsigterne fra AI-pionerer som Andrej Karpathy. Vi vil se ud over marketinghype til de rå ingeniørudfordringer, der er tilbage. Fra "March of Nines" til debatten mellem "hurtig" intuition og "langsom" ræsonnement, dette er den endelige dybe dykke ind i morgendagens autonome kørselsteknologi. Del I: Tankens arkitektur System 1 vs. System 2: Den kognitive motor For at forstå, hvorfor din bil en dag kan køre bedre end dig, skal vi først forstå, hvordan Nobelprismodtageren Daniel Kahneman beskrev menneskelig kognition på to måder: System 1 og System 2. du System 1 er hurtig, automatisk og intuitiv. Det er den del af din hjerne, der fanger en faldende kop, før du bevidst indser, at den er glidende, eller den del, der styrer din bil ned ad en velkendt motorvej, mens dit sind vandrer til, hvad du vil lave til middag. System 2 er langsom, bevidst og logisk. Det er den del af din hjerne, der engagerer, når du forsøger at løse et komplekst matematisk problem, eller – afgørende – når du støder på en forvirrende konstruktionszone med modstridende håndsignaler fra en arbejdstager og en politibetjent. I det sidste årti har den autonome køretøjsindustri (AV) i vid udstrækning bygget System 1-maskiner. De behandler sensordata og udgangskontrolkommandoer i millisekunder baseret på lærte mønstre. Men de seneste gennembrud i Generative AI og Large Language Models (LLMs) har introduceret muligheden for System 2 tænkning for biler - evnen til at "forklare" gennem edge-sager i stedet for blot at reagere på dem.3 Teslas end-to-end neurale netværk: Den intuitive lærde Teslas FSD v14 repræsenterer toppen af "System 1" tilgangen, skubbet til sin absolutte grænse gennem det, der er kendt som "End-to-End" (E2E) læring. I traditionel robotik blev kørsel opdelt i modulære opgaver: opfattelse (hvad ser jeg?), lokalisering (hvor er jeg?), planlægning (hvor skal jeg gå?), og kontrol (hvordan drejer jeg hjulet?). Tesla har fjernet det. FSD v12 og dens efterfølger v14 fjernet over 300.000 linjer heuristisk C++-kode, der erstatter den "regelbaserede" logik med massive neurale netværk trænet på millioner af videoklip.5 Kameraerne fodrer rå video ind i modellen, og modellen udleder styring og pedal kommandoer direkte. Den tekniske arkitektur af FSD v14 er bygget på et fundament af massiv data indtagelse og neural rendering. Det bruger "Occupancy Networks", som tager 2D video feeds fra otte kameraer og rekonstruere en 3D volumetrisk repræsentation af verden i realtid.7 Dette er ikke en simpel objektdetektion liste; det er en rumlig forståelse af "drivable rum" versus "hindring." Brillancen ved denne tilgang er dens skalerbarhed. Fordi den lærer af rå video, kræver den ikke HD-kort. Den behøver ikke at kende den nøjagtige GPS-koordinater af en bane for at vide, at den ikke skal krydse den. Den kigger simpelthen på vejen og "intuiterer" stien, ligesom en menneskelig chauffør gør på en ukendt landevej. Dette giver Tesla mulighed for at anvende FSD overalt, fra de kaotiske gader i Mumbai til de snedækkede passager i Norge, uden et forudgående kortlægningshold.8 Men "System 1" karakteren af end-to-end læring er også dens Achilles' hæl. Det er sandsynligt, ikke deterministisk. Det efterligner menneskelig adfærd - herunder, lejlighedsvis, menneskelige fejl. Og fordi det mangler et symbolsk "fornuft" lag, kan det kæmpe for at forklare Det tog en beslutning, hvilket gjorde debugging og sikkerhedsvalidering til et mareridt af statistiske sandsynligheder snarere end verificerbar logik.9 Det er et system af korrelation, ikke nødvendigvis årsagssammenhæng. Hvorfor Ashok Elluswamy, Teslas vicepræsident for Autopilot Software, leverede "Building Foundational Models for Robotics at Tesla" på International Conference on Computer Vision (ICCV) i oktober 2025. 3D besættelse og flow Objekter som køretøjer, fodgængere, cyklister osv. Trafikkontrol Vejgrænser, baner og semantik Hastighedsgrænser og andre vejegenskaber Beslutninger udtrykt som simpelt sprog Waymos hybridarkitektur: Den deliberative professor Waymo har taget en grundlæggende anderledes arkitektonisk vej. Mens de bruger dyb læring tungt for opfattelse og forudsigelse, har deres planlægnings- og kontrollag historisk været mere struktureret, der er afhængig af en modulær rørledning, der giver strenge sikkerhedsgarantier. Men Waymo ignorerer ikke AI-revolutionen.I deres nyeste 6th Generation Driver har de udtrykkeligt integreret en "System 2" -komponent.De bruger en Vision-Language-Action (VLA) -model - en type multimodal AI, der kan behandle visuelle data og "fornuft" om det ved hjælp af sprogfunktioner. Waymos arkitektur deler forskellen: Fast System (System 1): En sensorfusionskoder, der reagerer på millisekunder på biler, der skærer ind eller fodgængere, der træder ud af grænserne. Dette håndterer 99% af kørslen, som er rutinemæssig. Dette lag fusionerer kamera, LiDAR og radarindtastninger i en sammenhængende verdensstatusvektor.10 Slow System (System 2): En Driving VLM (Visual Language Model) trænet på Gemini evner. Dette system engagerer sig i kompleks, semantisk ræsonnement. For eksempel, hvis et Waymo-køretøj støder på en brændende bil på vejen, kan det "hurtige" system bare se en hindring. Den "slow" VLM forstår "brand", "fare" og "nødpersonale" og kan begrunde, at det ikke bare skal stoppe, men måske udføre en U-turn eller følge en politimands ikke-standard håndsignaler.10 Denne "Tænk hurtigt, tænk langsomt" -arkitektur gør det muligt for Waymo at have pålideligheden af en robot med tilpasningsevnen af et rationelt menneske.Det er kontrollerbart - ingeniører kan auditere VLM's "rationelle spor" for at se, hvorfor den besluttede at ignorere et grønt lys (måske fordi en politibetjent hvæste det for at stoppe det).11 Denne "forklarelighed" er et kritisk krav for regulatorer og sikkerhedsrevisorer, der er ubehagelige med "sorte bokse" karakteren af rene end-to-end netværk. I modsætning til Teslas skalerbare tilgang viste Waymos afhængighed af centraliseret, høj-fidelitetskortlægning og konnektivitet sig at være en sårbarhed under et stort strømbrud i San Francisco i slutningen af 2025. Da store dele af byen mistede strøm, stoppede flere Waymo-køretøjer pludselig, blokerede krydsninger og skabte lokaliseret gridlock. Hændelsen fremhævede sårbarheden af et system, der var afhængigt af konstant kommunikation og forvalterede driftsområder. Mens køretøjerne til sidst blev genoprettet uden hændelse, fungerede hændelsen som en stærk påmindelse om, at selv den mest deliberative "System 2" -arkitektur er modtagelig for fejl i den underliggende fysiske infrastruktur, en udfordring mindre akut for Nvidia Alpamayo: Demokratisering af hjernen Indtil for nylig havde kun Waymo og Tesla ressourcerne til at bygge disse massive verdensmodeller. Enter Nvidia. I begyndelsen af 2026 præsenterede Nvidia Alpamayo, en open-source "System 2" begrundelsesmodel for autonome køretøjer.4 Alpamayo introducerer "Chain-of-Thought" (CoT) begrundelse til det bredere bilmarked. I traditionel AI ser en model et billede og udleder "Construction Zone". .3 "Jeg ser orange koner, der blokerer den højre bane. Der er en arbejdstager, der holder et skilt. Skiltet siger 'Slow'. Arbejderen bevæger sig til venstre. Denne interne monolog gør det muligt for systemet at håndtere "Long Tail" af kørsel begivenheder - de sjældne, bizarre begivenheder, der sker en gang hver million miles. ved at bryde problemet ned i logiske trin, Alpamayo reducerer sandsynligheden for en katastrofal hallucination. Det effektiviserer den "fornuft" evne, der tidligere var den proprietære domæne af de teknologiske giganter, der tilbyder en "hjerne i en kasse" til arvede bilproducenter som Mercedes-Benz, Jaguar Land Rover og Lucid.12 Indsigt fra Andrej Karpathy: "March of Nines" Den tidligere direktør for AI hos Tesla og et grundlæggende medlem af OpenAI, giver den kritiske intellektuelle ramme for at forstå denne kamp. Han beskriver vejen til fuld autonomi ikke som en sprint, men som en "March of Nines".13 af Andrej Karpathy, af Andrej Karpathy, At få en selvkørende demo til at arbejde 90% af tiden er let. Det tager en weekend med kodning. At få det til 99% tager et år. At få det til 99,9% tager fem år. For at fjerne rattet har du brug for omkring "seks ni" af pålidelighed (99.9999%), hvilket betyder, at systemet kun fejler en gang hvert par millioner miles. Karpathy hævder, at de nuværende "System 1" -modeller (ligesom de tidlige FSD-versioner) i det væsentlige "suger tilsyn gennem en stang".14 De er afhængige af Reinforcement Learning (RL), hvor den eneste feedback er en disengagement. Han foreslår, at ægte autonomi kræver at løse de "kognitive underskud" af nuværende AI. Dagens modeller er som "imponerende autocomplete" motorer - de forudsiger den næste token (eller styring vinkel) baseret på statistisk sandsynlighed. En bold, der ruller ind i gaden, er farlig; den ved bare, at "bolden" i sine træningsdata normalt svarer til "bremsen". Hvorfor Del 2: Øjne på vejen - Sensorkrigen Den store skisma: Vision vs. Fusion Hvis arkitektur er hjernen, er sensorer øjnene.Og her er afvigelsen mellem Tesla og Waymo mest synlig – bogstaveligt talt. Tabel 1: Sammenligning af Sensor Suite Feature Tesla (Vision-Only) Waymo (Sensor Fusion - Gen 6) Primary Sensors 8 External Cameras 13 Cameras, 4 LiDAR, 6 Radar, Audio Receivers Depth Perception Inferred (AI estimation via Occupancy Nets) Direct (LiDAR Time-of-Flight) Map Reliance Low (Standard Nav Maps) High (HD Centimeter-Level Maps) Cost (Est.) < $500 per vehicle > $10,000+ (Significant reduction from Gen 5) Aesthetics Invisible (Integrated into body) Visible (Roof "Dome" + Peripherals) Theory "Humans drive with eyes; cars should too." "Superhuman safety requires superhuman senses." Primære sensorer 8 Eksterne kameraer 13 kameraer, 4 LiDAR, 6 radar, lydmodtagere Dyb perception Inferred (AI estimering via beskæftigelsesnet) Tid til flyvning (LiDAR Time-of-Flight) Kort om troværdighed Lav (Standard Nav kort) High (HD Centimeter-niveau kort) Omkostningerne er østlige. 500 kr. pr. bil > $10,000+ (Væsentlig reduktion fra Gen 5) æstetikere Invisible (integreret i kroppen) Visible (Tak "Dome" + Peripherals) Teori “Mennesker kører med øjnene, biler skal også.” "Overmenneskelig sikkerhed kræver overmenneskelige sanser." Tesla: Kameraet er ren Teslas filosofi, drevet af Elon Musk, er rodfæstet i de første principper: Hele vejsystemet blev designet til biologiske neurale netværk (hjerner) og optiske sensorer (øjne). Tesla fjernede radar (6) og ultralydssensorer (2) fra sine køretøjer, og stolede udelukkende på Tesla Vision (1,3,4,5). Fordele: Det er utroligt billigt og skalerbart. Hver Tesla Model 3 og Y, der ruller ud af linjen, er en potentiel dataindsamler og robotaxi. Der er ingen skrøbelige roterende lasere på taget. Ulemper: Kameraer er passive sensorer. de kan ikke "se" afstand; de skal estimere det, ligesom et menneske gør med et øje lukket (monokular dybde estimering). de er også blindede af de samme ting som blinde mennesker: direkte solskinn, kraftig regn, tyk tåge og mørke.8 For at kompensere bruger Tesla massive "Occupancy Networks" i sin software. Disse netværk tager videofeeds og konstruerer en real-time 3D-volumetrisk model af verden, der effektivt skaber en "virtual LiDAR" point cloud fra video.7 Det er en forbløffende bedrift af software engineering, men det forbliver en estimat. Hvis AI fejlagtigt fortolker en hvid lastbil mod en lys himmel (som skete i de tidlige Autopilot-katastrofer), "ser" det tomt rum. Waymo: Den synlige fusion Waymo mener, at for at overgå menneskets sikkerhed er der brug for overmenneskelig opfattelse. Mennesker bliver trætte, distraherede og har begrænset nattesyn. Waymos 6th Generation Driver Stack er et mirakel af sensorintegration.17 LiDAR (Light Detection and Ranging): Maler verden i millioner af laserpunkter, der giver nøjagtige afstandsmålinger nøjagtige til centimeter, uanset belysningsforhold. Den bruger laserimpulser (ved 905nm eller 1550nm bølgelængder) til at måle Time-of-Flight. Den fungerer i pitch svartness. Den skærer gennem glare. Den kan ikke narres af et billede af en tunnel malet på en væg. Radar: Waymo bruger avanceret imaging radar, der ser gennem tåge, regn og sne. afgørende, radar måler hastighed øjeblikkeligt ved hjælp af Doppler-effekten. Et kamera har brug for flere rammer for at beregne, at en bil foran bremser hårdt; radar ved det øjeblik hastighedsvektoren ændrer. Kameraer: Waymo bruger 13 kameraer (ned fra 29 i Gen 5) til at læse trafiklys, skilte og bremselys (farve og semantik).17 Lydmodtagere: En dedikeret række mikrofoner giver bilen mulighed for at "høre" sirener, horn og endda retningen af nærmer sig nødbiler. Den 6. generations suite er blevet optimeret for omkostningerne, hvilket reducerer antallet af sensorer og samtidig øger rækkevidden og opløsningen. Denne "sensorfusion" skaber et redundant sikkerhedsnet. Hvis kameraet er blindet af solen, ser LiDAR stadig bilen foran. Hvis LiDAR er forvirret af kraftigt regn (som kan sprede laserstråler), ser radaren igennem det.19 Debatens fysik: Signal til støj Debatten koger ofte ned til "signal-til-støj" -forholdet. LiDAR giver en høj-signal, lav-støj repræsentation af geometri. Det fortæller dig nøjagtigt, hvor jorden er, og hvor en hindring er. Kameraer giver enorme mængder data (farve, tekstur, tekst), men er "støjfyldte" med hensyn til geometri. AI skal gøre tung løftning for at finde ud af, at et fladt mønster på bagsiden af en lastbil ikke er et 3D-objekt, eller at en pudle ikke er et sinkhole. Tesla satser på, at computing (AI) til sidst vil blive god nok til at løse støj af kameraer perfekt. Waymo satser på, at at have "jordens sandhed" data fra LiDAR er en genvej til sikkerhed, der ikke kan omgås af software alene. Del III: Hjertet (Silicon) – The Compute Bottleneck Flytningen til "System 2" ræsonnement og end-to-end neurale net kræver massiv onboard computing power. Da der ikke er nogen offentligt tilgængelige oplysninger om Waymos computing hardware, bedes du være velkommen til at tilføje i kommentarerne eller ping mig direkte. Tesla AI4: Effektivitetsspillet Den nuværende hardware, HW4 (AI4), er en brugerdefineret inference computer bygget på en Samsung 7nm proces.20 Specs: Anslået 100-150 TOPS (Tera Operations Per Second) ved INT8 nøjagtighed. Arkitektur: Optimeret til behandling af videostrømme fra 8 kameraer. Den har specialiserede Neural Processing Units (NPU'er) og et redundant dual-SoC design. The Bottleneck: Forskning tyder på, at Teslas begrænsning ikke kun er råhastighed, men hukommelsesbåndbredde.Behandling af video i høj opløsning og kørsel af massive Transformers (som V14-modellen) kræver at flytte enorme mængder data ind og ud af chipens hukommelse. AI4 bruger GDDR6-hukommelse (som en gaming-pc) til at opnå ~384 GB/s båndbredde.20 Denne begrænsning af båndbredden er kritisk. Store "System 2" -modeller (VLM'er) kræver massiv hukommelsesgennemstrømning for at holde deres "kontekstvindue" (historien om, hvad der lige skete). Tesla's vision-only tilgang indtager enorme mængder rå video data, som mætter hukommelsesbussen. Elon Musk har udtalt, at næste generation chip, AI5, vil have 5x hukommelsesbåndbredden og 10x computeren. Men AI5 er ikke forventet indtil slutningen af 2026 eller 2027. Dette sætter Tesla i en usikker position: FSD v14 skubber grænserne for nuværende HW4 hardware. Kan de passe en "fornuft" agent (System 2) på de nuværende biler? Det er en stram press, tvinger dem til at Anmeldelse af Thor: The Sledgehammer Mens Tesla bygger skræddersyede chips, bygger Nvidia "Thor" -platformen til resten af branchen. Specifikationer: Op til 2000 TFLOPS (ved hjælp af FP4-nøjagtighed).20 Arkitektur: Bygget på TSMC 4N-processen (en brugerdefineret 5nm-node). Den integrerer CPU, GPU og kontrolsystemer i en SoC (System on Chip) baseret på Blackwell-arkitekturen. Fordel: Thor er udtrykkeligt designet til Transformer-modellerne og Large Language Models (LLM'er), der driver "System 2" -tænkning. Den har den rå grund til at køre modeller som Alpamayo sammen med resten af bilens software. Den understøtter native FP4 (4-bit floating point) kvantificering, som giver den mulighed for at køre massive modeller med mindre hukommelsespåvirkning.21 Tabel 2: Silicon Showdown Spec Tesla AI4 (Current) Nvidia Thor (Next-Gen) Compute ~150 TOPS (INT8) ~2,000 TFLOPS (FP4) Process Node Samsung 7nm TSMC 4N (5nm class) Memory Type GDDR6 LPDDR5X Memory Bandwidth ~384 GB/s ~273 GB/s (per chip) Primary Use Vision Inference VLM/LLM Reasoning + Vision Adopters Tesla Mercedes, Zeekr, Lucid, BYD Beregner ~ 150 Tops (int8) ~ 2.000 TFLOPS (FP4) Process Node af Samsung 7nm TSMC 4N (5nm klasse) Hukommelsestype af GDDR6 LPDDR5X udstyr hukommelsesbåndbredde • 384 GB/s ~273 GB/s (per chip) Primær brug Vision Inference VLM / LLM begrundelse + vision Adoptere Tesla er Mercedes, Zeekr, Lucid og BYD Den indsigt: Tesla's vertikale integration tillod dem at lede tidligt, men Nvidia's massive R&D-skala i datacentret trickles ned til biler. Thor er en monsterchip, der kunne tillade konkurrenter at "springe" Teslas ældre HW4 silicium i form af rå begrundelsesevne, forudsat at de kan skrive softwaren til at bruge det. Del IV: Databrændstoffet – kvalitet vs. kvantitet Og i løbet for autonomi, de to virksomheder forbruger meget forskellige kostvaner. Tesla: Havet af data Tesla har en flåde på over 5 millioner køretøjer på vejen. En betydelig del af disse kører FSD (Supervised) eller opererer i "Shadow Mode". Shadow Mode: Selv når et menneske kører, kører Tesla-computeren i baggrunden og foretager forudsigelser.Hvis computeren forudsiger "vend venstre" og mennesket går lige, markerer systemet denne divergence og uploader dataene til Teslas servere.5 Dette giver dem mulighed for at fange den "lange hale" af mærkelige begivenheder - madrasser på motorvejen, heste og buggies, blizzards i North Dakota - som en mindre flåde måske aldrig ser. V14 Leap: Med FSD v14 har Tesla skaleret sine træningsparametre med 10x.22 De træner på massive klynger af Nvidia H200s (og snart deres egen Dojo supercomputer), forsøger at "bruttokraft" løsningen gennem ren mængde erfaring. Waymo: Det kurerede bibliotek Waymos flåde er lille ved sammenligning - tusindvis af køretøjer, ikke millioner.De har akkumuleret omkring 100 millioner autonome miles.10 Men Waymo hævder, at deres data er af uendeligt højere kvalitet. High-Fidelity Labels: Fordi Waymo biler bruger LiDAR, deres træningsdata kommer med perfekt "jord sandhed" dybde. Simulering: Waymo er stærkt afhængig af simulering (Carcraft).De tager virkelige møder og fusionerer dem i millioner af variationer i en virtuel verden, træner deres system på milliarder af simulerede miles, der er fysisk nøjagtige.10 Closed Loop Feedback: Waymos system lærer fra sin egen kørsel. Det bruger en "Kritisk" model til at evaluere sin egen ydeevne og flag suboptimale adfærd til omtræning. The Insight: Tesla spiller et spil med bredde; de har set alt undtagen med "støj" visionsdata. Waymo spiller et spil med dybde; de har set mindre, men med "perfekt" sensorpræcision, og de simulerer resten. Tesla mener, at "kvantitet har en kvalitet helt sin egen." Del V: Nylige udviklinger og virkelighedskontrollen The Coast-to-Coast Drive: Et nyt benchmark I begyndelsen af 2026 skiftede debatten fra teoretisk til praktisk. En Tesla ejer, David Moss, dokumenterede en nul-intervention kørsel fra Los Angeles til Myrtle Beach ved hjælp af FSD v14.2. Denne præstation er vigtig af flere grunde: Generalisering: Det beviser, at "end-to-end" -modellen generaliserer på tværs af statslinjer, forskellige vejmærkninger og varierende vejrforhold. Pålidelighed: Mens en drev er statistisk ubetydelig (en "prøve størrelse på en"), antyder det faktum, at det er muligt, at MTBF (Mean Time Between Failures) af FSD er forbedret med størrelsesordener siden v12. Community Validation: Enheden blev sporet via Whole Mars FSD-databasen, hvilket tilføjer et lag af verifikation, der ofte mangler fra producentens påstande.24 Derudover har jeg personligt hørt ganske få anekdotiske succeshistorier om Tesla FSD v14 fra mit eget netværk i løbet af ferie sæsonen 2025-2026. Mine venner har gennemført end-to-end returrejser fra San Francisco til LA og Bay Area til Lake Tahoe (ski resorts) uden nogen menneskelig intervention. Men kritikere forbliver skeptiske. De peger på "Gamblers falskhed." Hvis systemet har en fejlfrekvens på 1 i 10.000 miles, kan du nemt køre 3.000 miles uden et problem. Men for at være en robottaxi (ingen driver), har du brug for en fejlfrekvens på 1 i 10.000.000 miles. En menneskelig driver er stadig statistisk sikrere end FSD v14 over det samlede antal kørte miles.25 Waymo virkelighed Mens Tesla fejrer en enkelt tværnational kørsel, driver Waymo en kommerciel tjeneste I byer som Phoenix, San Francisco og Los Angeles kører Waymo-køretøjer tomt, afhenter betalende passagerer og beskæftiger sig med nødhjælp, regn og byggeri hver dag.8 i dag i dag The Stat: Waymo har en kraschrate betydeligt lavere end menneskelige chauffører i de områder, den opererer (0,7 krasch per million miles vs 4,85 for mennesker).25 Begrænsningen: Waymo er geofenced. Det kan ikke bare køre til Myrtle Beach i morgen. Det har brug for kort og validering. Del VI: Fremtidige forudsigelser og vejen frem Hvem vinder Gran Turismo? svaret afhænger af tidslinjen og definitionen af sejr. The Short Term (2026-2028): Waymo dominerer Robotaxi, Tesla dominerer ADAS Waymo: Vil fortsætte med at skalere by efter by. Deres enhedsomkostninger falder (Gen 6), og deres sikkerhedssag er bevist. De vil eje "Uber-uden-a-driver" markedet i store tætte metroser. Tilføjelsen af VLM (System 2) vil hjælpe dem med at håndtere de sjældne kantsager, der tidligere standsede dem. Tesla: FSD v14 vil blive et utroligt "overvåget" system. Det vil køre dig kyst til kyst, men du bliver stadig nødt til at være opmærksom. Hoppet til "Unsupervised" (fjernelse af rattet) er eksponentielt sværere end hoppet til v14. Hardwarebegrænsningerne i HW4 kan forhindre fuld L5-autonomi, hvilket tvinger en ventetid på AI5. Den langsigtede (2029+): Konvergens Vi vil se "kommoditiseret autonomi", hvor en Mercedes eller en Hyundai har "fornuft" evner svarende til Waymo, drevet af Nvidia. Tesla’s Data Victory: Hvis – og det er en stor hvis – Tesla kan løse det "fornuftfulde" problem ved hjælp af deres massive videoflåde og end-to-end-træning, vinder de det globale spil. En Waymo pivot: Dette er helt spekulativt, men baseret på den enorme hjernekraft af Google AI Research og dens hurtige fremskridt i Gemini suite af multi-modale modeller, er der mulighed for, at Google kan hemmeligt køre et parallelt program med en fundamentalt anderledes systemarkitektur. Det vilde kort: System 2 destillation Den banebrydende forskning (refereret i 26) involverer "destilling" den tunge, langsomme System 2 ræsonnement af store modeller i hurtige, effektive System 1 netværk. Forestil dig, at en studerende (System 1) lærer af en professor (System 2).Professoren tænker langsomt og forklarer hvorfor. Tesla og Waymo konkurrerer begge om at gøre dette. Waymo bruger sin VLM til at undervise sin kørepolitik. Tesla bruger sine kurerede videoklip (mærket af auto-labelers) til at undervise sit end-to-end netværk. Forudsigelse: Vinderen vil være det firma, der bedst automatiserer denne "lærer-studerende" loop. Tesla har flere "studerende" (biler) og data. Waymo har en bedre "professor" (verificerede, grundlæggende sandhedsdata). Titel: Den uendelige mil Rejsen fra Los Angeles til Myrtle Beach var en triumf af teknik, et vidnesbyrd om, hvor langt neurale netværk er kommet.Men afstanden mellem "virker 99% af tiden" og "virker godt nok til at sove i bagsædet" måles ikke i miles; det måles i ni. Tesla springer ned ad denne vej med en vision om universel, overkommelig autonomi, drevet af sin flådes store skala og dristigheden i sin "vision-only" satsning. Da Nvidia demokratiserer bilens "hjerne" med værktøjer som Alpamayo, kan forskellen mellem de to være uklar. Biler vil lære at begrunde. De vil lære at forklare sig selv. Og et eller andet sted i det usynlige håndtryk mellem et kamera, en laser og en siliciumchip, vil geniet i maskinen endelig tage rattet for godt. Referencerne Elon Musk reagerer efter Tesla ejer fuldfører første nogensinde fuldt autonom kørsel over hele Amerika - UNILAD Tech, adgang 7. januar 2026, https://www.uniladtech.com/vehicles/car-news/musk-responds-tesla-owner-first-autonomous-drive-867091-20260102 Tesla FSD fuldfører med succes fuld kyst-til-kyst-drift med nul indgreb - Teslarati, adgang den 7. januar 2026, https://www.teslarati.com/tesla-fsd-successfully-completes-full-coast-to-coast-drive-with-zero-interventions/ Selvkørsel Er blevet løst af NVIDIA?, adgang den 7. januar 2026, https://www.youtube.com/shorts/gVbpwlNdUTg Byg selvkørende køretøjer, der er årsag med NVIDIA Alpamayo ..., tilgængelig den 7. januar 2026, https://developer.nvidia.com/blog/building-autonomous-vehicles-that-reason-with-nvidia-alpamayo/ Deep Dive: Tesla, Waymo, og den store Sensor Debate, Contrary Research, tilgængelig den 7. januar 2026, https://research.contrary.com/report/tesla-waymo-and-the-great-sensor-debate Den nysgerrige lange hale af automatiseret kørsel: Det læser sind, men stopper for langt fra billetmaskinen - ResearchGate, adgang den 7. januar 2026, https://www.researchgate.net/publication/387997832_The_curious_long_tail_of_automated_driving_It_reads_minds_but_stops_too_far_from_the_ticket_machine Tesla's FSD Redefines Autonomous Driving - Veltyx, adgang 7. januar 2026, https://www.veltyx.de/en/post/tesla-s-fsd-redefines-autonomous-driving Hvad er forskellen i tilgang mellem Tesla FSD og Waymo, og hvilken er bedre?, adgang 7. januar 2026, https://www.reddit.com/r/SelfDrivingCars/comments/1mmxu53/whats_the_difference_in_approach_between_tesla/ Kyle taler om fordele og ulemper ved Waymo og Tesla-tilgange : r/SelfDrivingCars - Reddit, adgang den 7. januar 2026, https://www.reddit.com/r/SelfDrivingCars/comments/1lkcco0/kyle_talks_pros_and_cons_of_waymo_and_tesla/ Demonstrativt sikker AI til autonom kørsel - Waymo, adgang den 7. januar 2026, https://waymo.com/blog/2025/12/demonstrativt sikker-ai-for-autonomous-kørsel Waymo: "Verifierbar og sikker" autonom kørsel AI - EEWorld, tilgængelig den 7. januar 2026, https://en.eeworld.com.cn/news/qcdz/eic715466.html NVIDIA annoncerer Alpamayo-familien af open-source AI-modeller og værktøjer til at fremskynde udviklingen af sikre, begrundede autonome køretøjer, tilgængelig den 7. januar 2026, https://nvidianews.nvidia.com/news/alpamayo-autonomous-vehicle-development Andrej Karpathy fortalte Dwarkesh, at AGI stadig er et årti væk. - The Neuron, adgang 7. januar 2026, https://www.theneuron.ai/explainer-articles/andrej-karpathy-told-dwarkesh-that-agi-is-still-a-decade-away Beyond the Hype: 5 Counter-Intuitive Truths About AI fra Andrej Karpathy, tilgængelig den 7. januar 2026, https://dev.to/amananandrai/beyond-the-hype-5-counter-intuitive-truths-about-ai-from-andrej-karpathy-afk Andrej Karpathy — AGI er stadig et årti væk - Dwarkesh Podcast, tilgængelig den 7. januar 2026, https://www.dwarkesh.com/p/andrej-karpathy Problemer under overfladen med Tesla FSD vs. Waymo Driver - CleanTechnica, tilgængelig den 7. januar 2026, https://cleantechnica.com/2025/12/16/issues-under-the-surface-with-tesla-fsd-vs-waymo-driver/ New Waymo robotaxi tilbyder bedre ydeevne til en lavere pris - The Robot Report, tilgængelig den 7. januar 2026, https://www.therobotreport.com/new-waymo-robotaxis-offers-better-performance-at-lower-cost/ Mød den 6. generation Waymo Driver : r/singularity - Reddit, adgang den 7. januar 2026, https://www.reddit.com/r/singularity/comments/1ewdrd1/meet_the_6thgeneration_waymo_driver/ Tesla's Robotaxi Bet: Vision-Only vs. Multi-Sensor Reality Check - EYE2DRIVE, adgang den 7. januar 2026, https://www.eye2drive.com/2025/06/19/tesla-testing-vision-only-autonomy-in-robotaxi-fleet/ Tesla AI4 vs. NVIDIA Thor: den brutale virkelighed af selvkørende computere eBay Electrek, adgang 7. januar 2026, https://electrek.co/2025/11/25/tesla-ai4-vs-nvidia-thor-virkelighed-selvkørende computere/ Introduktion af NVIDIA Jetson Thor, den ultimative platform for fysisk AI, tilgængelig den 7. januar 2026, https://developer.nvidia.com/blog/introducing-nvidia-jetson-thor-the-ultimate-platform-for-physical-ai/ Kinas intelligente køreindustri: Dramatiske ændringer i computing power - 36 virksomheder, adgang 7. januar 2026, https://eu.36kr.com/en/p/3617790434980357 Tesla vs. Waymo vs. Cruise: Hvem er i spidsen for det autonome køretøjsrace? (Market Share Stats) Ebay PatentPC, tilgængelig den 7. januar 2026, https://patentpc.com/blog/tesla-vs-waymo-vs-cruise-whos-leading-the-autonomous-vehicle-race-market-share-stats Tesla FSD Opnår Første Fuldt Autonome USA Coast-to-Coast Drive : r/singularity - Reddit, tilgængelig den 7. januar 2026, https://www.reddit.com/r/singularity/comments/1q0pvbr/tesla_fsd_achieves_first_fully_autonomous_us/ Elon på Waymo: "Aldrig virkelig haft en chance mod Tesla" Waymo Details AI Safety Strategy : r/SelfDrivingCars - Reddit, tilgængelig den 7. januar 2026, https://www.reddit.com/r/SelfDrivingCars/comments/1pj4ufx/elon_on_waymo_never_really_had_a_chance_against/ Distillering af flersprogede store sprogmodeller til autonom kørsel - arXiv, tilgængelig den 7. januar 2026, https://arxiv.org/html/2501.09757v1 Distilling System 2 til System 1 - arXiv, tilgængelig den 7. januar 2026, https://arxiv.org/html/2407.06023v1 Ashok Elluswamy “Foundation model for FSD”, ICCV 2025 præsentation https://www.youtube.com/watch?v=IkW8hIGimfs https://www.uniladtech.com/vehicles/car-news/musk-responds-tesla-owner-first-autonomous-drive-867091-20260102 https://www.teslarati.com/tesla-fsd-successfully-completes-full-coast-to-coast-drive-with-zero-interventions/ https://www.youtube.com/shorts/gVbpwlNdUTg https://developer.nvidia.com/blog/building-autonomous-vehicles-that-reason-with-nvidia-alpamayo/ https://research.contrary.com/report/tesla-waymo-and-the-great-sensor-debate https://www.researchgate.net/publication/387997832_The_curious_long_tail_of_automated_driving_It_reads_minds_but_stops_too_far_from_the_ticket_machine https://www.veltyx.de/en/post/tesla-s-fsd-redefines-autonomous-driving https://www.reddit.com/r/SelfDrivingCars/comments/1mmxu53/whats_the_difference_in_approach_between_tesla/ https://www.reddit.com/r/SelfDrivingCars/comments/1lkcco0/kyle_talks_pros_and_cons_of_waymo_and_tesla/ https://waymo.com/blog/2025/12/demonstrably-safe-ai-for-autonomous-driving https://en.eeworld.com.cn/news/qcdz/eic715466.html https://nvidianews.nvidia.com/news/alpamayo-autonomous-vehicle-development https://www.theneuron.ai/explainer-articles/andrej-karpathy-told-dwarkesh-that-agi-is-still-a-decade-away https://dev.to/amananandrai/beyond-the-hype-5-counter-intuitive-truths-about-ai-from-andrej-karpathy-afk https://www.dwarkesh.com/p/andrej-karpathy https://cleantechnica.com/2025/12/16/issues-under-the-surface-with-tesla-fsd-vs-waymo-driver/ https://www.therobotreport.com/new-waymo-robotaxis-offers-better-performance-at-lower-cost/ https://www.reddit.com/r/singularity/comments/1ewdrd1/meet_the_6thgeneration_waymo_driver/ https://www.eye2drive.com/2025/06/19/tesla-testing-vision-only-autonomy-in-robotaxi-fleet/ https://electrek.co/2025/11/25/tesla-ai4-vs-nvidia-thor-reality-self-driving-computers/ https://developer.nvidia.com/blog/introducing-nvidia-jetson-thor-the-ultimate-platform-for-physical-ai/ https://eu.36kr.com/en/p/3617790434980357 https://patentpc.com/blog/tesla-vs-waymo-vs-cruise-whos-leading-the-autonomous-vehicle-race-market-share-stats https://www.reddit.com/r/singularity/comments/1q0pvbr/tesla_fsd_achieves_first_fully_autonomous_us/ https://www.reddit.com/r/SelfDrivingCars/comments/1pj4ufx/elon_on_waymo_never_really_had_a_chance_against/ https://arxiv.org/html/2501.09757v1 https://arxiv.org/html/2407.06023v1