A principios de 2026, un Tesla Model 3 viajó desde el Tesla Diner en Los Ángeles a Myrtle Beach, Carolina del Sur - una distancia de 2.732.4 millas. , no tocó la rueda. No presionó el acelerador. No tocó el freno. Durante dos días y veinte horas, el coche navegó por las arterias interestatais de un continente, manejó la fusión caótica de las extensiones urbanas, y se dockó en Superchargers, todo controlado por la mano invisible de Full Self-Driving (FSD) v14.2.1 Fue un momento "Kitty Hawk" para la conducción autónoma, una demostración de que la intuición de una red neural había dominado finalmente el flujo de la carretera abierta. David Moss David Moss Sin embargo, en las densas calles llenas de niebla de San Francisco, se está produciendo un tipo diferente de revolución. Allí, los Jaguar I-PACEs blancos que llevan la corona giratoria de la suite de sensores de Waymo están navegando en entornos urbanos complejos sin nadie en el asiento del conductor en absoluto. Estas máquinas operan sobre un principio fundamentalmente diferente. No están sólo reaccionando; están planificando. Se basan en un método deliberado, razonado y verificado - respaldado por una suite de sensores que ve el mundo no sólo como píxeles, sino como una red geométrica precisa de verdad medida por láser. En un lado está Tesla, el insurgente maverick, apostando a la casa por un enfoque que imita la biología humana: ojos (cámaras) y un cerebro (redes neurales). En el otro lado está Waymo, el metódico titán nacido de Google, desplegando una flota de robotaxis cargada con una sofisticada, cara gama de láseres y radares, lentamente pero seguramente conquistando ciudad tras ciudad. Este informe es una exhaustiva descarga de lágrimas de esta carrera tecnológica para el Gran Turismo de la Conducción Autónoma. Abriremos las redes neuronales, analizaremos la física del sensor, examinaremos la arquitectura de silicio y analizaremos las ideas de pioneros de la IA como Andrej Karpathy. Miraremos más allá del hype de marketing a los retos de ingeniería cruda que quedan. Desde la "Marcha de los Nueve" hasta el debate entre la intuición "rápida" y el razonamiento "lento", esta es la inmersión profunda definitiva en la tecnología de conducción autónoma del mañana. Parte I: La arquitectura del pensamiento Sistema 1 vs. Sistema 2: El motor cognitivo Para entender por qué tu coche podría un día conducir mejor que tú, primero debemos entender cómo El premio Nobel Daniel Kahneman describió la cognición humana en dos modos: Sistema 1 y Sistema 2. tú Sistema 1 es rápido, automático e intuitivo.Es la parte de tu cerebro que captura una taza que cae antes de que te das cuenta conscientemente de que se ha deslizado, o la parte que dirige tu coche por una autopista familiar mientras tu mente vagaba hacia lo que vas a hacer para la cena. Sistema 2 es lento, deliberado y lógico.Es la parte de tu cerebro que se involucra cuando intentas resolver un problema matemático complejo, o, crucialmente, cuando encuentras una confusa zona de construcción con señales de mano conflictivas de un trabajador y un oficial de policía.Requiere razonamiento activo, simulación de resultados futuros y elección consciente. Durante la última década, la industria de los vehículos autónomos (AV) ha estado construyendo en gran medida máquinas de sistema 1. Procesan datos de sensores y comandos de control de salida en milisegundos basados en patrones aprendidos.Pero los recientes avances en los modelos de inteligencia artificial generativa y de gran lenguaje (LLM) han introducido la posibilidad de que el sistema 2 piense en automóviles, la capacidad de "razonar" a través de casos de borde en lugar de simplemente reaccionar a ellos.3 La Red Neural End-to-End de Tesla: El Estudiante Intuitivo El FSD v14 de Tesla representa el punto culminante del enfoque “Sistema 1”, empujado a su límite absoluto a través de lo que se conoce como aprendizaje “de fin a fin” (E2E).En la robótica tradicional, la conducción se dividió en tareas modulares: percepción (¿qué veo?), localización (¿dónde estoy?), planificación (¿dónde debo ir?), y control (¿cómo debo girar la rueda?). Tesla ha eliminado eso. FSD v12 y su sucesor v14 eliminaron más de 300.000 líneas de código heurístico C++, reemplazando la lógica "basada en reglas" con masivas redes neuronales entrenadas en millones de vídeos.5 Las cámaras alimentan vídeo crudo al modelo, y el modelo emite el volante y pedales directamente. Es una "caixa negra" de intuición. Aprende a conducir no diciendo las reglas de la carretera, sino viendo a los humanos conducir miles de kilómetros. La arquitectura técnica de FSD v14 está construida sobre una base de ingestión de datos masivos y renderización neural. utiliza "Occupancy Networks" que toman feeds de vídeo 2D de ocho cámaras y reconstruyen una representación volumétrica 3D del mundo en tiempo real.7 Esta no es una simple lista de detección de objetos; es una comprensión espacial de "espacio movible" versus "obstáculo". El brillo de este enfoque es su escalabilidad. Debido a que aprende de vídeo crudo, no requiere mapas de alta definición (HD). No necesita conocer la coordenada GPS exacta de una línea de pista para saber que no debería cruzarla. Simplemente mira la carretera e "intuye" el camino, al igual que un conductor humano hace en una carretera rural desconocida. Esto permite a Tesla desplegar el FSD en cualquier lugar, desde las calles caóticas de Mumbai hasta los pases nevados de Noruega, sin un equipo de pre-mapaje.8 Sin embargo, la naturaleza del "Sistema 1" del aprendizaje de fin a fin es también su talón de Aquiles. Es probabilista, no determinista. Imita el comportamiento humano -incluyendo, ocasionalmente, errores humanos. Y porque carece de una capa simbólica de "razonamiento", puede luchar para explicar tomó una decisión, convirtiendo la verificación y la validación de seguridad en una pesadilla de probabilidades estadísticas en lugar de una lógica verificable.9 Es un sistema de correlación, no necesariamente causal. por qué Ashok Elluswamy, VP de Autopilot Software de Tesla, entregó "Building Foundational Models for Robotics at Tesla", en la Conferencia Internacional sobre la Visión Computacional (ICCV) en octubre de 2025.Esta charla tecnológica, nos dio un vistazo a las mejoras de "Sistema 2" de Tesla FSD para ayudar en la interpretabilidad y la seguridad a través de "verificación de la cadena de pensamiento y proceso", el modelo de fundación predice muchas salidas interpretables. Ocupación y flujo 3D Objetos como vehículos, peatones, ciclistas, etc. Controles de tráfico Fronteras de carreteras, líneas y semántica Limitaciones de velocidad y otros atributos de la carretera Decisiones expresadas como lenguaje simple Arquitectura híbrida de Waymo: el profesor deliberativo Si bien utilizan profundamente el aprendizaje para la percepción y la predicción, sus capas de planificación y control han sido históricamente más estructuradas, dependiendo de una tubería modular que permite estrictas garantías de seguridad. Sin embargo, Waymo no está ignorando la revolución de la IA. En su último controlador de 6a Generación, han integrado un componente "Sistema 2" explícitamente. Utilizan un modelo de visión-lenguaje-acción (VLA) - un tipo de IA multimodal que puede procesar datos visuales y "razón" sobre él usando capacidades de lenguaje. La arquitectura de Waymo divide la diferencia: Sistema rápido (Sistema 1): Un codificador de fusión de sensores que reacciona en milisegundos a los coches cortando o a los peatones saltando de las curvas. Esto maneja el 99% de la conducción que es rutinaria. Esta capa fusiona las entradas de la cámara, LiDAR y radar en un vector de estado mundial coherente.10 Sistema lento (Sistema 2): Un VLM de conducción (modelo de lenguaje visual) entrenado en las capacidades de Gemini. Este sistema se compromete con el razonamiento semántico complejo. Por ejemplo, si un vehículo de Waymo se encuentra con un coche en llamas en la carretera, el sistema "rápido" puede ver sólo un obstáculo. El VLM "lento" entiende "fuego", "peligro" y "personal de emergencia" y puede razonar que no debe simplemente detener, sino tal vez ejecutar un giro U o seguir las señales de mano no estándar de un oficial de policía.10 Esta arquitectura de “pensar rápido, pensar lento” permite a Waymo tener la fiabilidad de un robot con la adaptabilidad de un raciocinio humano.Es verificable: los ingenieros pueden auditar el “trazo raciocinante” del VLM para ver por qué decidió ignorar una luz verde (tal vez porque un oficial de policía la estaba vacilando para detenerla).11 Esta “explicabilidad” es un requisito crítico para los reguladores y auditores de seguridad que se sienten incómodos con la naturaleza de la “caixa negra” de las redes puras de extremo a extremo. En contraste con el enfoque escalable de Tesla, la dependencia de Waymo en el mapeo y la conectividad centralizados y de alta fidelidad resultó ser una vulnerabilidad durante un gran apagón de energía en San Francisco a finales de 2025.Cuando grandes secciones de la ciudad perdieron energía, varios vehículos de Waymo se paralizaron abruptamente, bloqueando intersecciones y creando una red localizada.El incidente destacó la fragilidad de un sistema dependiente de comunicaciones constantes y dominios operativos prevalidados.Mientras que los vehículos fueron finalmente recuperados sin incidentes, el evento sirvió como un fuerte recordatorio de que incluso la arquitectura "Sistema 2" más deliberativa es susceptible a fallos en la infraestructura física subyacente, un desafío menos agudo para los modelos de visión de Tesla Nvidia Alpamayo: democratizar el cerebro Hasta hace poco, sólo Waymo y Tesla tenían los recursos para construir estos enormes modelos del mundo.Entren en Nvidia.A principios de 2026, Nvidia presentó Alpamayo, un modelo de razonamiento de código abierto "Sistema 2" para vehículos autónomos.4 Alpamayo introduce el razonamiento "Chain-of-Thought" (CoT) al mercado automovilístico más amplio. En la IA tradicional, un modelo ve una imagen y saca la "Zona de Construcción". .3 "Veo cones naranjas bloqueando la línea derecha.Hay un trabajador sosteniendo una señal.El signo dice 'Lento'.El trabajador está gestando a la izquierda.Por lo tanto, debo fusionarme a la izquierda y reducir la velocidad". Este monólogo interno permite al sistema manejar el "Long Tail" de los eventos de conducción - esos raros, extraños acontecimientos que ocurren una vez cada millón de millas. Al descomponer el problema en pasos lógicos, Alpamayo reduce la posibilidad de una alucinación catastrófica. La visión de Andrej Karpathy: La "Marcha de los Nueve" El ex director de IA de Tesla y miembro fundador de OpenAI, proporciona el marco intelectual crítico para comprender esta batalla.Describe el camino hacia la plena autonomía no como un sprint, sino como una "Marcha de los Nueve".13 Andrés Carballo, Andrés Carballo, Obtener una demostración de conducción autónoma para funcionar el 90% del tiempo es fácil. Se necesita un fin de semana de codificación. Obtenerlo al 99% tarda un año. Obtenerlo al 99,9% tarda cinco años. Para eliminar el volante, se necesita aproximadamente "seis nueve" de fiabilidad (99.9999%), lo que significa que el sistema sólo falla una vez cada unos pocos millones de millas. Karpathy argumenta que los modelos actuales "Sistema 1" (como las versiones tempranas de FSD) son esencialmente "succión de supervisión a través de una paja".14 Se basan en Reinforcement Learning (RL) donde el único feedback es un desengano. Sugiere que la verdadera autonomía requiere resolver los "déficits cognitivos" de la IA actual.Los modelos de hoy son como motores "impresionantes" -predecen el próximo token (o ángulo de dirección) basado en la probabilidad estadística. pero carecen de un "Modelo Mundial" -una verdadera comprensión de la física, la causalidad y la permanencia de objetos. Un balón rodando en la calle es peligroso; sólo sabe que en sus datos de entrenamiento, "balón" generalmente equivale a "freno".Karpathy predice que cerrar esta brecha, pasando de la imitación al razonamiento, es el reto central de la próxima década.15 por qué Parte II: Ojos en la carretera - La guerra de los sensores El gran cisma: visión vs. fusión Si la arquitectura es el cerebro, los sensores son los ojos.Y aquí, la divergencia entre Tesla y Waymo es más visible, literalmente. Tabla 1: Comparación de la suite de sensores Feature Tesla (Vision-Only) Waymo (Sensor Fusion - Gen 6) Primary Sensors 8 External Cameras 13 Cameras, 4 LiDAR, 6 Radar, Audio Receivers Depth Perception Inferred (AI estimation via Occupancy Nets) Direct (LiDAR Time-of-Flight) Map Reliance Low (Standard Nav Maps) High (HD Centimeter-Level Maps) Cost (Est.) < $500 per vehicle > $10,000+ (Significant reduction from Gen 5) Aesthetics Invisible (Integrated into body) Visible (Roof "Dome" + Peripherals) Theory "Humans drive with eyes; cars should too." "Superhuman safety requires superhuman senses." Sensores Principales 8 Cámaras externas 13 cámaras, 4 LiDAR, 6 radares, receptores de audio Percepción profunda Inferred (estimación de la IA a través de Occupancy Nets) Tiempo de vuelo (LiDAR Time of Flight) Mapa de confianza Bajo (Mapa Nav estándar) Mapas de alto nivel (HD Centimeter-Level Maps) El precio (Est) $500 por vehículo > $10,000+ (Reducción significativa desde Gen 5) Estética Invisible (Integrado en el cuerpo) Visible (techo "Dome" + periféricos) Teoría “Los humanos conducen con los ojos, los coches también”. “La seguridad sobrehumana requiere de sentidos sobrehumanos”. Tesla: La cámara purista La filosofía de Tesla, impulsada por Elon Musk, está enraizada en los primeros principios: todo el sistema de carreteras fue diseñado para redes neuronales biológicas (cerebros) y sensores ópticos (ojos). Tesla eliminó el radar (6) y los sensores ultrasónicos (2) de sus vehículos, confiando exclusivamente en Tesla Vision (1,3,4,5). Pros: Es increíblemente barato y escalable. Cada Tesla Model 3 y Y que sale de la línea es un potencial colector de datos y robotaxi. No hay láseres giratorios frágiles en el techo. Las cámaras son sensores pasivos.No pueden "ver" la distancia; deben estimarla, como lo hace un ser humano con un ojo cerrado (estimación de profundidad monocular).También son ciegos por las mismas cosas que los humanos ciegos: resplandor solar directo, lluvia pesada, niebla espesa y oscuridad.8 Para compensar esto, Tesla utiliza en su software enormes "redes de ocupación".Estas redes toman los feeds de vídeo y construyen un modelo volumétrico 3D en tiempo real del mundo, creando efectivamente una nube de puntos "virtual LiDAR" de vídeo.7 Es un hecho asombroso de la ingeniería de software, pero sigue siendo una estimación.Si la IA interpreta mal un camión blanco contra un cielo brillante (como ocurrió en los primeros accidentes de Autopilot), "ve" el espacio vacío.El sistema debe "hallucinar" la profundidad basada en el contexto, lo que introduce una tasa de error no cero en la percepción que LiDAR simplemente no tiene. Waymo: La fusión de todo lo visto Waymo cree que para superar la seguridad humana, se necesita percepción sobrehumana. Los humanos se cansan, se distraen y tienen visión nocturna limitada. La pila de conductores de 6a Generación de Waymo es una maravilla de la integración de sensores.17 LiDAR (Light Detection and Ranging): Pinta el mundo en millones de puntos láser, proporcionando mediciones exactas de distancia precisas al centímetro, independientemente de las condiciones de iluminación. Usa pulsos láser (a longitudes de onda de 905nm o 1550nm) para medir el Tiempo de vuelo. Trabaja en la oscuridad de la pista. Se corta a través del brillo. No puede ser engañado por una foto de un túnel pintado en una pared. Radar: Waymo utiliza radar de imagen avanzado que ve a través de la niebla, la lluvia y la nieve. crucialmente, el radar mide la velocidad instantáneamente utilizando el efecto Doppler. Una cámara necesita varios marcos para calcular que un coche delante está frenando duro; el radar lo sabe en el instante en que el vector de velocidad cambia. Cámaras: Waymo utiliza 13 cámaras (desde 29 en Gen 5) para leer luces de tráfico, señales y luces de freno (color y semántica).17 Receptores de audio: Un conjunto dedicado de micrófonos permite al coche "oír" sirenas, cuernos e incluso la dirección de los vehículos de emergencia que se acercan. La suite de 6a Generación ha sido optimizada para el costo, reduciendo el número de sensores y aumentando el rango y la resolución.Esta "fusión de sensores" crea una red de seguridad redundante.Si la cámara está cegada por el sol, el LiDAR todavía ve el coche delante.Si el LiDAR está confundido por la lluvia fuerte (que puede dispersar los rayos láser), el radar lo ve a través.19 La física del debate: señal a ruido El debate a menudo se reduce a la relación "Signal-to-Noise". LiDAR proporciona una representación de alta señal, bajo ruido de la geometría. Le dice exactamente dónde está el suelo y dónde está un obstáculo. Las cámaras proporcionan enormes cantidades de datos (color, textura, texto) pero son "ruidosas" en cuanto a la geometría.La IA tiene que hacer un levantamiento pesado para averiguar que un patrón plano en la parte posterior de un camión no es un objeto 3D, o que un puddle no es un agujero. Tesla apuesta que la computación (AI) eventualmente se convertirá en lo suficientemente buena como para resolver el ruido de las cámaras perfectamente. Waymo apuesta que tener datos de "verdad de tierra" de LiDAR es un recorrido hacia la seguridad que no puede ser ignorado por el software solo. Parte III: El Corazón (Silicon) - The Compute Bottleneck El movimiento hacia el razonamiento "Sistema 2" y las redes neuronales end-to-end requiere un enorme poder de computación a bordo.Esto es donde las estrategias de hardware de Tesla y Nvidia (poder a todos los demás) divergir significativamente. Dado que no hay información disponible públicamente sobre el hardware de computación de Waymo, siéntate libre de añadir en los comentarios o pingme directamente. Tesla AI4: El juego de la eficiencia El hardware actual, HW4 (AI4), es una computadora de inferencia personalizada construida sobre un proceso Samsung de 7nm.20 Estimado 100-150 TOPS (Tera Operations Per Second) a la precisión INT8. Arquitectura: Optimizada para procesar flujos de vídeo de 8 cámaras, cuenta con unidades de procesamiento neural especializadas (NPU) y un diseño redundante de dual-SoC. The Bottleneck: La investigación sugiere que la restricción de Tesla no es sólo la velocidad cruda, sino el ancho de banda de la memoria. Procesar vídeo de alta resolución y ejecutar transformadores masivos (como el modelo V14) requiere mover enormes cantidades de datos en y fuera de la memoria del chip. AI4 utiliza la memoria GDDR6 (como un PC de juegos) para lograr ~384 GB/s de ancho de banda.20 Este límite de ancho de banda es crítico. Los grandes modelos "Sistema 2" (VLMs) requieren una enorme transmisión de memoria para mantener su "ventana de contexto" (la historia de lo que acaba de suceder). El enfoque de Tesla con la única visión ingiere enormes cantidades de datos de vídeo crudo, lo que satura el bus de memoria. Elon Musk ha afirmado que el chip de próxima generación, AI5, tendrá 5x la ancha de banda de memoria y 10x la computadora. Sin embargo, AI5 no se debe hasta finales de 2026 o 2027. Esto pone a Tesla en una posición precaria: FSD v14 está empujando los límites del hardware HW4 actual. ¿Pueden encajar un agente "razonante" (Sistema 2) en los coches actuales? Es una presión estrecha, Más sobre Thor: The Sledgehammer Mientras Tesla construye chips personalizados, Nvidia está construyendo la plataforma "Thor" para el resto de la industria. Especificaciones: Hasta 2.000 TFLOPS (utilizando la precisión FP4).20 Arquitectura: Construido sobre el proceso TSMC 4N (un nodo de clase 5nm personalizado). Integra los sistemas de CPU, GPU y control en un SoC (Sistema en chip) basado en la arquitectura de Blackwell. Ventaja: Thor está diseñado explícitamente para los modelos de Transformer y Large Language Models (LLMs) que alimentan el razonamiento de "System 2". Tiene la base cruda para ejecutar modelos como Alpamayo junto con el resto del software del coche. Soporta la cuantificación nativa FP4 (4-bit floating point), lo que le permite ejecutar modelos masivos con menos impacto en la memoria.21 Título: Silicon Showdown Spec Tesla AI4 (Current) Nvidia Thor (Next-Gen) Compute ~150 TOPS (INT8) ~2,000 TFLOPS (FP4) Process Node Samsung 7nm TSMC 4N (5nm class) Memory Type GDDR6 LPDDR5X Memory Bandwidth ~384 GB/s ~273 GB/s (per chip) Primary Use Vision Inference VLM/LLM Reasoning + Vision Adopters Tesla Mercedes, Zeekr, Lucid, BYD Computacion ~150 Tops (int8) ~2 000 TFLOPS (FP4) Proceso de Node Samsung con 7nm TSMC 4N (5nm clase) Tipo de memoria GDR6 El LPDDR5X Bandera de memoria • 384 GB/s ~273 GB/s (por chip) Uso primario Visión Inferencia VLM / LLM Razonamiento + Visión Adoptores Tesla Mercedes, Zeekr, Lucid y BYD La integración vertical de Tesla les permitió liderar temprano, pero la enorme escala de I+D de Nvidia en el centro de datos se está desplomando hasta los coches.Thor es un chip monstruoso que podría permitir a los competidores "saltar" el silicio HW4 más antiguo de Tesla en términos de capacidad de razonamiento crudo, siempre que puedan escribir el software para usarlo. Parte IV: El combustible de datos – Calidad vs. Cantidad Y en la carrera por la autonomía, las dos empresas están consumiendo dietas muy diferentes. Tesla: el océano de los datos Tesla tiene una flota de más de 5 millones de vehículos en la carretera. Una parte significativa de estos están funcionando FSD (Supervisado) o operando en "modo sombra". Modo de sombra: Incluso cuando un humano está conduciendo, el ordenador de Tesla se ejecuta en el fondo, haciendo predicciones.Si el ordenador predice "volver a la izquierda" y el humano va recto, el sistema marca esta divergencia y carga los datos a los servidores de Tesla.5 Escala: Tesla recopila miles de millones de kilómetros de datos anualmente, lo que les permite capturar la “larga cola” de eventos extraños: colchones en la autopista, caballos y buggies, blizzards en Dakota del Norte, que una flota más pequeña podría nunca ver. El V14 Leap: Con FSD v14, Tesla ha escalado sus parámetros de entrenamiento en 10x.22 Están entrenando en enormes grupos de Nvidia H200s (y pronto su propio superordenador Dojo), intentando "forzar la fuerza bruta" a la solución a través de pura cantidad de experiencia. Waymo: La biblioteca curada La flota de Waymo es pequeña por comparación - miles de vehículos, no millones.Han acumulado aproximadamente 100 millones de millas autónomas.10 Sin embargo, Waymo argumenta que sus datos son de calidad infinitamente superior. Etiquetas de alta fidelidad: Debido a que los coches de Waymo utilizan LiDAR, sus datos de entrenamiento vienen con una profundidad perfecta de "verdad de tierra". Simulación: Waymo depende en gran medida de la simulación (Carcraft).Toman encuentros del mundo real y los fusionan en millones de variaciones en un mundo virtual, entrenando su sistema en miles de miles simulados que son físicamente precisos.10 Closed Loop Feedback: el sistema de Waymo aprende de su propia conducción. utiliza un modelo "Crítico" para evaluar su propio rendimiento y señalar comportamientos suboptimales para el retraining. Esto crea una "flywheel" donde el coche se enseña a sí mismo.10 The Insight: Tesla está jugando un juego de amplitud; han visto todo excepto con datos de visión "ruidosos".Waymo está jugando un juego de profundidad; han visto menos, pero con precisión de sensores "perfecta" y simulan el resto.Tesla cree que "la cantidad tiene una calidad toda suya".Waymo cree que "escombros en, escombros fuera" se aplica a la capacitación de IA, y que los datos de la cámara sólo son inherentemente "escombros" en comparación con los datos de LiDAR. Parte V: Evoluciones recientes y la comprobación de la realidad The Coast-to-Coast Drive: Una nueva referencia A principios de 2026, el debate cambió de teórico a práctico.Un propietario de Tesla, David Moss, documentó un viaje de cero intervención de Los Ángeles a Myrtle Beach usando FSD v14.2.El viaje duró 2 días y 20 horas.El coche manejó paradas de carga, intercambios de autopistas y tráfico urbano sin un solo "desengano" (reemplazo humano).1 Este logro es importante por varias razones: Generalización: Demostra que el modelo "de fin a fin" se generaliza a través de las líneas de estado, las diferentes señales de carretera y las diferentes condiciones meteorológicas. Fiabilidad: Mientras que una unidad es estadísticamente insignificante (un "tamaño de muestra de uno"), el hecho de que sea posible sugiere que el MTBF (Tempo Medio Entre fallas) de FSD ha mejorado por órdenes de magnitud desde v12. Validación de la comunidad: La unidad fue rastreada a través de la base de datos FSD de Whole Mars, añadiendo una capa de verificación que a menudo falta en las reivindicaciones del fabricante.24 Además, he escuchado personalmente algunas historias de éxito anecdóticas de Tesla FSD v14 desde mi propia red durante la temporada de vacaciones 2025-2026. Mis amigos han completado viajes de vuelta de fin a fin desde San Francisco a LA y la Bay Area a Lake Tahoe (resorts de esquí) sin ninguna intervención humana. Sin embargo, los críticos siguen siendo escépticos. Ellos apuntan a la "Fallacy de Gambler." Si el sistema tiene una tasa de fallo de 1 en 10.000 millas, usted puede conducir fácilmente 3.000 millas sin un problema. pero para ser un robotaxi (no conductor), usted necesita una tasa de fallo de 1 en 10.000.000 millas. Un conductor humano todavía es estadísticamente más seguro que FSD v14 sobre el total de todas las millas conducidas.25 La realidad de Waymo Mientras que Tesla celebra un solo viaje a través del país, Waymo opera un servicio comercial En ciudades como Phoenix, San Francisco y Los Ángeles, los vehículos de Waymo están conduciendo vacíos, recogiendo pasajeros pagadores, y tratando con vehículos de emergencia, lluvia y construcción diariamente.8 hoy hoy The Stat: Waymo tiene una tasa de accidentes significativamente menor que los conductores humanos en las áreas en las que opera (0,7 accidentes por millón de millas frente a 4,85 para los humanos).25 The Constraint: Waymo está geofenced. No puede sólo conducir a Myrtle Beach mañana. Necesita mapas y validación. Parte VI: Predicciones futuras y el camino a seguir ¿Quién gana el Gran Turismo?La respuesta depende de la línea de tiempo y la definición de la victoria. El corto plazo (2026-2028): Waymo domina el robotaxi, Tesla domina el ADAS Waymo: Continuará escalando ciudad por ciudad. Sus costos unitarios están disminuyendo (Gen 6), y su caso de seguridad está probado. Ellos poseerán el mercado "Uber sin conductor" en los principales metros densos. La adición de VLM (Sistema 2) les ayudará a manejar los raros casos de borde que previamente los estancaron. Tesla: FSD v14 se convertirá en un increíble sistema "Supervisado".Lo llevará de costa a costa, pero todavía tendrá que prestar atención.El salto a "No Supervisado" (eliminar el volante) es exponencialmente más difícil que el salto a v14.Las restricciones de hardware de HW4 pueden impedir la plena autonomía de L5, forzando una espera para AI5. El largo plazo (2029+): Convergencia El momento “Android”: la plataforma Alpamayo y Thor de Nvidia permitirá a otros fabricantes de automóviles capturar.Veremos “autonomía de mercancías” donde un Mercedes o un Hyundai tiene capacidades “razonantes” similares a Waymo, alimentado por Nvidia. Si -y es un gran si- Tesla puede resolver el problema "razonante" usando su enorme flota de video y entrenamiento de fin a fin, ganan el juego global.Tienen la capacidad de fabricación (millones de coches) y la estructura de costo (sensores baratos) para desplegar autonomía en cualquier lugar, desde Mumbai a Montana, lugares donde los mapas HD de Waymo nunca llegarán. Un pivot de Waymo: esto es totalmente especulativo, pero basado en el enorme poder cerebral de Google AI Research y su rápido avance en la suite de modelos multi-modales de Gemini, existe la posibilidad de que Google pueda ejecutar secretamente un programa paralelo con una arquitectura de sistema fundamentalmente diferente. La tarjeta salvaje: Destilación del sistema 2 La vanguardia de la investigación (referida en 26) implica "destilar" el razonamiento pesado y lento del Sistema 2 de los grandes modelos en redes rápidas y eficientes del Sistema 1. Imagínese a un estudiante (Sistema 1) aprendiendo de un profesor (Sistema 2).El profesor piensa lentamente y explica por qué. Tesla y Waymo están corriendo para hacer esto. Waymo utiliza su VLM para enseñar su política de conducción. Tesla utiliza sus vídeos curados (etiquetados por auto-labelers) para enseñar su red de fin a fin. Predicción: El ganador será la compañía que mejor automatice este ciclo “profesor-estudiante”.Tesla tiene más “estudiantes” (automóviles) y datos.Waymo tiene un mejor “profesor” (datos verificados de verdad). Título: La Milla Infinita El viaje de Los Ángeles a Myrtle Beach fue un triunfo de la ingeniería, un testimonio de hasta dónde han llegado las redes neuronales.Pero la distancia entre "hace el 99% del tiempo" y "hace lo suficiente para dormir en el asiento trasero" no se mide en millas; se mide en nueve. Tesla está lanzando esta carretera con una visión de autonomía universal y asequible, alimentada por la pureza de la escala de su flota y la audacia de su apuesta "sólo de visión". A medida que Nvidia democratiza el "cerebro" del coche con herramientas como Alpamayo, la distinción entre los dos puede desvanecerse. Los coches aprenderán a razonar. Aprenderán a explicarse. Y en algún lugar en el abrazo invisible entre una cámara, un láser y un chip de silicio, el genio en la máquina finalmente tomará la rueda para bien. Referencias Elon Musk responde después de que el propietario de Tesla completara la primera conducción totalmente autónoma en toda América - UNILAD Tech, consultado el 7 de enero de 2026, https://www.uniladtech.com/vehicles/car-news/musk-responds-tesla-owner-first-autonomous-drive-867091-20260102 Tesla FSD completa con éxito la conducción de costa a costa completa con cero intervenciones - Teslarati, consultado el 7 de enero de 2026, https://www.teslarati.com/tesla-fsd-succesivamente-completes-full-coast-to-coast-drive-with-zero-intervenciones/ ¿Se ha resuelto la auto conducción por NVIDIA?, consultado el 7 de enero de 2026, https://www.youtube.com/shorts/gVbpwlNdUTg Construir Vehículos Autónomos Que Razón con NVIDIA Alpamayo ..., consultado el 7 de enero de 2026, https://developer.nvidia.com/blog/building-autonomous-vehicles-that-reason-with-nvidia-alpamayo/ Deep Dive: Tesla, Waymo, y el Gran Debate de Sensores, Consultado el 7 de enero de 2026, https://research.contrary.com/report/tesla-waymo-and-the-great-sensor-debate La curiosa cola larga de la conducción automatizada: lee las mentes pero se detiene demasiado lejos de la máquina de billetes - ResearchGate, accesado el 7 de enero de 2026, https://www.researchgate.net/publication/387997832_The_curious_long_tail_of_automated_driving_It_reads_minds_but_stops_too_far_from_the_ticket_machine El FSD de Tesla redefine la conducción autónoma - Veltyx, consultado el 7 de enero de 2026, https://www.veltyx.de/en/post/tesla-s-fsd-redefines-autonomous-driving ¿Cuál es la diferencia en el enfoque entre Tesla FSD y Waymo y cuál es mejor?, consultado el 7 de enero de 2026, https://www.reddit.com/r/SelfDrivingCars/comments/1mmxu53/whats_the_difference_in_approach_between_tesla/ Kyle habla de los pros y los contras de los enfoques de Waymo y Tesla : r/SelfDrivingCars - Reddit, consultado el 7 de enero de 2026, https://www.reddit.com/r/SelfDrivingCars/comments/1lkcco0/kyle_talks_pros_and_cons_of_waymo_and_tesla/ Demostrando AI segura para la conducción autónoma - Waymo, consultado el 7 de enero de 2026, https://waymo.com/blog/2025/12/demonstrably-safe-ai-for-autonomous-driving Waymo: AI de conducción autónoma "verificable y segura" - EEWorld, accesible el 7 de enero de 2026, https://en.eeworld.com.cn/news/qcdz/eic715466.html NVIDIA anuncia la familia Alpamayo de modelos y herramientas de IA de código abierto para acelerar el desarrollo de vehículos autónomos seguros basados en el razonamiento, accesible el 7 de enero de 2026, https://nvidianews.nvidia.com/news/alpamayo-autonomous-vehicle-development Andrej Karpathy dijo a Dwarkesh que AGI todavía está a una década de distancia. - The Neuron, consultado el 7 de enero de 2026, https://www.theneuron.ai/explainer-articles/andrej-karpathy-told-dwarkesh-that-agi-is-still-a-decade-away Beyond the Hype: 5 Counter-Intuitive Truths About AI de Andrej Karpathy, consultado el 7 de enero de 2026, https://dev.to/amananandrai/beyond-the-hype-5-counter-intuitive-truths-about-ai-from-andrej-karpathy-afk Andrej Karpathy — AGI todavía está a una década de distancia - Podcast de Dwarkesh, consultado el 7 de enero de 2026, https://www.dwarkesh.com/p/andrej-karpathy Problemas bajo la superficie con Tesla FSD vs. Waymo Driver - CleanTechnica, consultado el 7 de enero de 2026, https://cleantechnica.com/2025/12/16/issues-under-the-surface-with-tesla-fsd-vs-waymo-driver/ New Waymo robotaxi ofrece un mejor rendimiento a un menor costo - The Robot Report, consultado el 7 de enero de 2026, https://www.therobotreport.com/new-waymo-robotaxis-offers-better-performance-at-lower-cost/ Conozca a la 6a generación Waymo Driver : r/singularity - Reddit, accesado el 7 de enero de 2026, https://www.reddit.com/r/singularity/comments/1ewdrd1/meet_the_6thgeneration_waymo_driver/ Tesla's Robotaxi Bet: Vision-Only vs. Multi-Sensor Reality Check - EYE2DRIVE, consultado el 7 de enero de 2026, https://www.eye2drive.com/2025/06/19/tesla-testing-vision-only-autonomy-in-robotaxi-fleet/ Tesla AI4 vs. NVIDIA Thor: la brutal realidad de las computadoras autónomas eBay Electrek, consultado el 7 de enero de 2026, https://electrek.co/2025/11/25/tesla-ai4-vs-nvidia-thor-reality-self-driving-computadores/ Introducción de NVIDIA Jetson Thor, la Plataforma Final para la IA Física, accesible el 7 de enero de 2026, https://developer.nvidia.com/blog/introducing-nvidia-jetson-thor-the-ultimate-platform-for-physical-ai/ La industria de la conducción inteligente de China: cambios dramáticos en el poder de la computación - 36 empresas, consultado el 7 de enero de 2026, https://eu.36kr.com/en/p/3617790434980357 Tesla vs. Waymo vs. Cruise: ¿Quién está liderando la carrera del vehículo autónomo? (Estadísticas de cuota de mercado) Ebay PatentPC, consultado el 7 de enero de 2026, https://patentpc.com/blog/tesla-vs-waymo-vs-cruise-whos-leading-the-autonomous-vehicle-race-market-share-stats Tesla FSD logra el primer vehículo totalmente autónomo de costa a costa de Estados Unidos : r/singularity - Reddit, accesado el 7 de enero de 2026, https://www.reddit.com/r/singularity/comments/1q0pvbr/tesla_fsd_achieves_first_fully_autonomous_us/ Elon en Waymo: "Nunca realmente tuvo una oportunidad contra Tesla" Waymo Detalles Estrategia de Seguridad de la IA : r/SelfDrivingCars - Reddit, accesado el 7 de enero de 2026, https://www.reddit.com/r/SelfDrivingCars/comments/1pj4ufx/elon_on_waymo_never_really_had_a_chance_against/ Distribución de modelos de gran lenguaje multi-modal para la conducción autónoma - arXiv, consultado el 7 de enero de 2026, https://arxiv.org/html/2501.09757v1 Destilación del Sistema 2 en el Sistema 1 - arXiv, consultado el 7 de enero de 2026, https://arxiv.org/html/2407.06023v1 Ashok Elluswamy “Modelo de fundación para el FSD”, presentación ICCV 2025 https://www.youtube.com/watch?v=IkW8hIGimfs https://www.uniladtech.com/vehicles/car-news/musk-responds-tesla-owner-first-autonomous-drive-867091-20260102 https://www.teslarati.com/tesla-fsd-successfully-completes-full-coast-to-coast-drive-with-zero-interventions/ https://www.youtube.com/shorts/gVbpwlNdUTg https://developer.nvidia.com/blog/building-autonomous-vehicles-that-reason-with-nvidia-alpamayo/ https://research.contrary.com/report/tesla-waymo-and-the-great-sensor-debate https://www.researchgate.net/publication/387997832_The_curious_long_tail_of_automated_driving_It_reads_minds_but_stops_too_far_from_the_ticket_machine https://www.veltyx.de/en/post/tesla-s-fsd-redefines-autonomous-driving https://www.reddit.com/r/SelfDrivingCars/comments/1mmxu53/whats_the_difference_in_approach_between_tesla/ https://www.reddit.com/r/SelfDrivingCars/comments/1lkcco0/kyle_talks_pros_and_cons_of_waymo_and_tesla/ https://waymo.com/blog/2025/12/demonstrably-safe-ai-for-autonomous-driving https://en.eeworld.com.cn/news/qcdz/eic715466.html https://nvidianews.nvidia.com/news/alpamayo-autonomous-vehicle-development https://www.theneuron.ai/explainer-articles/andrej-karpathy-told-dwarkesh-that-agi-is-still-a-decade-away https://dev.to/amananandrai/beyond-the-hype-5-counter-intuitive-truths-about-ai-from-andrej-karpathy-afk https://www.dwarkesh.com/p/andrej-karpathy https://cleantechnica.com/2025/12/16/issues-under-the-surface-with-tesla-fsd-vs-waymo-driver/ https://www.therobotreport.com/new-waymo-robotaxis-offers-better-performance-at-lower-cost/ https://www.reddit.com/r/singularity/comments/1ewdrd1/meet_the_6thgeneration_waymo_driver/ https://www.eye2drive.com/2025/06/19/tesla-testing-vision-only-autonomy-in-robotaxi-fleet/ https://electrek.co/2025/11/25/tesla-ai4-vs-nvidia-thor-reality-self-driving-computers/ https://developer.nvidia.com/blog/introducing-nvidia-jetson-thor-the-ultimate-platform-for-physical-ai/ https://eu.36kr.com/en/p/3617790434980357 https://patentpc.com/blog/tesla-vs-waymo-vs-cruise-whos-leading-the-autonomous-vehicle-race-market-share-stats https://www.reddit.com/r/singularity/comments/1q0pvbr/tesla_fsd_achieves_first_fully_autonomous_us/ https://www.reddit.com/r/SelfDrivingCars/comments/1pj4ufx/elon_on_waymo_never_really_had_a_chance_against/ https://arxiv.org/html/2501.09757v1 https://arxiv.org/html/2407.06023v1