La evolución de la computación en la nube y la inteligencia artificial ha transformado fundamentalmente la forma en que las empresas construyen y escalan plataformas tecnológicas.La infraestructura de nube moderna debe manejar a millones de usuarios simultáneos en decenas de regiones geográficas, manteniendo al mismo tiempo los estándares de seguridad, fiabilidad y rendimiento que cumplen con las demandas de las agencias gubernamentales y las empresas de Fortune 500.Los ingenieros que trabajan en esta escala navegan por sistemas distribuidos complejos, automatizan los tubos de construcción y construyen sofisticados marcos de monitoreo que pueden detectar posibles interrupciones antes de que impacten en los clientes. Los ingenieros de infraestructuras más logrados demuestran versatilidad en múltiples dominios, desde la red y la seguridad hasta los sistemas de IA y aprendizaje automático.Estos profesionales entienden que la construcción de plataformas utilizadas por millones de personas requiere no solo experiencia técnica, sino también la capacidad de anticipar los desafíos de escala meses o años antes.La transición de la infraestructura de nube tradicional a los sistemas de inteligencia de documentos alimentados por IA representa una evolución natural para los ingenieros que han dominado los fundamentos de la computación distribuida en la escala. Con siete años en Microsoft Azure seguido de roles de liderazgo en la IA empresarial en Docusign, Abhinav Sharma ilustra este viaje integral a través de la ingeniería moderna en la nube y la IA. Su experiencia abarca la infraestructura global de Azure Networking, la evolución de la plataforma de Azure AI Search durante la era pre-LLM, y ahora la arquitectura de sistemas de inteligencia de documentos que procesan más de 150 millones de acuerdos. En esta conversación, exploramos el viaje de Abhinav a través de estos diversos equipos de ingeniería y el trabajo involucrado en la construcción y escala de infraestructuras de nube y IA a gran escala. Arquitectura de marcos de pruebas continuas para la infraestructura de nube global “Los primeros días en Azure Networking fueron intensos. Como nuevo grado, era abrumador sumergirse en un ecosistema tan vasto de componentes de red que operaban a escala en la nube. Fue fácil perderse en el mar de acrónimos de tres letras, cada uno apuntando a un equipo o subsistema diferente, sin una clara sensación de cómo se ajustan a la arquitectura de red más amplia. Sólo aprendiendo las capas de la pila tomó varios meses”, recuerda Abhinav, reflejando su carrera temprana después de completar su maestría en la Universidad de Columbia en 2016. Pronto se embarcó en un proyecto que le dio una exposición profunda, de extremo a extremo, a la pila de red pública de Azure: balanceadores de carga de software, redes virtuales y subredes, conjuntos de máquinas virtuales Este esfuerzo de ensayo y monitoreo a gran escala permitió a Abhinav diseñar y implementar un marco altamente configurable que ayudó a la organización de red más amplia a identificar los problemas de regresión temprano, especialmente en las regiones de bajo tráfico. Al captar estos problemas antes de que escalaran, el equipo pudo evitar cientos de interrupciones críticas que podrían haber afectado a los clientes de Azure y erosionado la confianza en la fiabilidad de la plataforma. Creación de una plataforma de búsqueda de nivel empresarial Después de su tiempo en Azure Networking, y en medio del impulso creciente en torno a la IA en 2018, Abhinav pasó a Azure AI Search. En comparación con la red, el equipo era más nuevo y más pequeño, centrado en entregar APIs de búsqueda como servicio para clientes empresariales. “Por ejemplo, si usted es una gran empresa de comercio electrónico, la búsqueda es una capacidad fundamental.Puede construir y mantener sus propios grupos y equipos de búsqueda internos, o puede descargar ese trabajo a Azure AI Search.La demanda de este tipo de capacidad de búsqueda gestionada estaba creciendo rápidamente en todas las industrias y casos de uso.” “Por ejemplo, si usted es una gran empresa de comercio electrónico, la búsqueda es una capacidad fundamental.Puede construir y mantener sus propios grupos y equipos de búsqueda internos, o puede descargar ese trabajo a Azure AI Search.La demanda de este tipo de capacidad de búsqueda gestionada estaba creciendo rápidamente en todas las industrias y casos de uso.” Durante sus cuatro años con el equipo, Abhinav contribuyó a varias capas de la plataforma. Trabajó extensamente en varios componentes fundamentales esenciales para escalar un servicio, incluyendo sistemas de telemetría, infraestructura de facturación, gestión secreta, construcción de servicios y una amplia gama de herramientas internas. Estas capacidades formaron la columna vertebral del crecimiento de la plataforma, y Abhinav desempeñó un papel clave en formarlos. “Crecimiento del servicio de un puñado de regiones a más de 40 en todo el mundo nos obligó a estandarizar y automatizar nuestro proceso de construcción regional – esto fue esencial para escalar de manera efectiva”, señala Abhinav. Un gran punto de inflexión para el equipo llegó con el contrato JEDI, una iniciativa del gobierno estadounidense de varios mil millones de dólares para la adopción de la nube que elevó Para lograr esto, dirigió varias iniciativas clave para reforzar la postura de seguridad y cumplimiento de la plataforma. Introdujo mecanismos automatizados de rotación de secreto en una flota de decenas de miles de máquinas, mejorando significativamente la seguridad operativa. También lideró los esfuerzos de privacidad centrados en la obstrución de la telemetría, asegurándose de que no se registrara información sensible y que todos los datos se clasificaran y accedieran de forma consistente al nivel de seguridad adecuado. Además, construyó herramientas con controles de acceso basados en roles robustos para apoyar el acceso justo en el tiempo (JIT) para la reparación de nodos, reforzando aún más la audibilidad y el modelo de seguridad de la plataforma. “Había muchos requisitos que estaban en lugar para JEDI, muchos de ellos establecidos que viv Mirando hacia atrás: lecciones de los pilares de crecimiento y carrera de Azure A lo largo de todos estos años, Abhinav señala que fue un momento increíble estar en Microsoft. “Fue fascinante ver que Azure como una plataforma evolucionó tan dramáticamente desde que se unió por primera vez. Había un dicho en Azure en ese momento: diseñar sus sistemas como si estuviera ejecutando 10 veces el tráfico a partir de ahora. Diseñar para cargas de trabajo de gran escala le obliga a pensar de manera diferente sobre todo: cómo imponer el aislamiento de alquileres, cómo abordar la privacidad de los usuarios y la clasificación de datos, cómo diseñar el control de flujo de trabajo y restaurar mecanismos, e incluso cómo construir herramientas para expandir su servicio a nivel mundial con patrones de nombre y infraestructura consistentes. Después de su tiempo en Microsoft, Abhinav se mudó a Docusign, donde entró en el mundo de la inteligencia de documentos y las soluciones impulsadas por la IA diseñadas para simplificar los procesos legales complejos. “Después de mucho de esta experiencia de plataforma bajo mi cinturón, sentí que era el momento de adquirir experiencia con los sistemas ML básicos, específicamente en el espacio NLP. Siempre me parecía un mundo fascinante - ser capaz de interactuar con documentos y sumergirse en problemas como la detección de idiomas, el análisis de diseño de documentos, la extracción de metadatos, los sistemas de chat y la recuperación de información utilizando algoritmos de semántica de similitud. Más sobre Abhinav Sharma Abhinav es actualmente un ingeniero ML de personal en Docusign, donde se centra en avanzar las capacidades de inteligencia de documentos para impulsar la adopción de la plataforma de gestión de acuerdos inteligentes (IAM). Desde su lanzamiento en junio de 2024, la plataforma ha procesado cientos de millones de acuerdos, con Abhinav desempeñando un papel clave en la formación de los sistemas de IA que permiten esta escala. Antes de Docusign, Abhinav trabajó en la sede de Microsoft en Redmond, WA, contribuyendo a las iniciativas de nube y infraestructura básicas en Azure Networking y Azure AI Search. Su trabajo apoyó tanto la columna vertebral fundacional de Microsoft Azure como el crecimiento de Azure AI Search durante la era pre-LLM. Abhinav posee másteres de la Universidad de California, Berkeley y la Universidad de Columbia, donde se especializó en ciencia de datos, recuperación de información, aprendizaje automático, sistemas distribuidos y excelencia operativa. También obtuvo una licenciatura en Ciencias de la Computación de la Universidad de Manipal, construyendo una sólida base en principios de ciencia de la computación y programación. Esta historia fue distribuida como una publicación por Sanya Kapoor bajo el Programa de Blogging de Negocios de HackerNoon. Esta historia fue distribuida como una liberación por Sanya Kapoor bajo . HackerNoon’s Business Blogging Program El programa de blogs de negocios de HackerNoon