Una variedad de servicios digitales vitales – incluyendo el servicio de streaming con catálogos ridiculamente grandes de contenido de vídeo, o el servicio de datos que proporciona información sobre su análisis – aprovechan múltiples sistemas dependientes o máquinas que se comportan como aglomerados bajo el umbral de la computación distribuida. Sin embargo, con esa capacidad viene el coste – los sistemas distribuidos son los más grandes proveedores de recursos o simplemente sobreingenieros – pueden, de hecho, ser extremadamente ineficientes. El aprendizaje de máquinas no es sólo un buzzword fantástico; el aprendizaje de máquinas es una herramienta útil para predecir la demanda, mejorar los procesos de negocio existentes y, en última instancia, desarrollar sistemas distribuidos que no solo funcionen, sino que funcionan. The Data Deluge: Too Much Information, Too Little Time El diluvio de datos: demasiada información, demasiado poco tiempo Durante la última década, la cantidad de datos digitales que generamos ha aumentado drásticamente. Cada día generamos más de 2.5 quintillones de bytes de datos! Ya no podemos analizar, almacenar o entender los datos de la misma manera que usábamos o en esta escala. Pensar, trabajar y comprender los datos en este tamaño y estructura nos presentan una serie de problemas técnicos que tendremos que considerar a largo plazo, y deberíamos desarrollar soluciones que nos permitan utilizarlos activamente para entrenar nuestros modelos. Trabajar dentro de sistemas distribuidos complica nuestros intentos de relacionar; no sólo tenemos el tamaño de los datos a relacionar, sino que también estamos relacionando con una imagen distribuida - con organizaciones de máquinas múltiples o garantías, sitios múltiples, cargas múltiples de usuario y cargas complejas de usuario del sistema relacionadas con su interacción. Breaking Down Data Silos Descarga de los silos de datos Silo de datos, donde los datos se mantienen en uno u otro sistema que rige lo que ese sistema puede o no puede hacer fuera de ese sistema. Puntos de datos de todas las fuentes pueden seguramente tener altamente inconsistentes diferencias de calidad de base o de producto. Las presiones sobre los métodos (tradicionales) de análisis presentarán desafíos considerables a su plataforma de análisis de datos y esfuerzos, con el resultado final de obligarle a iniciar sesión en el riesgo potencial de asegurarse de que solo se acceda a los datos "buenos" o buenos! Este tipo de datos a menudo desafía los enfoques convencionales de aprendizaje de una sola máquina. Una forma de pensar sobre estos datos sería a través del aprendizaje de máquina distribuido. Imagínese compartir el conocimiento a un grupo de estudiantes —o potencialmente muchos— en una clase, en vez de cada estudiante uno a la vez. Smarter Data Centers: Intelligent Decisions Drive Sustainability Los centros de datos son un componente vital del mundo conectado, permitiendo un aumento del acceso global a las aplicaciones y servicios a través del aumento de los recursos y el consumo de energía. Históricamente, la gestión de operaciones ha llevado a un enfoque en el tiempo de funcionamiento, y ahora estamos viendo un cambio hacia un modelo de gestión de operaciones más sostenible. la computación de borde, que por definición es el procesamiento más cercano al borde de la creación, presenta una mayor oportunidad para la eficiencia entre el uso de recursos, la optimización y la resiliencia/sostenibilidad. la computación de borde permite el procesamiento e interpretación de datos en el borde, más cerca del punto de creación, por lo que no necesita mover tanto datos a los centros de datos en la nube, reduciendo así los costes de energía y latencia relacionados. Optimizing Resource Allocation Optimización de la asignación de recursos Los modelos ML pueden predecir las cargas de trabajo que serán necesarias para el procesamiento de la CPU; además, pueden recomendar la colocación de cargas de trabajo para minimizar el uso de energía y optimizar la utilización general, en lugar de operar en condiciones de "ceguera" y agregar recursos adicionales innecesariamente, todo en el procesamiento de la CPU. Además, por ejemplo, los modelos pueden analizar adecuadamente los datos históricos relativos a la utilización de la CPU y los perfiles de temperatura, basados en las predicciones de uso para la demanda de carga térmica. Final Thoughts: From Science Fiction to Engineering Reality Pensamientos finales: de la ciencia ficción a la realidad de la ingeniería Una vez imaginamos que estas cosas iba a suceder —en ciencia ficción.El futuro es ahora; el aprendizaje automático y la computación distribuida de gigabits son reales.Estamos bien experimentados en adivinar y alcanzar.Los algoritmos están aprendiendo, adaptando y optimizando en tiempo real —en cualquier lugar. El aprendizaje automático está más allá de la eficiencia.De hecho, el aprendizaje automático está cambiando la forma en que pensamos sobre la computación.El aprendizaje automático está trayendo a los sistemas distribuidos mayor velocidad, inteligencia y reflexión.La dimensión de la inteligencia va a ser el determinante de quién prosperará o luchará cuando empecemos a construir ecosistemas digitales que tengan diferentes elementos inteligentes y multidimensionales. El futuro sucede - ahora, en el presente. Una adivinación a la vez.