Una varietà di servizi digitali vitali – compreso quel servizio di streaming con cataloghi ridicoli di contenuti video, o quel servizio di dati che fornisce informazioni sulle sue analisi – sfruttano più sistemi dipendenti o macchine che si comportano come cluster sotto l’ombrello del calcolo distribuito. Tuttavia, con questa capacità arriva il costo – i sistemi distribuiti sono un po’ troppo ricchi di risorse o semplicemente troppo ingegnerizzati – possono, in realtà, essere estremamente inefficienti. L'apprendimento automatico non è solo un buzzword; l'apprendimento automatico è uno strumento utile per prevedere la domanda, migliorare i processi aziendali esistenti e, in ultima analisi, sviluppare sistemi distribuiti che non solo funzionano, ma funzionano. The Data Deluge: Too Much Information, Too Little Time Il diluvio dei dati: troppe informazioni, troppo poco tempo Nel corso dell’ultimo decennio, la quantità di dati digitali che abbiamo generato è aumentata in modo drammatico. Ogni giorno abbiamo generato più di 2,5 quintillioni di byte di dati! Non possiamo più analizzare, memorizzare o comprendere i dati nello stesso modo in cui abbiamo usato o su questa scala. Pensare, lavorare e comprendere i dati a questa dimensione e struttura ci presentano una serie di problemi tecnici che dovremo considerare a lungo termine, e dovremmo sviluppare soluzioni che ci permetteranno di utilizzarli attivamente per addestrare i nostri modelli. Lavorare all’interno di sistemi distribuiti complica i nostri tentativi di relazionarsi; non solo abbiamo la dimensione dei dati da relazionare, ma siamo anche in relazione a un’immagine distribuita – con organizzazioni di più macchine o garanzie, Breaking Down Data Silos Rimuovere i silos dei dati Data silos, dove i dati sono tenuti in un sistema o un altro che regola ciò che un sistema può o non può fare al di fuori di quel sistema. Punti di dati da tutte le fonti possono certamente tenere altamente inconsistenti qualità di base o differenze di prodotto. Le pressioni sui metodi (tradizionali) di analisi presenteranno notevoli sfide per la vostra piattaforma di analisi dei dati e gli sforzi, in ultima analisi, portando a costringere a accedere al potenziale rischio di garantire che solo i dati 'buoni' o buoni siano accessibili! Questo tipo di dati spesso sfida gli approcci convenzionali di apprendimento automatico. Uno dei modi per pensare a questi dati sarebbe attraverso l'apprendimento automatico distribuito. Immaginate di condividere le conoscenze con un gruppo di studenti - o potenzialmente molti - in una classe, a differenza di ogni studente uno alla volta. Questo può essere un problema molto più complicato, ma sicuramente degno di considerazione. Smarter Data Centers: Intelligent Decisions Drive Sustainability I data center sono una componente vitale del mondo connesso, consentendo un aumento dell'accesso globale alle applicazioni e ai servizi attraverso l'aumento delle risorse e del consumo energetico. Storicamente, la gestione delle operazioni ha portato a un focus sul tempo di funzionamento, e ora stiamo vedendo un passaggio a un modello di gestione delle operazioni più sostenibile. Edge computing - che per definizione è il trattamento più vicino al bordo della creazione - presenta una maggiore opportunità per l'efficienza tra utilizzo delle risorse, l'ottimizzazione e la resilienza / sostenibilità. Edge computing consente il trattamento e l'interpretazione dei dati al bordo, più vicino al punto di creazione, quindi non ha bisogno di spostare così tanti dati nei data center cloud, riducendo così i costi di energia e di latenza correlati. Optimizing Resource Allocation Ottimizzazione dell’allocazione delle risorse I modelli ML possono prevedere i carichi di lavoro necessari per l'elaborazione della CPU; inoltre, possono raccomandare il posizionamento dei carichi di lavoro per ridurre al minimo l'utilizzo dell'energia e ottimizzare l'utilizzo complessivo - piuttosto che operare in condizioni di "cecità" e aggiungere inutilmente risorse aggiuntive, tutto nel trattamento della CPU. Inoltre, ad esempio, i modelli possono analizzare in modo appropriato i dati storici relativi all'utilizzo della CPU e ai profili di temperatura, sulla base delle previsioni di utilizzo per la domanda di carico termico. Final Thoughts: From Science Fiction to Engineering Reality I pensieri finali: dalla fantascienza alla realtà ingegneristica Una volta abbiamo solo immaginato che queste cose avrebbero avuto luogo – nella fantascienza. Il futuro è in realtà ora; l’apprendimento automatico e il calcolo distribuito a gigabit sono reali. Siamo ben esperti nel indovinare e nel superare. Gli algoritmi imparano, si adattano e si ottimizzano in tempo reale – ovunque. L'apprendimento automatico va oltre l'efficienza.In realtà, l'apprendimento automatico sta cambiando il modo in cui pensiamo al computer.L'apprendimento automatico sta portando ai sistemi distribuiti una maggiore velocità, intelligenza e riflessione.La dimensione dell'intelligenza sarà il determinante di chi prospererà o combatterà quando inizieremo a costruire ecosistemi digitali che hanno diversi elementi intelligenti e multidimensionali. Il futuro sta accadendo – ora, nel presente.