Red Hat: il ruolo di Linux nell’era di IoT, Edge Computing, IA e Container

Chris Wright, VP e CTO di Red Hat, in un'intervista esclusiva a bizzIT.it, parla dell'impatto di Edge Computing, Intelligenza Artificiale, Machine Learning, IoT, Kubernetes e Container, spiegando il ruolo centrale di Linux e come queste tecnologie guideranno la strategia di Red Hat

Chris Wright, Vice President e Chief Technology Officer di Red Hat

Qual è la sua opinione in merito all’evoluzione dei modelli di Edge Computing alimentata dall’IoT?

Le basse latenze e le alte velocità del 5G consentiranno di inviare grandi quantità di dati sulla rete. 

Gran parte di questi dati saranno generati dall’Internet of Things e, in molti casi, si tratterà di sensori che generano video.

Diventa perciò poco pratico inoltrare i dati dalla periferia della rete verso un cloud centralizzato per effettuarne l’elaborazione e, di conseguenza, il cloud periferico (edge cloud) sta emergendo come il “luogo” più appropriato per avvicinare l’elaborazione dei dati alle sorgenti dei dati. Cioè, più vicino alle “cose” che compongono l’Internet delle cose.

Per elaborare questi elevati volumi di dati in tempo reale è necessario disporre di un’infrastruttura di elaborazione significativa all’edge e, pertanto, questa è un’area di grande interesse per il mercato in questo momento.

Questo percorso di sviluppo è entusiasmante per noi di Red Hat, poiché Linux è un elemento abiltante di questa importante processo innovativo.

L’hardware sarà importante, perchè all’edge si hanno a disposizione potenza elaborativa e spazi limitati.  Linux ha già dimostrato di potersi adattare a questo tipo di cambiamenti nell’hardware e di poter mettere a disposizione una piattaforma coerente per l’esecuzione del software su questo tipo di hartdware.

Linux e Kubernetes saranno i pilastri fondamentali dell’Edge Computing.

L’Intelligenza Artificiale promette di diventare pervasiva, ma la crescita avverrà gradualmente. Secondo lei con quali priorità, modalità e tempistiche ciò avverrà?

L’Intelligenza Artificiale è già una presenza pervasiva; lo sperimentiamo già durante tutto il giorno, in ogni giorno. È dietro ai risultati generati da una ricerca su Internet, ai posizionamenti degli annunci online, ai suggerimenti di acquisto su un sito di e-commerce.

Tuttavia, mentre i consumatori stanno usufruendo regolarmente dei vantaggi forniti dall’IA, ci vorrà un po’ di tempo prima che ogni azienda la utizzi per sviluppare nuovo valore, per ottenere efficienza, per personalizzare le esperienze dei clienti.

Le priorità per lo sviluppo dell’IA possono essere suddivise in tre fasi.

  1. Raccogliere i dati, perchè avere un pool di dati è il punto di partenza.  
  2. Sapere a quali domande di business possiamo rispondere tramite qui dati.
  3. Rendere più facile per le persone ricavare informazioni dai dati. Se devi essere un “data scientist” di alto livello per interpretare queste informazioni, l’adozione sarà lenta. Rendere gli strumenti più facili da utilizzare al’interno dell’azienda e sviluppare modelli per l’uso di quei dati deve essere una priorità.

Un’altra priorità è di proseguire nel processo di comprensione di come funzionano i modelli di Machine Learning. Al momento si stanno insinuando delle distorsioni nel sistema ed è fondamentale comprendere dove e in che modo ciò sta accadendo, per prevenirlo.

Altrimenti, tali distorsioni possono avere conseguenze sociali critiche concrete. Ci sono già molti esempi di dati distorti usati per il Machine Learning e delle gravi conseguenze di ciò e dobbiamo stare molto attenti ad andare avanti.

Dove risiedono i possibili vantaggi per l’utlizzo dei Container e in quali aree si concretizzeranno?

I Container accelerano lo sviluppo delle applicazioni e rendono più agili i processi di sviluppo come i flussi di lavoro DevOps e CI/CD. 

I Container lo fanno creando un ambiente standard per tutte le fasi di sviluppo del codice: dal testing, all’integrazione, alla produzione e alla distribuzione. 

Una piattaforma Container consente alle applicazioni di essere eseguite, gestite e scalate su qualsiasi infrastruttura sottostante, indipendentemente dal fatto che si tratti di un data center privato, di un cloud pubblico, di un server fisico, di Virtual Machine o di un sistema ibrido. 

Ciò contribuisce ad aumentare l’efficienza degli sviluppatori e porta a un time-to-market più rapido di nuovi servizi e applicazioni che, alla fine, fornisce alle aziende i mezzi necessari per essere più competitive.

Kubernetes è un punto centrale nel mercato come standard “de facto” per l’orchestrazione di Container, che significa che gli sviluppatori possono scegliere come target una piattaforma comune, consentendo a un ricco ecosistema di svilupparsi attorno a essa.

Questo è ciò che ha reso Linux così popolare.

All’interno di questo ecosistema ci sono progetti open source incentrati sul miglioramento delle funzionalità e dei servizi della piattaforma, per aiutare gli sviluppatori a creare applicazioni più rapidamente.

In che modo queste tecnologie emergenti guideranno la strategia a breve e medio termine di Red Hat ?

Vediamo l’open source come motore di innovazione per l’industria tecnologica. 

Questo modello di sviluppo collaborativo sta guidando il progresso delle nuove tecnologie che stanno cambiando radicalmente il modo in cui risolviamo i problemi nel mondo, dall’intelligenza artificiale e il machine learning, a Kubernetes e Container, a IoT ed edge computing, e altro ancora. 

Sono in fase di sviluppo framework, librerie e set di strumenti per rendere più accessibile questo tipo di supercalcolo e di “data science”.

Red Hat ha un modello di sviluppo completamente open source e, quindi, gran parte della nostra direzione strategica proviene da quelle comunità

Il tema centrale alla base della strategia di Red Hat è “Open Hybrid Cloud” e Linux, Container e Kubernetes sono tasselli fondamentali di questo modello. 

Come fornitore di piattaforme cloud ibride, Red Hat deve essere in grado di eseguire i nuovi tipi di carichi di lavoro mano a mano che si evolvono e deve essere pronta per qualsiasi altra cosa ci possa essere dietro l’angolo.

Lo facciamo in due modi: sia sviluppando funzionalità a livello di piattaforma all’interno del nostro software, sia lavorando con un ecosistema di partner che fornisca funzionalità aggiuntive.

LASCIA UNA RISPOSTA

Per favore inserisci i tuoi commenti
Per favore inserisci il tuo nome qui

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.