L‘aumento dei dispositivi IoT sta producendo un’enorme quantità di dati da elaborare nei data center, spingendo al limite i requisiti di larghezza di banda della rete. Nonostante i miglioramenti della tecnologia di rete, i data center non possono sempre garantire velocità di trasferimento e tempi di risposta accettabili
Il cosiddetto Edge computing, diventato molto popolare con l’avvento di Industria 4.0, è un concetto di calcolo distribuito che avvicina il calcolo stesso e l’archiviazione dei dati alla posizione in cui sono necessari. Ciò riduce al minimo la necessità di comunicazioni a lunga distanza tra client e server, migliorando la latenza (quindi le prestazioni della rete) e permettendo di risparmiare larghezza di banda.
In particolare, elaborando i dati più vicino alla fonte e riducendo la distanza fisica che devono percorrere, l’Edge computing (o elaborazione al margine) ottimizza i dispositivi Internet (IoT) e le applicazioni Web.
Secondo una ricerca di IDC, l’Edge Computing è una “rete di micro data center che elaborano o memorizzano localmente i dati critici in una zona molto limitata”.
Per i dispositivi IoT, il ‘margine della rete’ è il punto in cui il dispositivo, o la rete locale che contiene il dispositivo, comunica con Internet. Il limite è un po’ sfocato: per esempio, il computer di un utente o il processore all’interno di una videocamera IoT possono essere considerati il margine della rete, ma anche il router dell’utente, l’ISP o il server periferico locale possono rappresentare il limite. L’importante è che il margine della rete sia geograficamente vicino al dispositivo, a differenza dei server tradizionali, che possono essere molto lontani dai dispositivi con cui comunicano.
Prendiamo in considerazione un edificio protetto da videocamere IoT ad alta definizione. Si tratta normalmente di telecamere ‘stupide’ che trasmettono continuamente a un server cloud un segnale video non elaborato. Sul server cloud, il segnale video di tutte le telecamere viene filtrato da un’applicazione di rilevamento del movimento per fare in modo che solo le parti contenenti attività siano salvate nel database del server. Ciò significa che c’è un’attività costante e significativa sull’infrastruttura Internet dell’edificio, perché l’elevato volume di riprese video trasferite consuma una notevole larghezza di banda. Inoltre, c’è un carico molto pesante sul server che deve elaborare contemporaneamente le riprese video da tutte le telecamere.
Immaginiamo ora che i calcoli eseguiti dai sensori di movimento siano spostati sul margine della rete. Se ogni telecamera utilizzasse il proprio processore interno per eseguire l’applicazione di rilevamento del movimento e inviare i clip al server secondo necessità l’uso della larghezza di banda si ridurrebbe in modo significativo, perché molte delle riprese non verrebbero più trasmesse. Inoltre, il server dovrebbe memorizzare solo i clip importanti, quindi potrebbe comunicare con un numero più elevato di telecamere senza sovraccaricarsi.
Per quanto riguarda gli aspetti di privacy e sicurezza, la natura distribuita dell’Edge Computing modifica gli schemi tradizionalmente utilizzati nel cloud computing: non solo i dati dovrebbero essere crittografati, ma dovrebbero essere adottati diversi meccanismi di crittografia, poiché i dati possono transitare tra diversi nodi distribuiti collegati tramite Internet.
D’altra parte, mantenendo i dati sul margine è possibile spostare la proprietà dei dati raccolti dai fornitori di servizi agli utenti finali.
L’Edge Computing può tuttavia presentare anche alcuni svantaggi, come l’aumento dei potenziali attacchi alla sicurezza. Con l’aggiunta di più dispositivi ‘intelligenti’ in rete, come i dispositivi IoT dotati di processori integrati, ci sono nuove opportunità per i malintenzionati. Un altro svantaggio è la richiesta di più hardware locale. Per esempio, mentre a una telecamera IoT occorre un processore integrato per inviare i dati video non elaborati a un server, per poter eseguire i propri algoritmi di rilevamento del movimento essa richiederebbe un computer molto più sofisticato con una maggiore potenza di elaborazione.