Internet of Things, spesso conosciuto sotto lo pseudonimo di IoT, è la tematica del momento. Ha sostituito, nell’ordine, Cloud e Social e, oggi, ha affiancato - o forse esteso - il sempre più inflazionato Big Data.
E’ innegabile che, a differenza di altri temi più volatili, quello dell’Internet of Things è un argomento destinato a cambiare radicalmente il nostro modo di vivere e, soprattutto, di concepire e di percepire il mondo che ci circonda.
E nell’ambito della sicurezza?
Il proliferare di oggetti, sistemi, macchine, equipaggiamenti, device, connessi a Internet e connessi tra di loro, crea un significativo bisogno di sicurezza fisica.
Elementi di sicurezza quali badge di accesso, telecamere di videosorveglianza ecc. saranno nodi fondamentali per l’Internet of Things.
L’IoT non potrà ottenere un definitivo successo in nessuna organizzazione senza livelli di sicurezza integrati, sia fisici che delle infrastrutture network.
Sicuramente si tratta di un argomento approcciabile da mille e più prospettive. Nel caso in questione, è possibile affermare che il tema sarà analizzato dal punto di vista dei dati.
Ogni giorno, da tutti gli apparati, da tutti i sensori sparsi in tutto il mondo, vengono generati più di due Exabytes (un trilione di byte..) di dati, immagazzinati e processati in database, pronti per essere analizzati e fornire quelle informazioni vitali per il business.
Come generare valore da queste informazioni, con quali soluzioni gestire la quantità sempre crescente di dati, è stato - tra gli altri - argomento dell’Internet of Things World Forum di Chicago, durante il quale ParStream ha presentato la propria Analytics Platform, prima nel suo genere.
Perché una piattaforma analitica per l’Internet of Things?
L’Internet of Things ha il potenziale di trasformare - come e quando - le decisioni che vengono prese, sia nel business che nella nostra vita quotidiana, ma a patto che i dati generati vengano processati e analizzati in maniera efficace. Per fare ciò, sono necessari nuovi approcci alla gestione dei sati.
La velocità con cui i dati vengono processati e poi analizzati è un fattore determinante, in grado di fare la differenza rispetto al valore di un’informazione.
La correlazione, poi, tra “dati storici” e “dati attuali” permette alle aziende di prendere decisioni sempre più puntuali.
Le installazioni tipiche di Internet of Things sono caratterizzate dalla presenza di numerosi apparati - sensori, ad esempio - che, a intervalli prestabiliti (spesso nell’ordine di secondi o anche di millisecondi), generano dati relativi al proprio operato.
Un esempio: i sensori presenti nei motori di un Boeing producono vari TB di dati per ogni volo effettuato.
Su ogni turbina a gas, sono presenti mediamente duemila sensori che registrano dati riguardanti vibrazioni, temperatura, pressione ecc. che generano più di un miliardo di misurazioni all’ora.
Per poter raccogliere efficacemente informazioni dei flussi continui di dati degli eventi in tempo reale, le aziende devono tener conto di questi fattori:
- velocità: l'afflusso costante di dati a velocità sotto al secondo richiede una piattaforma di analisi in grado di elaborare queste richieste in tempi altrettanto bassi (senza latenza)
- allocazione delle risorse: le massicce quantità di dati generati dal IoT può esaurire rapidamente anche la più grande quantità di server e di generare un impatto considerevole sulle architetture e le infrastrutture tradizionali
- caricamento: in definitiva, una piattaforma di analisi IoT deve essere in grado di caricare i dati in un repository nel modo più rapido, appena i dati vengono generati, per consentire agli utenti di aggregare i “dati tattici” in entrata con i "dati storici” e i “dati strategici”
A complicare il quadro, si aggiungono soluzioni che si occupano di “data streaming”, di “data visualization”, di allarmistica e un vasto assortimento di strumenti per interpretare i dati ed estrarne significati.
Tutti questi elementi possono creare non pochi grattacapi alle aziende che cercano di fare convivere tutte questi strumenti innovativi con quelli esistenti, per adeguare le infrastrutture ai cambiamenti imposti dall’IoT.
Oggi è possibile trarre vantaggio da quello che, al momento, risulta essere il database pilastro dell’unica piattaforma analitica concepita e disegnata specificatamente per affrontare le sfide lanciate dall’Internet of Things.
Si tratta di ParStream Analytics Platform, piattaforma in grado di coprire efficacemente i tre aspetti (velocità, allocazione delle risorse, caricamento) determinanti nelle applicazioni IoT e di permettere alle organizzazioni di trarre vantaggio da un nuovo modo - completamente integrato - di gestire e analizzare i dati prodotti dai propri apparati.
La soluzione è disegnata per gestire enormi volumi di informazioni ad altissima velocità, per aiutare le organizzazioni a generare report efficaci da device interconnessi tra di loro.
Oltre al “core” rappresentato dal database, la piattaforma è stata “assemblata” grazie all’integrazione nativa con le tecnologie di due aziende leader nei propri settori di competenza: Informatica e Datawatch, per gestire due elementi cruciali del processo di analisi, ovvero lo streaming dei dati/ETL (Extract-Transform-Load) e la visualizzazione.
Visualizzazione e streaming dei dati
C’è un rapporto fondamentale tra la visualizzazione dei dati e dati in streaming.
Potendo visualizzare tali dati in streaming direttamente con Datawatch, un utente finale è in grado di osservare efficacemente gli effetti dei dati in tempo reale e agire di conseguenza.
In alternativa, è possibile memorizzare i nuovi dati in un database e aggregarli con i propri dati storici e utilizzare strumenti di visualizzazione per visualizzare l'effetto complessivo dei dati in streaming e dati strategici tradizionali.
Con questo approccio innovativo alla gestione dei dati, è possibile realizzare applicazioni in grado di impattare notevolmente il business tradizionale delle aziende.
Ad esempio, nel campo della manutenzione “intelligente” è possibile, adesso, prevenire la rottura di apparecchiature costose (motori di camion, turbine ecc.) analizzando i dati prodotti dai sensori correlandoli con i dati storici.
E’ possibile prevenire il degrado di un network telefonico analizzando i dati provenienti dalle celle presenti in ogni città (nell’ordine di miliardi di record prodotti ogni giorno da un’azienda telefonica di medie dimensioni).
Un altro aspetto importante - e innovativo - della piattaforma è il concetto di Geo-Distributed-Analytics. In sintesi: perché spostare i dati (e, quindi, perdere notevolmente in termini di performances e tempi di risposta), quando ora è possibile effettuare le analisi direttamente laddove i dati sono generati e spostare solo i risultati?
Quali sono in benefici immediati di una piattaforma integrata rispetto a un approccio tradizionale?
E’ evidente che una soluzione integrata permette alle aziende di risparmiare in termini di tempi di go-to-market.
Un approccio non organico obbliga le aziende a mettere in campo attività estremamente time-consuming, per integrare e fare convivere tutte le componenti di una applicazione IoT.
Filippo Durango
Country Manager ParStream Distribution Italia