L’area di ricerca che può rivoluzionare l’approccio IT delle aziende: l’autonomic computing

Le aziende sono sempre più interessate all’autonomic computing, area di ricerca che promette di rivoluzionare completamente il modo in cui le organizzazioni gestiscono le proprie infrastrutture IT. Si tratta della progettazione di sistemi informatici in grado di operare autonomamente senza la necessità di interventi umani, per consentire una tecnologia informatica più avanzata e ridimensionare il carico di lavoro del personale. 

Il concetto di “calcolo autonomo” è stato sviluppato poco più di 20 anni fa per semplificare la gestione dei sistemi informatici con notevoli vantaggi per le aziende:

  • riduzione dei costi di distribuzione e di manutenzione e diminuzione delle tempistiche, poiché il sistema è in grado di risolvere autonomamente le problematiche, richiedendo pochissimo intervento umano.
  • maggiore resilienza e flessibilità, per consentire alle aziende di adattarsi rapidamente alle nuove esigenze dinamiche del business, gestendo in autonomia le infrastrutture.

Cos’è l’Autonomic Computing?

L’Autonomic Computing è la disciplina che studia e progetta sistemi informatici distribuiti e adattivi in grado di gestirsi autonomamente. L’obiettivo è rendere gli ambienti IT più flessibili e resilienti per adattarsi alle continue trasformazioni digitali e garantire la continuità operativa anche in caso di eventi imprevisti, come i classici scenari di disaster recovery.

Il termine Autonomic Computing viene introdotto nel 2001, quando John Kelly e i colleghi di IBM riescono a capire che l’infrastruttura di calcolo presente non era in grado di tenere il passo con la crescente complessità dei sistemi Web 2.0, i quali avrebbero di lì a poco seguito i principi di interoperabilità e interconnettività. Serviva un sistema autonomo capace di configurare, ottimizzare e risolvere eventuali problematiche senza la necessità di un intervento di personale costante.

Ispirandosi alla capacità del corpo umano, in grado di regolare le funzioni critiche senza pensiero cosciente e di agire e reagire agli stimoli in autonomia, prende vita l’Autonomic Computing Paradigm: paradigma in grado di imparare da input raccolti dall’esterno ed elaborati, poi, da algoritmi di apprendimento e reti neurali.

 

Le caratteristiche principali dell’autonomic computing

L’autonomic computing migliora le capacità di elaborazione e riduce il tempo richiesto dai professionisti per risolvere le difficoltà dei sistemi e altre operazioni di manutenzione, come gli aggiornamenti software o le problematiche provenienti dall’ambiente interno – l’utilizzo eccessivo della CPU ad esempio – sia da quello esterno, come un possibile attacco ransomware.

I sistemi di calcolo autonomo sono progettati utilizzando un insieme di principi noti come le quattro leggi degli Autonomic System, definite da IBM: 

  • self-configuration, l’auto-configurazione
  • self-healing, la correzione automatica degli errori
  • self-optimization, l’ottimizzazione delle risorse e il controllo automatico per un sistema più performante
  • self-protection, la protezione e l’identificazione degli attacchi in maniera proattiva.

Questi quattro concetti sono alla base della filosofia dell’autonomia informatica: l’autonomic computing deve basarsi su automazione, adattabilità e consapevolezza e, cioè, il computer deve essere in grado di adattarsi autonomamente alle richieste dell’utente e alle condizioni ambientali.

Autonomic computing e cloud computing

Data information on cloud to backup storage internet data.

Le aziende, oggi, sono alla ricerca di soluzioni che consentono la gestione autonoma delle proprie infrastrutture IT. L’autonomic computing è la risposta a tale esigenza e il cloud computing rappresenta un importante strumento per la realizzazione di questi ambienti, poiché mette a disposizione delle imprese un’infrastruttura scalabile e flessibile.

L’intersezione tra cloud computing e autonomic computing ha lo scopo di raggiungere capacità elevate di autogestione e consentire, quindi, un funzionamento indipendente, minimizzare i costi e i rischi, adattarsi in modo proattivo e gestire la complessità dei sistemi con un alto numero di componenti.

L’autonomic computing e il cloud computing insieme lavorano su differenti livelli di tecnologie: piattaforme hardware, di archiviazione e networking; progettazione di data center per fornire servizi cloud on demand; sistemi di protezione e sicurezza informatica.

Autonomic Computing e Edge Computing: gli sviluppi futuri

Il cloud computing, riducendo i costi di archiviazione ed elaborazione dei dati, è stato il principale contributore alla trasformazione digitale degli ultimi tempi. Presenta però dei limiti:

  • nelle situazioni in cui è necessario trasferire grandi quantità di dati, come per esempio quelli provenienti dai dispositivi IoT o da applicazioni che richiedono connessioni con una capacità elevata e che rischiano di creare latenza;
  • nel rapporto con l’ambiente, poiché la sua rapida crescita ha comportato un aumento di data center e quindi di emissioni di carbonio.

Per questo nasce il concetto di Edge Computing, per migliorare la sostenibilità dal punto di vista ambientale, sociale ed economico abilitando soluzioni tecnologiche e applicazioni più performanti, e migliorare quelle che venivano eseguite sul calcolo on-premise.

 

Edge Computing: cos’è e come può migliorare la sostenibilità

L’Edge Computing essendo un modello di calcolo distribuito riduce la distanza tra la raccolta e l’elaborazione dei dati, consumando meno risorse e migliorando la sostenibilità delle aziende.

 

L’Edge Computing è un modello di calcolo distribuito che riduce le distanze percorse dai dati. L’obiettivo principale è di eliminare il più possibile la latenza e aumentare la stabilità della rete, poiché l’elaborazione avviene localmente e vicino al luogo in cui le informazioni vengono generate.

Una sorta di pre-elaborazione in grado di fornire risposte immediate e di trasferire successivamente nel cloud un set di dati ridotto, per velocizzare ulteriori rielaborazioni. Questo processo permette di creare servizi più efficienti, consumando meno risorse naturali; è possibile, quindi, grazie all’Edge Computing migliorare la sostenibilità riducendo gli sprechi e sviluppando servizi più intelligenti con la decentralizzazione delle strutture.

In una situazione come questa, è ovvio che i Data Center tradizionali, centralizzati nelle strutture dell’azienda, non saranno più presi in considerazione. Gartner stima, infatti, che entro il 2025 otto su dieci verranno riposizionati, a favore di una crescita di sistemi ibridi, che includono applicazioni cloud, servizi di colocation e piccoli data center situati vicino alle organizzazioni. Un network distribuito, praticamente la base dell’Edge Computing.

 

Colocation Data Center: utilizzare soluzioni flessibili insieme all’Edge Computing

Poiché i dati non vengono trasportati a Data Center distanti, l’Edge Computing richiede soluzioni locali. Ed è proprio per questo che i servizi di Colocation o Housing sono l’ideale, sempre più utilizzati dalle aziende che non hanno risorse o spazi necessari per l’installazione di un sistema informatico.

L’affitto di una stanza privata o condivisa o di appositi armadi, i cosiddetti rack, di un Data Center permettono, quindi, di utilizzare tutti i servizi di un hosting provider e dell’infrastruttura IT senza preoccuparsi di investire in strutture proprietarie. Questo tipo di installazione colma le distanze tra piccoli data center automatizzati con sistemi di autonomic computing.

Le strutture di Colocation sono solitamente costruite in posizioni strategiche, per questo consentono facilmente l’implementazione di server nelle vicinanze delle aziende e di migliorare le performance con estrema flessibilità, resilienza e sicurezza.