Journal
INTELLIGENZA ARTIFICIALE
ELABORAZIONE DATI, CAPACITÀ DECISIONALE E APPLICAZIONI PRATICHE: L’IA COME VANTAGGIO COMPETITIVO PER L’AZIENDA
Quando si parla di Intelligenza Artificiale, si intende lo sviluppo di hardware e software dotati di capacità di comprensione, elaborazione del linguaggio e delle immagini, di apprendimento, di pianificazione e integrazione. Capaci, quindi, di lavorare in modo autonomo su un obiettivo definito e di prendere decisioni, attività tradizionalmente associate e affidate agli esseri umani.
L’Intelligenza Artificiale si basa su tecniche di apprendimento e non sulla programmazione: una volta definiti gli algoritmi di base, questi sono capaci di elaborare enormi quantità di dati.
Nata negli anni ’50 del secolo scorso, oggi l’intelligenza artificiale può essere alla portata di tutte le aziende che vogliano un deciso vantaggio strategico: servono però competenze specifiche per inserirla all’interno dei processi di business.
Cerchiamo dunque di capire meglio concetti come intelligenza artificiale, machine learning, big data e analysis assieme ad un esperto del settore.
“L’intelligenza artificiale – spiega Edgardo Di Nicola Carena, Head of Data Science di Abstract - è la capacità delle macchine, in particolare dei computer, di apprendere autonomamente dall’ambiente circostante. Questo non significa che una macchina dotata di intelligenza artificiale impari completamente da sé: in breve, è simile a un bambino che ha capacità di auto apprendere ma necessita della guida di un genitore. Un programma informatico dotato di intelligenza artificiale ha bisogno della figura umana di uno o più data scientist, che definiscano le regole di base del suo apprendimento”.
Nelle industrie, con un monitoraggio continuo in tempo reale dei macchinari, si possono raccogliere quantità pressoché illimitate di dati, tutti molto coerenti e significativi: c’è però bisogno delle capacità di programmatori software e data scientist che siano in grado di codificare in maniera intelligente l’ambito del processo che la macchina deve seguire.
Questi programmi molto sofisticati sono creati a partire dal machine learning, funzione di comprensione del linguaggio naturale e algoritmi statistici da parte dei computer.
“Nell’arco di una giornata lavorativa – prosegue Di Nicola Carena - ognuno di noi svolge una serie di mansioni, da interazioni complesse con i colleghi ad azioni semplici. Con i dati e le conoscenze a cui abbiamo accesso siamo capaci di prendere decisioni sofisticate, che ci possono apparire uniche per le loro caratteristiche di novità o eccezionalità, ma anche alcune banali e ripetitive di cui faremmo volentieri a meno.”
“Per queste ultime, già da decenni sono stati sviluppati software basati su logiche preimpostate: recentemente si parla di Robot Process Automation, sistemi utili per risparmiare tempo e risorse, con ancora oggi tantissimo margine di miglioramento possibile. Se parliamo di processi decisionali che riguardano grande complessità di dati, però, il discorso cambia: lavorando, ad esempio, sulla base di una quantità di dati sia attuali che storici, si può attivare un sistema di intelligenza artificiale che ci aiuti a prendere la miglior decisione possibile.”
TRA BIG DATA E APPLICAZIONI PRATICHE: IA COME CONNESSIONE TRA AZIENDE E CLIENTI
Qui si inserisce il concetto di Big Data, una terminologia su cui si dibatte in rete da diversi anni: cosa significa e qual è il suo legame con l’intelligenza artificiale?
Come il nome suggerisce, si parla di “big data” quando si ha a disposizione un insieme di dati grande e complesso, che richiede la definizione di strumenti e metodologie particolari per estrapolare, gestire e processare informazioni.
Per fare un esempio pratico, abbiamo big data in campo meteorologico quando si raccolgono per 10 anni in maniera continuativa i dati di temperatura, pressione e umidità da milioni di sensori, in aggiunta alle immagini satellitari: con il giusto processo si può comprendere con esattezza il funzionamento del tempo nel mondo.
L’importanza della figura dei data scientist e data engineer emerge prevalentemente proprio in questa fase, quando l’azienda intende o ha la necessità di estrarre valore dai cosiddetti “data lake” (grandi moli di dati non normalizzati perché provenienti da sorgenti differenti), letteralmente quindi un “lago di dati”, e ove necessario renderli fruibili unitamente a quelli gestiti nei “data warehouse” interni (archiviazioni organizzate) per offrire sia un accesso trasparente a tutte le informazioni aziendali senza dover per forza normalizzare ed integrare tutti i database, sia attivare i motori di intelligenza artificiale per individuare relazioni fra dati che un operatore umani non potrebbe intravvedere e su cui costruire e ottimizzare nuovi modelli di business.
Se sul piano teorico potrebbe sembrare utile il semplice accumulo di informazioni, quindi, sul piano pratico c’è molta differenza: l’importante è la lavorazione e la preparazione del dato affinché questo ci risulti davvero utilizzabile in maniera migliore.
“Sebbene l’Italia abbia una storia scientifica di primissimo piano – spiega l’Head of Data Science di Abstract - il tessuto culturale e l’indole del popolo italiano sono molto meno analitici di quanto si possa pensare: l’approccio è quello sintetico e intuitivo, molto meno basato sull’analisi del dato in sé.”
Qui entra in campo la lunga esperienza di Abstract nel mondo dell’intelligenza artificiale.
“Grazie al lavoro sul campo e a collaborazioni eccellenti come quella con il gruppo di Data Science del Politecnico di Milano, l’azienda si è mantenuta sempre leader dell’innovazione, sia con tecniche che non sono ancora di dominio pubblico, sia con le ultime uscite accademiche internazionali”.
In poche parole, la tecnologia sfida la complessità: l’intelligenza artificiale permette applicazioni che vanno oltre le analisi meramente statistiche.
Conclude l’esperto: “Dopo una lunga ricerca e la collaborazione proficua con il Politecnico di Milano, come Abstract abbiamo trovato soluzioni inizialmente davvero insperate. Grazie ad algoritmi, anche open source, che si evolvono e affinano le loro potenzialità, il lavoro umano dei data scientist, che possiamo considerare l’ultimo miglio, riesce a creare una connessione dedicata e decisiva tra tecnologia, dati aziendali e le necessità del cliente finale. Abstract ha fatto su questo tanta esperienza negli ultimi anni”.