Scienza

La carenza di figure specializzate ostacola l'adozione dell'intelligenza artificiale in Italia

2025-03-31

Autore: Luca

Un recente studio internazionale di Red Hat, la più grande azienda di software open source al mondo, ha evidenziato come l'80% dei responsabili IT italiani consideri la mancanza di figure specializzate come i Data Scientist o gli esperti di machine learning un ostacolo significativo per sbloccare il potenziale dell'intelligenza artificiale nel tessuto economico locale. Questo dato critico colpisce anche il settore della cybersecurity, dove l'82% dei manager informatici italiani ha identificato la carenza di competenze come la principale lacuna, ben al di sopra della media globale del 65%.

La situazione attuale è allarmante e mette in luce l'urgenza di investire in formazione e riorganizzazione aziendale per affrontare le crescenti complessità legate all'adozione delle tecnologie degli algoritmi. Le aziende italiane si trovano, quindi, a dover adottare strategie efficaci per colmare questo divario di competenze e promuovere la collaborazione tra team, garantendo al contempo un utilizzo sicuro e responsabile dell'AI.

Diversi fattori contribuiscono a questa carenza di profili altamente specializzati. Da un lato, la domanda per queste figure cresce a ritmi esponenziali, grazie all'ampia adozione dell'AI. Dall'altro, il sistema formativo fatica ad adeguarsi, producendo un numero insufficiente di professionisti con le competenze richieste. Non mancano solo le figure numeriche, ma esiste anche un disallineamento tra le competenze disponibili e quelle effettivamente necessarie per operare in un settore in rapida evoluzione. Mancano Data Scientist con esperienza su modelli di AI generativa e esperti di machine learning capaci di ottimizzare modelli specifici di dominio, assieme a cloud architect con competenze in sicurezza e scalabilità nel cloud ibrido. Questo gap tra domanda e offerta ha un duplice effetto negativo: rallenta l'adozione dell'intelligenza artificiale e limita il potenziale di innovazione.

Per la maggior parte dei responsabili IT, è fondamentale poter contare su modelli di AI trasparenti e con fonti spiegabili. Ma il management aziendale è altrettanto sensibile all'uso etico di queste tecnologie? Gli IT manager tendono ad essere più consapevoli dei rischi associati all'utilizzo di modelli non trasparenti, mentre il resto del management potrebbe non avere la medesima familiarità. Recenti dati di McKinsey rivelano che solo il 40% delle aziende comprende l'importanza della "spiegabilità" dell'AI come fattore di rischio e solo il 17% si impegna attivamente per mitigarlo.

Impressionanti statistiche indicano che molte aziende preferiscono il ritorno sugli investimenti e la rapidità di implementazione rispetto a questioni etiche. Sebbene l'open source possa promuovere la trasparenza, non è sufficiente da solo per garantire un utilizzo etico dell'AI. È essenziale un approccio olistico che prenda in considerazione non solo la trasparenza, ma anche la sicurezza, la privacy e l'impatto sociale delle tecnologie stesse. La gestione attenta di questi aspetti è cruciale affinché i modelli di AI possano migliorare la società, tutelandola dai rischi, e creando un equilibrio tra apertura e sicurezza.

In questo contesto, è imperativo incoraggiare mandati politici e iniziative pubbliche destinate a promuovere programmi educativi e di formazione, con una particolare attenzione a preparare le future generazioni ad affrontare le sfide del mondo del lavoro nell'era dell'AI. Senza una chiara strategia di sviluppo delle competenze, l'Italia rischia di rimanere indietro in un mercato globale in continua evoluzione.