L'ANALISI
04 Luglio 2023 - 05:25
Secondo Tim Barrett (l’amministratore delegato di Cisco), il XXI secolo può essere definito come l’era degli zettabyte (1 zettabyte = 1021 byte = 1 triliardo di byte, l'equivalente di 36 milioni di anni di video in alta definizione!).
Mediamente, negli ultimi 30 anni i dati sono raddoppiati ogni 18 mesi, una crescita esponenziale dovuta a satelliti, sensori, immagini da tac o risonanza magnetica per la diagnosi clinica e, naturalmente, a testi, immagini e video che sono incessantemente caricati nel web grazie ai social media. Basti pensare che oltre 3 miliardi di individui hanno oggi accesso a Internet, che si stima che ogni minuto in YouTube vengano caricati 300 ore di nuovi video, prodotti 350.000 tweets su Twitter, postati 4.200.000 posts su Facebook, 1.700.000 foto su Instagram, 110.000 calls in Skype, eccetera. È grazie a questo enorme volume di dati, alla diffusione del cloud computing che consente di accedere a grandi potenze di calcolo a costi contenuti, e allo sviluppo degli algoritmi dell'intelligenza artificiale e del machine learning in particolare, che l’Intelligenza Artificiale ha prepotentemente invaso le nostre vite nell’ultimo decennio. E, più recentemente, ci sta conducendo nell’iper-realtà del Metaverso, un mondo parallelo, ricostruibile con grande accuratezza e realismo, grazie al quale possiamo visitare musei da remoto, farci condurre da automobili a guida autonoma, costruire dei gemelli digitali del nostro cuore o del nostro cervello. Tuttavia, il nuovo universo non ha solo tinte luminose.
Algoritmi sempre più intrusivi possono invadere gli spazi più intimi della nostra vita e svelare in anticipo (a noi e agli altri, datori di lavoro, compagnie di assicurazione, partiti politici) le nostre caratteristiche, debolezze, preferenze.
Il sogno di costruire macchine intelligenti è ormai antico. Fu introdotto quasi 70 anni fa dall’informatico americano John McCarthy che coniò per l’occasione il termine Intelligenza Artificiale (IA, in breve). Un aspetto essenziale dell’IA è l’apprendimento automatico da parte dei computer, ovvero il Machine Learning (ML), il processo grazie al quale gli algoritmi sono in grado di migliorare in modo automatico le proprie performance attraverso l'esperienza (ossia attraverso l’addestramento basato su grandi quantità di dati). Uno degli strumenti principali alla base del successo del ML è rappresentato dalle reti neurali artificiali (Artificial Neural Networks, ANN), dei complessi sistemi matematici che emulano il comportamento dei processi decisionali umani.
È grazie alle reti neurali artificiali che gli algoritmi di ML rispondono a specifiche domande (o risolvono complessi problemi) senza essere stati specificatamente programmati a questo scopo, ma apprendendo a farlo in modo autonomo sulla scorta dei dati di addestramento. I campi di applicazione sono virtualmente infiniti: dall'automazione alla visione artificiale, dal riconoscimento della voce a quello dei testi scritti (si pensi ai traduttori automatici), sino alla capacità sbalorditive dell’IA generativa.
Quest’ultima è una tecnologia che crea contenuti — compresi testi, immagini, video, persino codici informatici — identificando modelli in grandi quantità di dati di addestramento e creando poi nuovo materiale originale con caratteristiche simili. ChatGPT è l’esempio principale per i testi. Si tratta del modello linguistico di intelligenza artificiale del laboratorio di ricerca OpenAI, e dallo scorso novembre ne parliamo o ne sentiamo parlare per la sua capacità di rispondere a domande complesse, scrivere poesie, generare codici, pianificare vacanze e tradurre lingue. È facile immaginare che le nuove intelligenze artificiali generative, come ChatGPT (utilizzata per marketing, copywriting e giornalismo) e Midjourney e DALL-E2 (per il design e la grafica), daranno impulso all’era dell’automazione intelligente. Il Ceo di Microsoft, Satya Nadella, ha affermato recentemente che in un futuro non troppo lontano gli utenti inizieranno a lavorare non più da un foglio bianco, ma da una bozza generata dall’AI. Tuttavia, il lavoro umano sarà tutelato e si concentrerà su funzioni di livello superiore, come la supervisione e l’elaborazione di queste bozze.
L’opinione pubblica, alla luce di queste evidenze, percepisce inevitabilmente l’incombenza dell’IA in modo minaccioso. Niente di nuovo, verrebbe da dire: ogni volta che, nella storia del genere umano, una nuova tecnologia si è affacciata nelle nostre vite, essa ha portato ad una rivoluzione: quella dell’agricoltura, quelle industriali, quella informatica. Nel caso dell’IA, penso sia opportuno fare un minimo di analisi di contesto.
Partiamo da qualche esempio. Oggi, tutte le auto che escono dalle fabbriche in Europa, grazie a una legge europea, devono essere dotate di un sistema di rilevamento automatico delle collisioni, l’Aebs, automatic emergency braking system in inglese. Sono questi sistemi che consentono all'auto di frenare automaticamente, che salvano vite umane e riducono le collisioni di circa il 40%.
Questa applicazione si basa in buona parte sulla scoperta delle cosiddette reti artificiali convoluzionali, che consentono la visione artificiale e il riconoscimento di oggetti. Le ‘vediamo’ operare anche sui nostri telefoni cellulari, con sistemi che identificano una pianta a partire da una foto della foglia (giusto per fare un esempio). Le tecniche risalgono alla fine degli anni ’80 e all'inizio degli anni ’90, ma solo di recente si sono avuti abbastanza dati per addestrare le reti convoluzionali e computer sufficientemente potenti per eseguire questi algoritmi.
In questo momento, ci sono anche molte applicazioni che vengono testate e parzialmente implementate nel campo della salute, come sistemi di rilevamento di tumori nelle mammografie, oppure sistemi di classificazione di tumori della pelle. Nel campo della scoperta di nuovi farmaci, grazie all’uso dell'intelligenza artificiale si possono prevedere la conformazione delle proteine e sapere come progettare una molecola che si legherà a un sito specifico su una proteina e avrà un desiderato effetto biologico. Non vi è dubbio, ad esempio, che l’IA abbia avuto un ruolo significativo nell’accelerazione del processo che ha condotto alla realizzazione in tempo record di vaccini efficienti a contrastare l’infezione da Covid-19.
La banca d'investimento Goldman Sachs annuncia che l’intelligenza artificiale potrebbe minacciare fino a 300 milioni di posti di lavoro in tutto il mondo. Che reazione possiamo avere? Che la tecnologia sostituisca tante professioni è vero da sempre. All’epoca della rivoluzione industriale, la maggior parte della popolazione italiana lavorava nella produzione di cibo, nei campi, nelle fattorie, eccetera. A fine 2022, la popolazione agricola italiana è inferiore al 4% dell’intera popolazione lavorativa, quella nel Regno Unito è dell’1%!. C’è stato uno spostamento delle professioni, dovuto al progresso tecnologico.
Nuove tecnologie creano nuovi mestieri e ne eliminano altri. Il Future of Jobs Report 2023 del World Economic Forum Report, arriva a conclusioni che si possono sintetizzare nel modo seguente. L’adozione della tecnologia digitale, in particolare IA, big data e cloud computing, è il motore principale della trasformazione aziendale, con oltre l’85% delle organizzazioni che riconoscono questo cambiamento. I ruoli nell'intelligenza artificiale, nell’apprendimento automatico, nella sostenibilità e nelle energie rinnovabili sono in forte espansione. Al contrario, ruoli impiegatizi come cassieri di banca, impiegati dei servizi postali e addetti al data entry stanno diminuendo a causa della digitalizzazione e dell'automazione. Le competenze più richieste nei prossimi anni saranno il pensiero analitico, il pensiero creativo, la resilienza, la flessibilità, l'agilità e l'alfabetizzazione tecnologica.
In ‘Umanesimo Digitale’, Julian Nida-Rumelin e Nathalie Weidenfeld, osservano: «I computer possono simulare con successo il pensiero ma non hanno coscienza dei problemi né hanno intuizioni». I computer non sanno di sapere e nemmeno di non sapere. Non comprendono il significato di quello che fanno. Possono tradurre benissimo una lingua senza alcuna consapevolezza del risultato e senza alcuna coscienza. Di più, essendo completamento all’oscuro delle regole (anche le più elementari) della grammatica e della sintassi. Non sono empatici, ovvero non condividono i nostri sentimenti e le nostre sofferenze.
Anche quando ChatGPT ci dà la sensazione di capirci e interloquire con noi come lo farebbe un umano, in realtà per ogni sequenza di parole (quella che noi suggeriamo con il prompt, ovvero formulando una domanda) sta ‘semplicemente’ producendo una distribuzione della sequenza successiva pescando dall’universo del web secondo criteri puramente matematici (stocastici), grazie alla scelta di parametri che caratterizzano un modello di risposta, individuati risolvendo un problema che soddisfa un criterio di massima verosimiglianza.
È anche per via di questo processo che talvolta ChatGPT (e altre chatbot) producono le cosiddette allucinazioni dell’Intelligenza Artificiale: la risposta fornita non è basata sul set di dati su cui la chat è stata addestrata né prevista dal modello con cui è stata realizzata. I risultati sono, semplicemente, non corretti. In questo stato di allucinazione digitale viene fornita una risposta efficace, chiara, logica, ma del tutto inventata, con informazioni verosimili ma false e infondate. È importante esserne consapevoli: non affidiamo (ancora) a questi strumenti deleghe in bianco, ma sfruttiamone il gigantesco potenziale avocando comunque a noi stessi l’onere e la responsabilità delle nostre scelte e delle nostre decisioni.
Copyright La Provincia di Cremona © 2012 Tutti i diritti riservati
P.Iva 00111740197 - via delle Industrie, 2 - 26100 Cremona
Testata registrata presso il Tribunale di Cremona n. 469 - 23/02/2012
Server Provider: OVH s.r.l. Capo redattore responsabile: Paolo Gualandris