Intelligenza artificiale, il faro dell’etica tra opportunità e timori

di Federico Nicolini

La prospettiva di Frankenstein, con il mostro che sfugge al controllo del suo creatore, si riaffaccia periodicamente nelle discussioni sull’evoluzione tecnologica. Ora che l’intelligenza artificiale comincia a prendere piede, questa prospettiva assume un peso particolarmente rilevante. Infatti, nel momento in cui le macchine acquisiscono capacità umane come il ragionamento, l’apprendimento, la pianificazione e la creatività, mettendosi in relazione con l’ambiente circostante, emerge il timore che un giorno possano prendere il potere soppiantando il genere umano.

L’etica dell’innovazione

Il tema dell’etica dell’innovazione ha animato la conferenza internazionale “Etica e Intelligenza Artificiale”, organizzata nelle scorse settimane da Aspen Institute ItaliaTim e Intesa Sanpaolo, nel corso della quale, alla presenza di Giulio Tremonti, Luigi Gubitosi e Stefano Lucchini, è stato presentato il report “The Way to Venice”, così intitolato in omaggio alla città lagunare che ha ospitato l’evento.

Uno studio che ha approfondito le caratteristiche dell’intelligenza artificiale e le sue implicazioni in azienda, segnalando una serie di pregiudizi legati al suo funzionamento. Dal confronto tra gli esperti e dalle evidenze del rapporto è emersa innanzitutto l’esigenza di definire, insieme alle politiche e attività di ricerca e industriali, un approccio etico e affidabile all’utilizzo di questa evoluzione della tecnologia, nella convinzione che questa cornice sia indispensabile per un sano sviluppo del settore, senza incorrere in conflitti sociali.

La ricerca dell’equilibrio

Un altro tema emerso dallo studio e oggetto di approfondimento all’evento di Venezia è il difficile equilibrio fra lo sviluppo etico dell’applicazione dell’innovazione tecnologica, lo sviluppo d’impresa e la regolamentazione, dato che si tratta di contemperare l’interesse alla crescita con la necessità di tutelare diritti consolidati nel tempo. In quest’ottica la regolamentazione è necessaria, ma di non facile definizione.

Un’altra questione di grande rilievo è relativa ai limiti tecnici e morali dell’intelligenza artificiale in ambito aziendale, con la necessità di definire a monte principi, linee guida, regole di comportamento e sistemi di controllo per garantire un approccio etico nello sviluppo di soluzioni di AI. In quest’ottica, sottolinea lo studio, il valore della fiducia è fondamentale e dovrebbe caratterizzare tutte le persone che entrano in relazione con queste soluzioni, dai dipendenti ai fornitori, dai clienti alle comunità locali nelle quali si opera.

La nuova consapevolezza culturale

La cultura dell’etica può quindi risolvere numerosi problemi a monte, prima cioè che un prodotto entri sul mercato e la regolamentazione può svolgere, invece, un controllo ex-post. Infine, il tema dell’educazione e dell’informazione per la cittadinanza digitale, che vanta implicazioni altrettanto profonde. Non si tratta solo di rafforzare i percorsi formativi sui temi del digitale, spiegano gli autori del rapporto, ma di introdurre una soluzione più radicale, in grado di superare la suddivisione tra percorso scientifico e umanistico del sistema di istruzione nazionale. Al contempo, tuttavia, è necessario sviluppare un contesto di fondo che sappia favorire un’azione sinergica, affinché la tecnologia venga “sfruttata” al massimo delle sue potenzialità, lasciando il baricentro dell’innovazione nelle mani dell’uomo.

Rispondi

%d blogger hanno fatto clic su Mi Piace per questo: