Una colossale sfida legale si aggira per l’Europa: l’IA

Nel mondo già di per sé complesso delle scienze giuridiche, si aggira per l’Europa – che accetta la sfida – un colossale problema di regolazione legislativa: quella che si dovrebbe (dovrebbe?) applicare alla Intelligenza artificiale. Più correttamente, per evitare definizioni tanto altisonanti quanto scorrette, applicare a quelle tecnologie di tipo statistico che possono autonomamente, grazie a metodi di apprendimento derivanti dall’analisi di grandi quantità di dati, generare contenuti, previsioni, raccomandazioni o decisioni che influenzano gli ambienti in cui operano e la vita degli esseri umani stessi.

La Commissione Europea ci ha steso una lunga proposta di regolamento, frutto di almeno tre anni di confronto, che si candida ad essere la terza via, tipicamente continentale, cioè più attenta alle conseguenze sui diritti dei cittadini, tra la deregulation americana e l’autoritarismo cinese. Noi europei non ci sogniamo di realizzare social score collettivi e preferiamo non ascoltare troppo le sirene di chi, fregandosi le mani, profetizza la perdita di fette di mercato delle aziende europee, così naif da preoccuparsi di non finire in una puntata di Black Mirror.

In Europa riteniamo importante, messi di fronte all’impressionante sviluppo di queste tecnologie, non prescindere mai dalla sfida antropocentrica (con tutti i suoi limiti) di promuovere una garanzia giuridica della dignità umana rispetto alla IA. Da qui, alcuni apparentemente semplici paletti: l’Intelligenza Artificiale dovrà essere non-escludente, trasparente, non rischiosa in materia di diritti fondamentali (sono vietate, nella proposta, tutte quelle applicazioni che sfruttino la vulnerabilità di specifici gruppi umani, ad esempio).

Di questo si è parlato nella prima parte di #Digital Law, una sorta di rubrica annuale fissa, ormai, dell’Internet Festival, in una tavola rotonda che rimandiamo subito ai lettori più appassionati del tema. Un paio d’ore ad alta densità di competenza.

Per chi volesse prima una sintesi, farsi un’idea, si può dire così: dal mero punto di vista giuridico, noi avremmo già a disposizione quasi tutto quello che ci serve per responsabilizzare, civilisticamente, i produttori di applicazioni di AI. Non perdete tempo con i soliti esempi dell’automobile, del frigorifero o chissà cosa che prendono decisioni dannose per l’essere umano e ti chiedi chi pagherà: lo sappiamo chi pagherà. Esiste una secolare struttura giuridica già capace di individuare la responsabilità “per fatto” di una cosa, di un prodotto. Il problema vero, semmai, è che il prodotto impara e agisce in modo non prevedibile e per questa ragione dovremmo stabilire by design la sua moralità. Come? Ad esempio con certificazioni delle caratteristiche standard emesse da Enti che mantengano il segreto industriale e siano pronte a fornire queste informazioni solo in un procedimento legislativo.

Insomma, tutto a posto? Per niente. Perché i livelli del problema sono altri.

Rispondi

Scopri di più da

Abbonati ora per continuare a leggere e avere accesso all'archivio completo.

Continue reading