Ci sono altri mattoni nel muro dell’IA

Sessione del G7 Industria tecnologia digitale a Palazzo Geremia. Foto Massimiliano De Giorgi

Per una singolare coincidenza, l’incontro a Verona e Trento del G7 sull’Intelligenza Artificiale si è sovrapposto con il via libera da parte del Parlamento europeo del cosiddetto “AI Act”, il regolamento dell’Unione europea in materia, per l’appunto, di Intelligenza Artificiale. Ambedue – il documento finale del G7 e la filosofia che guida la nuova legge europea – fanno riferimento ai medesimi principi e sembra esserci una condivisione di valori, soprattutto riguardo alla necessità di porre dei “paletti etici” ad una innovazione che sembra non conoscere limiti.

G7 e Unione europea affrontano, però, la questione in maniera diversa. Il vertice dei “Paesi più sviluppati” si ferma ad enunciazioni di principio, quasi un’azione di “moral suasion” nei confronti dei soggetti (privati) che scommettono sui profitti di questo settore tanto redditizio (per gli operatori) quanto insidioso (per i cittadini). Del resto, dal G7 era difficile attendersi qualcosa di più anche per la diversità di interessi tra i singoli stati che ne fanno parte: Italia, Germania, Francia, Gran Bretagna, Canada, Giappone e Usa.

Gli Stati Uniti non sono solo la sede delle principali aziende impegnate nel campo dell’alta tecnologia, ma per storia e tradizione legislativa sono da sempre convinti che non si debba metter freni alla ricerca e all’innovazione che porteranno, in ogni caso, più benefici che svantaggi. In caso contrario, la logica liberista presuppone che sia proprio il libero mercato a correggere le distorsioni. La logica “europea” sembra invece distinguere tra innovazione e sviluppo, quest’ultimo inteso come vantaggio dell’innovazione nei confronti delle comunità e di ricadute positive sul piano sociale. Lo sviluppo può essere una conseguenza dell’innovazione, ma non sempre è scontato. C’è infine da dire che i vertici del G7 sembrano risentire della logica del secolo scorso quando, davvero, i sette Stati rappresentavano le grandi potenze economiche del pianeta e ne determinavano gli indirizzi. Oggi, la situazione è radicalmente cambiata: come si può discutere di Intelligenza Artificiale senza la Cina e senza l’India?

A partire dai primi Anni Duemila, abbiamo cominciato a fare i conti con una sigla – “Brics” – che rappresenta dieci Paesi: Brasile, Russia, India, Cina e (dal 2010) Sudafrica; dal primo gennaio 2024, sono entrati a far parte di questo consesso anche Egitto, Arabia Saudita, Emirati Arabi, Etiopia e Iran. Oggi questi dieci Paesi rappresentano il 40 per cento della popolazione mondiale, quelli del G7 appena il 10. Se il riferimento è il dato economico, il G7 rappresenta il 46 per cento del Pil mondiale, i Brics il 32, ma vent’anni anni fa la distanza era ben maggiore – 66 per cento contro il 15 per cento – a dimostrazione che le due curve (una in discesa, l’altra in rapida ascesa) sono destinate ad incrociarsi molto presto.

Il giorno prima della riunione a Trento del G7, il Parlamento europeo aveva approvato a larghissima maggioranza la nuova legge sull’Intelligenza Artificiale (523 voti favorevoli, 46 contrari e 49 astensioni). C’era già stato un primo via libera nel giugno dello scorso anno, ma a dicembre era mancato il disco verde del Consiglio europeo (la riunione dei Capi di Stato e di Governo dei Paesi dell’Unione). Ciò aveva portato ad una complicata mediazione: il nuovo testo è stato approvato dal Parlamento il 13 marzo, a metà aprile dovrebbe arrivare anche l’assenso definitivo del Consiglio europeo e quindi la pubblicazione sulla Gazzetta Ufficiale. Le nuove norme (113 articoli) entreranno in vigore entro due anni, ma già nei prossimi mesi dovrebbero diventare efficaci quelle ritenute più urgenti per la tutela dei cittadini.

Tre esempi riescono a dare l’idea dell’importanza di questo intervento legislativo (il primo a livello mondiale). Sarà, innanzitutto, vietata l’estrapolazione da internet (o dalle registrazioni dei sistemi di telecamere a circuito chiuso) di immagini da utilizzare nelle banche dati di riconoscimento facciale. Un divieto che rende l’idea di cosa è oggi possibile con i sistemi di Intelligenza Artificiale, compresi “i sistemi di riconoscimento delle emozioni sul luogo di lavoro e nelle scuole, i sistemi di credito sociale, le pratiche di polizia predittiva (se basate esclusivamente sulla profilazione o sulla valutazione delle caratteristiche di una persona) e i sistemi che manipolano il comportamento umano o sfruttano le vulnerabilità delle persone”. Eccezioni sono previste ovviamente per l’attività di polizia nel caso di reati particolarmente gravi, ma si cerca di scongiurare scenari di sorveglianza di massa.

Il secondo esempio è quello relativo agli algoritmi: questi non sono vietati, ma certi utilizzi (nella fascia definita “a rischio”) richiedono trasparenza e autorizzazioni: quelli usati sul lavoro e che potrebbero contenere degli elementi di discriminazione (per valutare curriculum o distribuire compiti e impieghi); o quelli adoperati dalla pubblica amministrazione (per distribuire sussidi, per classificare richieste di emergenza, per smascherare frodi finanziarie) o quelli utilizzati dalle assicurazioni per stabilire il grado di rischio di chi sottoscrive una polizza.

Il terzo esempio è quello relativo all’Intelligenza Artificiale che produce testi, foto, video. Sono prodotti sempre più utilizzati (pensiamo al successo di ChatGpt) e con i quali dobbiamo ogni giorno fare i conti, chiedendoci ogni volta se si tratta di qualcosa di autentico o piuttosto generato da qualche macchina. In questo caso è previsto che i prodotti dell’Intelligenza Artificiale abbiano un’indicazione della loro origine. Ciò non porterà alla fine delle fake news, ma il principio di trasparenza ci aiuterà.

Almeno, lo speriamo.

(49 – continua)

vitaTrentina

Lascia una recensione

avatar
  Subscribe  
Notificami
vitaTrentina

I nostri eventi

vitaTrentina