Intelligenza Artificiale, dove stiamo andando?

ChatGPT, cos’è la Pasqua cristiana? Me lo spieghi in 400 battute? 

“La Pasqua cristiana è una festa religiosa che celebra la risurrezione di Gesù Cristo. Secondo la tradizione cristiana, Gesù fu crocifisso e morì il Venerdì Santo, ma poi risorse il terzo giorno, la domenica di Pasqua. La Pasqua cristiana è quindi la celebrazione della vittoria di Gesù sulla morte e sul peccato, che offre la speranza della vita eterna ai credenti. La Pasqua è una delle feste più importanti della religione cristiana e viene celebrata in tutto il mondo con varie tradizioni, tra cui la messa, la veglia pasquale e la caccia alle uova”.

La risposta è di qualche battuta in più delle quattrocento richieste; non è delle più approfondite (del resto la richiesta era di avere una risposta breve, tipo messaggio da inviare via WhatsApp), ma non contiene strafalcioni. Soprattutto è arrivata in appena tre secondi, giusto il tempo di premere invio dopo aver scritto la domanda.

Nei giorni scorsi, il Garante della Privacy ha vietato in Italia l’uso di questo strumento dell’Intelligenza Artificiale perché non garantirebbe il rispetto dei dati personali. Decisione che aveva portato OpenAI, la società che gestisce ChatGPT, ad oscurare il servizio sul territorio italiano. E questo era bastato, a qualche politico nostrano, per cantare vittoria, per esaltare l’inviolabilità dei nostri confini, per chiudere il dibattito su questa nuova dimensione che tanti dubbi sta sollevando ad ogni livello. Ma il vento non si ferma con le mani.

La domanda sulla Pasqua è stata fatta sabato scorso, giorno di vigilia, a Trento, con uno smartphone collegato a rete telefonica nazionale. Nel mondo delle moderne tecnologie, i confini non esistono. Basta, semplicemente, usare un VPN, strumento che consente di collegarsi ad internet come se si fosse in uno stato straniero. Un gioco da ragazzi che dimostra che la rete non si può limitare, semmai bisogna trovare il modo di regolamentare le innovazioni. E lo possono fare le istituzioni internazionali, non certo i governi dei singoli Paesi. Anche perché nel campo dell’Intelligenza Artificiale tutto corre così veloce che persino le preoccupazioni non hanno il tempo di svilupparsi (e di diventare sentimento condiviso) che già ci si trova con l’asticella spostata ancor più verso l’alto.

“L’intelligenza artificiale è troppo importante per non essere regolamentata: è troppo importante per non essere regolamentata bene”. A dirlo Kent Walker, uno dei principali responsabili di Google e Alphabet, ovvero una delle società che dovrebbero “subire” le regolamentazioni. Del resto, è proprio dagli addetti ai lavori che arrivano le grida d’allarme più significative. “Ho paura. La maggior parte delle persone con cui ho parlato nelle ultime settimane all’interno della comunità dell’AI (Intelligenza Artificiale) ha paura”, ha scritto Gary Marcus, professore americano che nel 2014 ha fondato “Geometric Intelligence”, società che lavora nel campo dell’apprendimento automatico. A far paura è proprio la rapida evoluzione dei sistemi dell’intelligenza artificiale. In particolare, Chat-4, l’evoluzione (a pochi mesi dalla nascita) di ChatGPT. “Se non si vuole ritrovarci con i tori – potenti, spericolati e difficili da controllare – nei negozi di porcellane, bisogna rendere i nuovi sistemi più accurati, sicuri, interpretabili, robusti, allineati, affidabili e leali”. Un richiamo che rende l’idea di quanto, i nuovi sistemi, oggi non lo siano.

A fine marzo, oltre mille ricercatori hanno chiesto una “moratoria” di sei mesi per l’addestramento di tutte le AI più potenti di GPT-4, il più avanzato sistema di OpenAI, la società controllata da Microsoft. E si dice che la stessa Google, con il suo PaLM – un sistema dello stesso tipo di Chat-4 – sembra aver raggiunto risultati ancora più potenti e strabilianti, tali da ritardarne il rilascio pubblico per la paura degli effetti. “Negli ultimi mesi, i laboratori di AI hanno cominciato una corsa fuori controllo per sviluppare e impiegare menti digitali sempre più potenti, che nessuno – nemmeno i loro creatori – è più in grado di comprendere, prevedere o controllare in modo affidabile”. Il rischio è che “le macchine potrebbero inondare i nostri canali d’informazione di propaganda e di falsità, potrebbero renderci obsoleti e sostituirci, potrebbero prendere il controllo nella nostra società”. Insomma, per dirla con parole in grado di rendere l’idea, “saremmo quindi arrivati al punto che le intelligenze artificiali, iniziando a apprendere da sole, hanno iniziato a auto edificarsi, a sviluppare cioè una loro forma di autocoscienza”.

Un processo che il teologo francescano Paolo Benanti spiega in questi termini: “La forma della chat (in termini più tecnici: il bot), non è il modello. Il modello sta dietro ed è in grado di fare diverse cose in ChatGPT: risponde testualmente a un interlocutore umano intrattenendo un discorso, cioè mostrando la capacità di capire delle domande e di rispondere con risposte di senso compiuto e mostrando una coerenza temporale: è come se “seguisse” il filo logico delle diverse domande facendo evolvere la conversazione con l’utente in base a quanto chiesto e detto in precedenza”. (“GPT4 è una ClosedAI: etica e politica di un genio del male?” su paolobenanti.com). Sino a che punto può andare questo modello? Qui sta la chiave dei timori che proprio gli addetti ai lavori hanno manifestato. E di cui si è fatto carico lo stesso papa Francesco intervenendo all’incontro “Minerva Dialogues” (“Non si può affidare agli algoritmi il giudizio sul valore e la dignità di una persona”, Osservatore Romano, 27 marzo 2023). “Mi preoccupa il fatto che i dati finora raccolti sembrano suggerire che le tecnologie digitali siano servite ad aumentare le disuguaglianze nel mondo. Non solo le differenze di ricchezza materiale, che pure sono importanti, ma anche quelle di accesso all’influenza politica e sociale. Ci chiediamo: le nostre istituzioni nazionali e internazionali sono in grado di ritenere le aziende tecnologiche responsabili dell’impatto sociale e culturale dei loro prodotti? C’è il rischio che l’aumento della disuguaglianza possa compromettere il nostro senso di solidarietà umana e sociale? Potremmo perdere il nostro senso di destino condiviso?”.

Sino a concludere: “Il concetto di dignità umana – questo è il centro – ci impone di riconoscere e rispettare il fatto che il valore fondamentale di una persona non può essere misurato da un complesso di dati. […] Non possiamo permettere che gli algoritmi limitino o condizionino il rispetto della dignità umana, né che escludano la compassione, la misericordia, il perdono e, soprattutto, l’apertura alla speranza di un cambiamento della persona”.

vitaTrentina

Lascia una recensione

avatar
  Subscribe  
Notificami
vitaTrentina

I nostri eventi

vitaTrentina