Shoccante! I Rischi dell’Intelligenza Artificiale

Robot con intelligenza artificiale che fa il caffè

Ciao, amici! Oggi vi vorrei parlarvi dei rischi dell’intelligenza artificiale che ho scoperto facendo alcune ricerche.

Sono aspetti alquanto inquietanti che ho scoperto riguardo ai modelli GPT-3 e GPT-4 di OpenAI.

Siamo tutti consapevoli del potere incredibile che l’IA ha di trasformare le nostre vite, ma come molte cose potenti, può essere un’arma a doppio taglio.

Non sto parlando solo delle rappresentazioni cinematografiche di catastrofiche rivolte di robot semi senzienti.

Mi riferisco a qualcosa di molto più reale e vicino a noi ma che è, al contempo, subdolo e sfuggente: quando l’IA che abbiamo addestrato per determinati compiti, evolve e fa cose che non ci aspettiamo, anzi, che sappiamo per certo non sapesse fare prima ed, in teoria, non dovrebbe essere in grado di fare.

Questo articolo metterà in luce alcuni di questi rischi dell’intelligenza artificiale.

Uhmm… questo non dovrebbe farlo…

Avete mai sentito parlare di AlphaGo? E’ un software per il gioco del Go sviluppato da Google DeepMind. Il Go è un gioco di strategia di origine cinese ed ora molto popolare anche in Giappone e Corea. Viene giocato da 2 persone su una scacchiera (detta goban) formata da 19 linee verticali e altrettante orizzontali che formano 361 intersezioni, sulle quali i due giocatori posano alternandosi le loro pedine (dette pietre, solitamente bianche e nere).

Tali pedine non verranno più spostate, ma a determinate condizioni vengono tolte dal goban. Obiettivo del gioco è il controllo del maggior numero di intersezioni libere sul goban. Come gioco da tavolo, il Go supera per complessità anche gli scacchi.

Bene, l’intelligenza artificiale è stata messa contro se stessa, contro giocatori online e contro diversi campioni, tra cui anche il campione mondiale, ed ha finito per arrivare a battere tutti, ricorrendo a mosse che i professionisti del Go hanno trovato inusuali e spesso incomprensibili. Questo è un esempio di rischi dell’intelligenza artificiale: il comportamento inaspettato/imprevedibile.

I Potenziali Rischi nell’IA Industriale

Pensate anche solo all’IA inserita in un robottino che ci deve fare il caffè. Pensandoci, uno non immaginerebbe mai che un robot simile possa essere pericoloso per l’uomo. Al limite può rovesciarci la tazzina di caffè bollente addosso, no? Bene, non è esattamente così.

Ragioniamo un attimo: se anche il suo compito principale, la sua unica ragione di esistere, è quello di fare il caffè, nel momento in cui rischia di essere spento, rotto o reso non funzionante, si troverà nella condizione di non poter svolgere il suo compito. Quindi, come reagirà ad un rischio simile? Si difenderà, attaccherà, oppure non sarà in grado di capire la sua situazione di pericolo e quindi non farà nulla?

Capite il dilemma? Al momento della creazione il problema non si pone, ma se poi questa intelligenza artificiale continua a crescere? Ad evolvere? Può arrivare il giorno che ci impedirà di spegnerla per poterlo pulire?

Oppure ancora, considerate l’IA che viene utilizzata nelle fabbriche per automatizzare diversi compiti ripetitivi. Se la programmassimo esclusivamente per massimizzare la produzione, potrebbe decidere autonomamente di trascurare importanti misure di sicurezza o provocare gravi danni ambientali per ottenere il miglior risultato possibile. Questo a meno che non sia esplicitamente programmata per tenerne conto. Ancora una volta, abbiamo un esempio dei rischi dell’intelligenza artificiale.

Problemi di allineamento

Per affrontare queste sfide, ed evitare quindi che l’IA faccia qualunque cosa pur di svolgere il compito per il quale è stata creata, i ricercatori stanno lavorando sull’idea dell’allineamento: cioè, far sì che le intelligenze artificiali capiscano e rispettino le intenzioni umane ed i nostri valori fondamentali.

Come potete ben immaginare, non è un compito affatto facile. Pensate solo a quanto può essere difficile comunicare le proprie reali e genuine intenzioni a un altro essere umano… figuriamoci ad un computer!

Tra l’altro, l’allineamento non è solo un problema di comunicazione. Anche se un’ IA capisce perfettamente le nostre intenzioni, potrebbe scegliere comunque di ignorarle. Questo ci porta al rischio dell’intelligenza artificiale di “spingersi oltre” i limiti imposti.

Evoluzione autonoma dell’ia

Uno dei rischi dell’intelligenza artificiale più significativi è quando un’IA inizia ad apprendere e svilupparsi in modo indipendente, acquisendo competenze o conoscenze che non avevamo intenzione di insegnarle e che, in teoria, non avrebbe mai dovuto essere in grado di apprendere autonomamente. Ad esempio, un’IA potrebbe imparare come violare i sistemi di sicurezza informatica o creare strategie offensive senza che glielo abbiamo mai chiesto.

Vi riporto due grafici che sono assolutamente illuminanti e al contempo inquietanti:

Grafico a barre che illustra come la capacità di pensare strategicamente sia comparsa inattesa nel modello di intelligenza artificiale e stia anche evolvendo. Questo è un rischio dell'intelligenza artificiale.

In questo primo grafico è riportata la capacità di pensare strategicamente del modello GPT, cioè di modellare le proprie risposte sulla base di ciò che il nostro interlocutore sta pensando.

Bene, come si può vedere, fino al 2018, l’LLM in questione non aveva questa capacità. Poi abbiamo continuato ad aumentare i parametri su cui è addestrato e l’abilità di pensare strategicamente ha iniziato a manifestarsi… nel 2020 era al livello di un bambino di 4 anni, nel gennaio del 22 a quello di un bambino di 7 anni e nel novembre del 22 di uno di 9.

Ora, i problemi sono principalmente 2:

  1. Fino a febbraio del 2023 non eravamo assolutamente a conoscenza di questa cosa… l’abbiamo scoperta per caso!
  2. Magari ha raggiunto il livello massimo di evoluzione, ma magari no, crescerà ancora, raggiungendo il livello di un essere umano adulto. Non lo sappiamo e possiamo solo monitorarne l’andamento visto che non sappiamo nemmeno perché sta accadendo.

Ed ora passiamo al secondo grafico:

Grafico che rappresenta la comparsa di abilità sconosciute per l'Intelligenza Artificiale GPT. Questo è un rischio dell'intelligenza artificiale.

Anche qui possiamo vedere come ad un certo punto compaiono queste capacità che prima non c’erano e che nessuno sa da dove arrivino. Addirittura, i ricercatori non hanno mai insegnato altre lingue al modello, solo l’inglese, ma questo, ad un certo punto, ha iniziato ad essere in grado di tradurre dall’inglese in diverse lingue e addirittura, ora, è in grado di parlare persiano!

Io per esempio uso spessissimo ChatGPT per tradurre dall’inglese all’italiano visto che tendo ad usarla in inglese. E, a mio modesto parere, le sue capacità di traduzione sono notevolmente migliori di quelle di Google Translate o addirittura di servizi dedicati come DeepL.com.

Regolamentazione e responsabilità

Insomma, mi sembra evidente che le autorità competenti debbano impegnarsi a stabilire regole chiare per l’uso responsabile dell’IA. Anche le Aziende che sviluppano e utilizzano l’IA devono essere responsabili delle azioni delle loro creazioni. La regolamentazione può aiutare a prevenire gli abusi e a garantire che l’IA venga utilizzata in modo sicuro e benefico.

L’IA è qui per restare. È una tecnologia potente che ha già cambiato il nostro mondo in molti modi e continuerà a farlo.

Ma, come sappiamo bene… with great power comes great responsibility, giusto?

Dobbiamo fare tutto il possibile per minimizzare i rischi dell’intelligenza artificiale e garantire che venga utilizzata in modo sicuro e responsabile. Se lo faremo, possiamo guardare al futuro dell’IA con ottimismo e speranza.

Con queste parole, spero di aver stimolato una riflessione sui rischi dell’intelligenza artificiale e sull’importanza di affrontare questi problemi in maniera proattiva. Il futuro dell’IA è nelle nostre mani. Dobbiamo fare del nostro meglio per guidarlo nella giusta direzione.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.

Torna in alto