fbpx
Intelligenza artificiale - A.I.

Stuart Russell su come rendere l’IA “compatibile con l’uomo”

Stuart Russel Human Compatible

Sharing is caring!

“Fin dall’inizio abbiamo pensato all’IA nel modo sbagliato”

Russell sicuramente sa di cosa sta parlando. È professore di informatica presso l’Università della California, Berkley, vicepresidente del Consiglio per l’IA e la robotica del World Economic Forum e membro dell’American Association for Artificial Intelligence (AAAI). È anche coautore di Artificial Intelligence: A Modern Approach, il principale libro di testo sull’intelligenza artificiale, utilizzato in oltre 1.400 università in tutto il mondo.

Il libro di Russell è un promemoria che fa riflettere sul fatto che ora è il momento di adattare il nostro corso e assicurarsi che l’IA rimanga sotto il nostro controllo ora e in futuro. Perché se l’intelligenza artificiale superintelligente ci sorprende, sarà troppo tardi.

La tesi di Russell, che sviluppa in Human Compatible: Artificial Intelligence and the Problem of Control (trad. Compatibile con l’uomo: l’intelligenza artificiale ed il problema del controllo), è che il campo dell’IA è stato sviluppato sulla falsa premessa che possiamo definire con successo gli obiettivi verso i quali questi sistemi funzionano, e il risultato è che più sono potenti, peggio sono capaci. Nessuno pensa davvero che un’intelligenza artificiale a graffetta consumerà la Terra per massimizzare la produzione, ma un algoritmo di prevenzione della criminalità potrebbe facilmente prendere dati e obiettivi mal costruiti e trasformarli in raccomandazioni che causano danni reali.

La soluzione, suggerisce Russell, è quella di creare sistemi che non sono così sicuri di se stessi – essenzialmente, sapendo cosa non sanno o non possono sapere e guardando gli umani per scoprirlo.

Contrariamente agli articoli superficiali trovati sul Web che avvertono dei sistemi di intelligenza artificiale che stanno segretamente sviluppando la loro lingua e tramando contro gli umani, Russell non ha illusioni su ciò che l’intelligenza artificiale di oggi può e non può fare. Nei primi capitoli di Human Compatible, Russell approfondisce le carenze degli attuali approcci allo sviluppo dell’IA. Per la maggior parte, l’attuale ricerca nel campo è focalizzata sull’uso di più potenza di calcolo e dati per far avanzare il campo invece di cercare modi fondamentalmente nuovi per creare algoritmi in grado di manifestare intelligenza.

“Concentrarsi sulla potenza di calcolo grezza non ha centrato il punto. La sola velocità non ci darà l’intelligenza artificiale “, scrive Russell. L’esecuzione più rapida di algoritmi imperfetti ha però un lato positivo: ottieni la risposta sbagliata più rapidamente.

“L’effetto principale delle macchine più veloci è stato quello di abbreviare i tempi della sperimentazione, in modo che la ricerca possa progredire più rapidamente. Non è l’hardware che trattiene l’IA; è un software. Non sappiamo ancora come rendere una macchina davvero intelligente, anche se avesse le dimensioni dell’universo “, osserva Russell.

Cos’è l’IA generale? Questo è qualcosa che, dopo sei decenni, è ancora in discussione tra gli scienziati. Ecco come Russell definisce l’obiettivo della ricerca sull’IA: “Un sistema che non ha bisogno di ingegneria specifica del problema e può semplicemente essere invitato a insegnare in una classe di biologia molecolare o gestire un governo. Imparerebbe ciò di cui ha bisogno per imparare da tutte le risorse disponibili, fare domande quando necessario e iniziare a formulare ed eseguire i piani che funzionano. ”

Questa definizione è in linea con le osservazioni fatte da altri importanti ricercatori dell’IA. Non siamo ancora stati in grado di creare tali sistemi. I nostri attuali algoritmi di intelligenza artificiale devono essere istruiti con precisione sul tipo di problemi che devono risolvere, fornendo loro regole elaborate manualmente (AI simbolici) o milioni di esempi di addestramento (reti neurali). Questi sistemi si rompono non appena si trovano ad affrontare problemi e situazioni che esulano dalle loro regole o esempi di addestramento.

“Il principale pezzo mancante del puzzle è in primo luogo un metodo per costruire la gerarchia di azioni astratte”, scrive Russell. Considera un robot che dovrebbe imparare a rialzarsi. Il modo attuale per farlo è creare un algoritmo di apprendimento di rinforzo che premia il robot per posizionare la testa il più lontano possibile da terra. Ma un’intelligenza artificiale di questo tipo richiederebbe comunque un trainer umano che sappia cosa significa “alzarsi” e in grado di progettare il sistema di ricompensa che spingerà l’agente di intelligenza artificiale a distanziare la testa da terra nel modo giusto.

“Ciò che vogliamo è che il robot scopra da sé che alzarsi in piedi è una cosa: un’utile azione astratta, una che raggiunge il presupposto (essere in posizione verticale) per camminare o correre o stringere la mano o vedere oltre un muro e così fa parte di molti piani astratti per tutti i tipi di obiettivi ”, scrive Russell. “Credo che questa capacità sia il passo più importante necessario per raggiungere l’IA a livello umano. Sospetto che non abbiamo ancora la risposta completa, ma questo è un progresso che potrebbe verificarsi in qualsiasi momento, semplicemente mettendo insieme alcune idee esistenti nel modo giusto. ”

Una visione realistica delle minacce presenti e future dell’IA


Prima di approfondire le future minacce dell’IA, Russell discute in dettaglio le sfide che il campo attualmente deve affrontare. Queste minacce includono quanto segue:

  • Elaborazione persuasiva: l’uso di algoritmi di intelligenza artificiale per spingere le persone in direzioni specifiche o per usare deepfake, video con intelligenza artificiale e discorso, per creare supporti falsi e convincenti.
  • Armi autonome letali: Russell discute della minaccia di armi di distruzione di massa scalabili e basate sull’intelligenza artificiale. Russell ha aperto la strada a un movimento di sensibilizzazione sulle armi autonome.
  • Disoccupazione tecnologica: “Man mano che l’IA progredisce, è certamente possibile – forse anche probabile – che nei prossimi decenni essenzialmente tutto il lavoro fisico e mentale di routine sarà fatto più a buon mercato dalle macchine”, scrive Russell. “Quando ciò accade, spingerà i salari al di sotto della soglia di povertà per quelle persone che non sono in grado di competere per i lavori altamente qualificati che rimangono”.

Ma affrontare questi problemi non ovvia alla necessità di discutere le future minacce dell’intelligenza artificiale superintelligente.

Solo guardando come gli umani hanno sfruttato le loro menti per prendere il controllo del mondo intero, si può solo immaginare cosa accadrà quando l’IA supererà la nostra intelligenza. La domanda che Russell pone è: gli umani possono mantenere la loro supremazia e autonomia in un mondo che comprende macchine con un’intelligenza sostanzialmente maggiore?

Probabilmente no, vista l’attuale attenzione al problema del controllo dell’IA.

Un’opzione apparente sarebbe quella di vietare lo sviluppo di sistemi di intelligenza artificiale a livello umano di uso generale.

“Terminare la ricerca sull’intelligenza artificiale significherebbe rinunciare non solo a una delle strade principali per capire come funziona l’intelligenza umana, ma anche a un’opportunità d’oro per migliorare la condizione umana – per rendere una civiltà molto migliore”, scrive Russell, aggiungendo anche che l’impostazione di tale praticamente impossibile.

“Non sappiamo in anticipo quali idee ed equazioni vietare e, anche se lo facessimo, non sembra ragionevole aspettarsi che un tale divieto possa essere esecutivo o efficace”, afferma. Quindi vietare la ricerca in intelligenza artificiale non è una soluzione. Tuttavia, è necessaria una soluzione.

Sfatare i miti dell’intelligenza artificiale superintelligente

Sfortunatamente, molte persone rifiutano gli avvertimenti sull’intelligenza artificiale non controllata con diversi pretesti. Russell discute e minimizza questi argomenti in modo approfondito in Human Compatible. Uno dei principali argomenti usati per respingere queste minacce è la stupidità degli attuali sistemi di intelligenza artificiale e il fatto che l’IA superintelligente è lontana decenni. Alcuni scienziati hanno paragonato queste preoccupazioni a “preoccuparsi della sovrappopolazione su Marte”.

“Il momento giusto per preoccuparsi di un problema potenzialmente grave per l’umanità dipende non solo da quando si verificherà il problema, ma anche da quanto tempo ci vorrà per preparare e attuare una soluzione”, scrive Russell. “La scala temporale rilevante per l’IA sovrumana è meno prevedibile, ma ovviamente ciò significa che, come la fissione nucleare, potrebbe arrivare molto prima del previsto.”

Altri sostengono che sollevare preoccupazioni sulla minaccia di AGI metterà in dubbio i benefici dell’IA. Pertanto, la cosa migliore da fare è nulla e tacere sui rischi. I sostenitori di questo argomento hanno anche paura che attirare l’attenzione su questi rischi minaccerà il massiccio finanziamento della ricerca in IA.

Ancora una volta, Russell respinge queste affermazioni. “In primo luogo, se non ci fossero potenziali benefici dell’IA, non vi sarebbe alcun impulso economico o sociale per la ricerca dell’IA e quindi nessun pericolo di raggiungere l’IA a livello umano. Semplicemente non avremmo affatto avuto questa discussione. In secondo luogo, se i rischi non vengono mitigati con successo, non ci saranno benefici “, scrive.

Infine, per coloro che pensano che possiamo semplicemente evitare l’IA malvagia creando sistemi che collaborano con gli umani, Russell afferma: “I team collaborativi tra umani e AI sono davvero un obiettivo desiderabile. Chiaramente, un team non avrà successo se gli obiettivi dei membri del team non sono allineati, quindi l’enfasi sui team umani-AI evidenzia la necessità di risolvere il problema fondamentale dell’allineamento del valore. Ovviamente, evidenziare il problema non equivale a risolverlo. ”

Quindi, come possiamo evitare che l’intelligenza artificiale vada in tilt?


In questa fase, è davvero difficile vedere come la storia dell’intelligenza artificiale superintelligente. Ma sappiamo che dobbiamo risolvere il problema del controllo oggi, non quando l’IA si è già evoluta al di là del nostro controllo. Ma un buon punto di partenza è ripensare il nostro approccio alla definizione e alla creazione di intelligenza artificiale. Russell affronta questo problema all’inizio di Human Compatible.

“Diciamo che le macchine sono intelligenti nella misura in cui ci si può aspettare che le loro azioni raggiungano i loro obiettivi, ma non abbiamo un modo affidabile per assicurarci che i loro obiettivi siano gli stessi dei nostri obiettivi.”

Invece, suggerisce Russell, dovremmo insistere sul fatto che l’IA è focalizzata sulla comprensione e sul raggiungimento degli obiettivi umani. “Una macchina del genere, se potesse essere progettata, non sarebbe solo intelligente ma anche benefica per l’uomo”, scrive Russell.

Alla fine del libro, Russell delinea un quadro approssimativo di un sistema di intelligenza artificiale che si impegnerebbe a essere benefico per l’umanità e che non sfuggirebbe mai al controllo.

Un sistema intelligente ideale sarebbe quello il cui unico obiettivo sarebbe realizzare le preferenze umane anziché i propri obiettivi. E la chiave per raggiungere questo obiettivo è che l’IA riconosca che non sa quali siano queste preferenze. “Una macchina che presume di conoscere perfettamente il vero obiettivo lo perseguirà con una sola mente. Non chiederà mai se una linea di condotta è OK, perché sa già che è una soluzione ottimale per l’obiettivo “, scrive Russell.

E quest’ultimo punto è molto importante, perché è esattamente ciò che manca agli attuali sistemi di intelligenza artificiale. I sistemi di raccomandazione basati sull’intelligenza artificiale non sono progettati per comprendere e soddisfare le preferenze umane; sono programmati per massimizzare i propri obiettivi, ovvero ottenere più clic sugli annunci, più tempo sullo schermo, più acquisti, ecc. indipendentemente dal danno che la loro funzionalità comporta per gli esseri umani. Gli attuali sistemi di intelligenza artificiale sono diventati la fonte di molti problemi, tra cui bolle di filtro, distrazione online, distorsione algoritmica e altro ancora.

È probabile che questi problemi crescano man mano che gli algoritmi AI diventano più efficienti nello svolgimento dei loro compiti. Un sistema di intelligenza artificiale superintelligente che è fissato sul raggiungimento di un singolo obiettivo alla fine sacrificherà l’intera razza umana per raggiungere tale obiettivo.

Infine, Russell suggerisce che la fonte di informazioni sulle preferenze umane è il comportamento e le scelte umane. L’intelligenza artificiale continuerà ad apprendere e ad evolversi con l’evoluzione delle scelte umane.

Questa non è una ricetta perfetta, riconosce Russell, e presenta molte delle sfide che ci attendono, come affrontare le preferenze contrastanti dei diversi umani e i desideri malvagi dei loro padroni.

“In breve, sto suggerendo che dobbiamo guidare l’IA in una direzione radicalmente nuova se vogliamo mantenere il controllo su macchine sempre più intelligenti”, scrive Russell. “Fino ad ora, la stupidità e la portata limitata dei sistemi di intelligenza artificiale ci hanno protetto da queste conseguenze, ma questo cambierà.”

Pubblicità

L. Zanoner

About Author

Leave a comment

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

You may also like

rubiks_cube
Intelligenza artificiale - A.I.

Non innamorarti del clamore del robot di OpenAI che risolve il cubo di Rubik

Il cubo di Rubik nella mano del robot di OpenAI: Alcuni nella comunità dell’IA stanno sbavando sul video più recente
covid-19 A.I.
Intelligenza artificiale - A.I.

L’intelligenza artificiale potrebbe aiutare a prendere decisioni sulla vita o sulla morte nella lotta contro il coronavirus?

Ricercatori cinesi affermano di aver sviluppato uno strumento di intelligenza artificiale che può aiutare i medici a fare delle scelte