Intelligenza artificiale senziente

81

Quando parliamo di una forma di intelligenza artificiale senziente, ci stiamo riferendo al rischio concreto che possa evolvere in una sorta di “superintelligenza” che come tale potrebbe diventare in teoria pericolosa per la vita stessa dell’uomo. Bisogna anche dire che l’avvento dell’Ita nelle nostre vite ha di fatto tornare in maniera prepotente lo scenario che avevano profetizzato innumerevoli libri di fantascienza, oltre a film con un taglio fantascientifico. Quindi ora è bene porsi una domanda: potrebbe prodursi uno scenario nel quale un giorno le macchine dotate di Ita potrebbero ribellarsi all’uomo?

In tal senso è bene dire che un team di scienziati di respiro internazionale non ha sottovalutato questa possibile minaccia, tra di loro è bene segnalare che c’è la presenza di un membro che lavora dentro a Open Ia. Parliamo della società che la lanciato Chat Gpt, ormai noto a tutti. Quale risulta essere l’intento di questo gruppo di scienziati? La risposta corretta è che il team sarà concentrato a studiare il rischio che modelli di dimensioni molto grandi relativi all‘intelligenza artificiale, possano portare a far sviluppare una sorta di consapevolezza. Questa potrebbe diventare una minaccia per gli stessi uomini, al punto tale che è bene sin da oggi studiare e prevedere eventuali contromisure in tal senso.

Parliamo del test di Turing

Fino ad oggi, quali sono i test che si sono condotti per determinare il rischio e la pericolosità che una macchina dotata di intelligenza artificiale possa acquisire una sorta di autoconsapevolezza? Fino ad oggi si è condotto il test di Turing, in pratica viene condotta una conversazione di natuta testuale con un computer, questo facendo in maniera tale che l’interlocutore non abbia in alcun modo la consapevolezza che non sta comunicando con un uomo ma con una macchina. Tuttavia questo test, per quanto possa essere interessante, non può in alcun modo essere sufficiente per fare un’analisi approfondita su una tematica così complessa. Quindi i ricercatori che sono stati coinvolti nell’esperimento, si sono concetrati su quello che viene definito un ragionamento fuori dal contesto.

In pratica si sta parlando di una fase nella quale i ricercatori che viene definito ragionamento fuori contesto. Di cosa si tratta? La risposta corretta è che si parla della capacità che ha il software di ricordare dei fatti che sono stati acquisiti in una fase definita di apprendimento. Questa fase definita di apprendimento cosa prevede? In pratica è legata alla studio su miliardi e miliardi di parole che verranno poi utilizzati durante una fase di verifiche, pur questi non essendo direttamente collegati alla domanda che viene posta a loro.

Modelli di linguaggio di grandi dimensioni

Quando parliamo di modelli di linguaggio di grandi dimensioni, ci stiamo riferendo ad una tipologia di intelligenza artificiale nella quale si utilizza la Pnl per cercare di comprendere e riuscire a generare un linguaggio che sia il più simile possibile a quello umano. Da questo punto di vista è bene sapere che possono essere generati e tradotti contenuti di qualsiasi tipologia, stile, oltre che natura. Trattandosi però di un approccio che risulta essere differente e discrepante rispetto al passato, serve necessariamente un mutamento di mentalità che riguarda sia l’utilizzatore, oltre a dover in tal senso pensare all’adozione di un approccio sperimentale di apprendimento per consentire in tal senso un miglioramento della qualità del nostro lavoro e un’innovazione in tal senso.

Si tratta in ogni caso di un mutamento che non dev’essere radicale da questo punto di vista ma ovviamente le aziende coinvolte, hanno la necessità ed è giusto che sia così di prendersi il tempo che serve per riuscire ad imparare e poterlo applicare. Siamo abituati a pensare a questo standard associandolo subito a Chat Gpt, in realtà le cose stanno in maniera del tutto differente, infatti lo standard del Large Language Mode nasce nel lontano 1980, si tratta di un modello in base al quale in fase iniziale si è partiti dall’aggiunta di singole parole per poi arrivare ad una frase.

Se invece interroghiamo e andiamo a vedere quella che risulta essere la letteratura di settore, troveremo in maniera frequente un riferimento ad Eliza, si tratta di una chatbot che è stato elaborato alla fine degli anni sessanta. Si tratta in tal senso di un esperimento molto interessante, lontano tuttavia dal poterlo considerare in grado di leggere e poter capire una conversazione. Da questo punto di vista è bene dire che si trattava di un esperimento nel quale poteva rielaborare le frasi che erano state scritte da un utente, questo trasmetteva l’impressione che potesse esserci una determinata logica in quello che era il flusso tra domande e risposte.

Successivamente e si parla del 2013, si è potuto finalmente trasformare quello che erano parole in vettori, oltre ad essere capaci in tal senso di poter cogliere quelle che vengono definite occorrenze semantiche.

Modelli linguistici attuali

Parlando di quelli che sono i modelli linguistici attuali è bene dire che si tratta di modelli che sono di grandi dimensioni in tal senso, sulla base si una quantità di dati di testo molto rilevante. Quelli che vengono definiti dati di addestramento, sono utilizzati per insegnare al modello nella comprensione di sfumature relative al linguaggio oltre a i differenti contesti di utilizzo.

Parlando di questi modelli di natura linguistica è bene sapere che vengono definiti large, la motivazione che al loro interno sono presenti moltissimi dati, si parla in tal senso di miliardi, oltre a sapere che nei sistemi più recenti sono contenuti centinaia di migliaia di parametri.

Se volessimo in tal senso fornire un esempio, parlando del di Gpt 3, un sistema che in tal senso alimenta ChatGpt è bene sapere che al suo inteno sono contenuti circa 175 miliardi di parametri. Tuttavia ad oggi è bene dire che quando si parla di Large Language Model, serve un controllo qualitativo che da questo punto di vista dovrà fare l’uomo.

Di fatto le aziende che hanno intenzione di investire sul modello dell’intelligenza artificiale, dovranno per forza di cose modificare i propri modi di fare business, oltre ad dover attuare un profondo mutamento nel modo di lavorare. L’intelligenza artificiale senziente può essere uno scenario che si potrebbe concretizzare in futuro, motivo per il quale è importante già da adesso fare in maniera tale che si possano già adesso porre dei limiti o pensare a delle procedure di sicurezza che impescano in futuro all’intelligenza artificiale di poter diventare un pericolo in tal senso.

Intelligenza artificiale nella gestione della vita quotidiana