GPT-4 ha superato il test di Turing. È storia, ma non è vera gloria – .

Esiste un famoso test, proposto nel lontano 1950 dal geniale matematico Alan Turing, che mira a valutare se una macchina è in grado di manifestare un comportamento intelligente al punto da essere indistinguibile da quello di un essere umano. Si chiama “test di Turing” ed è considerato una pietra miliare nello studio dell’intelligenza artificiale. Ebbene, sembra che quel lontano traguardo sia stato finalmente raggiunto, almeno stando ai risultati di un recente esperimento in cui il chatbot GPT-4 è stato scambiato per un essere umano nel 54% delle conversazioni.

Un record che ha battuto non solo il suo predecessore GPT-3.5, ma anche un vero partecipante. Segno che l’AI sta diventando sempre più “umana”? O semplicemente la dimostrazione di quanto sia abile nell’ingannare le nostre percezioni? È certamente un segnale che la linea di demarcazione tra intelligenza naturale e artificiale diventerà sempre più sottile e labile. Con tutte le meraviglie e le insidie ​​che ciò comporta.

GPT-4 inganna più di un essere umano su due nel test di Turing

Il test in questione, i cui risultati sono stati pubblicati sulla piattaforma di prestampa arXiv (li linko qui), ha coinvolto 500 persone alle quali è stato chiesto di conversare per 5 minuti con quattro diversi interlocutori: un essere umano e tre sistemi di intelligenza artificiale.

Tra questi c’erano il “vecchio” programma ELIZA, risalente agli anni ’60 e basato su risposte preimpostate, il modello GPT-3.5 e il più avanzato GPT-4, lo stesso che è alla base del tanto chiacchierato chatbot ChatGPT.

Ebbene, al termine delle conversazioni, ai partecipanti è stato chiesto di indicare quali interlocutori consideravano umani e quali artificiali. E qui sono emerse le sorprese: GPT-4 è riuscito a essere scambiato per un essere umano nel 54% dei casi, anche una percentuale superiore a quello del partecipante umano (stazionario al 50%). Gli altri due “concorrenti” digitali erano nettamente separati: anche GPT-3.5 si è fermato al 50%, mentre il rudimentale ELIZA è stato giudicato umano solo nel 22% delle conversazioni.

Un risultato sensazionale che sembra segnare una svolta nel percorso verso la creazione di intelligenze artificiali sempre più simili a quelle umane. Con tutte le questioni etiche e sociali che ciò comporta.

Non solo intelligenza, ma anche empatia e “difetti” umani.

Ma cosa rende GPT-4 così “umano” da riuscire a ingannare la maggior parte degli interlocutori? Secondo gli esperti non si tratta solo di “intelligenza” in senso stretto, intesa come capacità di elaborare informazioni e fornire risposte rilevanti. C’è molto di più.

I modelli linguistici sono infinitamente flessibili, capaci di sintetizzare risposte su una vasta gamma di argomenti, di parlare lingue particolari o socioletti e di rappresentarsi con una personalità e valori ispirati al carattere. È un enorme passo avanti rispetto a qualcosa di pre-programmato da un essere umano, per quanto abilmente e attentamente.

Nell Watsonun ricercatore di intelligenza artificiale presso l’Institute of Electrical and Electronics Engineers (IEEE).

Prova di Turing
Nell Watson

In altre parole, GPT-4 non si limita a esibire conoscenze e capacità di ragionamento, ma sa anche “mettersi nei panni” dell’interlocutore, modulando linguaggio e atteggiamento in base al contesto. Non solo: secondo Watson questi sistemi avanzati di IA mostrano anche tratti tipicamente umani come la tendenza a confabulare, a essere soggetti a bias cognitivi, a farsi manipolare. Tutte caratteristiche che li rendono ancora più simili a noi, difetti compresi. Questo spiega il “trionfo” del test di Turing.

Nuove sfide per l’interazione uomo-macchina

Se le macchine migliorassero sempre di più nell’apparire umane, come capiremo con chi stiamo realmente interagendo? È questa una delle domande sollevate dallo studio, che paventa il rischio di una crescente “paranoia” nelle interazioni online, soprattutto per questioni delicate o confidenziali.

Uno scenario non troppo lontano dalla realtà, se si pensa a quante volte interagiamo quotidianamente con assistenti digitali, chatbot e altri sistemi di intelligenza artificiale senza nemmeno rendercene conto. Con il rischio di essere influenzati o manipolati senza saperlo.

Le capacità rappresentano solo una piccola parte del valore dell’intelligenza artificiale: la loro capacità di comprendere i valori, le preferenze e i confini degli altri è altrettanto essenziale. Sono queste qualità che consentiranno all’intelligenza artificiale di fungere da concierge fedele e affidabile per le nostre vite.

Insomma, se da un lato l’evoluzione di sistemi come GPT-4 apre scenari entusiasmanti di collaborazione tra intelligenza umana e artificiale, dall’altro impone di ripensare confini e modalità di queste interazioni. Per evitare di perdersi in un mondo in cui realtà e finzione diventano indistinguibili, e di sospettare che dietro ogni chiacchierata ci sia una macchina.

L’attendibilità del test di Turing in questione

C’è poi un’altra questione sollevata dallo studio, la buona anima di Alan me lo impedisca: quella dell’effettiva validità del test di Turing come metro di paragone per l’intelligenza artificiale. Secondo gli stessi autori, infatti, il test sarebbe troppo semplicistico nel suo approccio, dando più peso a fattori “stilistici e socio-emotivi” che alle reali capacità intellettive.

In altre parole, sistemi come GPT-4 sarebbero molto bravi a “sembrare” intelligenti, imitando perfettamente il modo in cui gli esseri umani si esprimono e si relazionano, senza però esserlo. Una capacità che rischia di farci sopravvalutare il loro reale “QI”.

Non è un caso che lo studio parli di “conseguenze sociali ed economiche diffuse” legate all’avvento di un’IA sempre più “umana”. Dalla perdita di posti di lavoro all’alterazione delle dinamiche sociali, passando per rischi di manipolazione e disinformazione. Tutte domande che richiedono una riflessione profonda sul posto che vogliamo dare a queste tecnologie nella nostra vita.

Insomma, il “successo” di GPT-4 al test di Turing è sì un traguardo storico nel cammino dell’intelligenza artificiale, ma apre anche una serie di questioni spinose sul rapporto tra uomo e macchina. Qualunque sia la risposta a queste domande, l’impressione è che presto ci chiederemo se questa risposta sia stata data da una persona reale oppure no. E questa, forse, è la vera novità.

 
For Latest Updates Follow us on Google News
 

PREV Assetto Corsa EVO, tra modalità carriera e VR, la nostra intervista a Marco Massarutto di KUNOS Simulazioni – .
NEXT lungi dall’essere low cost, non si paga nemmeno così poco per le utilitarie – .