I “motori di ricerca AI” nascondono insidie. Ecco perché possono essere pericolosi – .

OpenAI sta per annunciare il suo motore di ricerca web basato su caratteristiche simili a quelle di ChatGPT, grazie al quale, molto probabilmente, dal prompt dell’utente produrrà un risultato presentato in modo discorsivo, ottenuto spulciando i link più appropriati per la risposta. Ma in base a ciò che sappiamo oggi sui chatbot, quanto saranno accurati i risultati offerti?

Questa modalità di ricerca sul web è già applicata da Copilot all’interno di Bing di Microsoft e dalla startup Perplexity. Tutti questi sistemi, e quasi sicuramente anche “ChatGPT Search” (il nome ufficiale non è ancora noto), si basano sull’attività di large Language Model (LLM), conosciuti in gergo come “text generative AI”.

Che tipo di risposte danno i LLM?

Tutti i LLM producono testo sulla base di calcoli statistici e probabilistici appresi durante la formazione su enormi quantità di dati testuali: i famosi dataset o dataset.

In sintesi, durante l’addestramento il modello impara ad associare sequenze di parole a probabilità in base alla frequenza con cui appaiono nei dati di addestramento. Quando poi genera un nuovo testo, calcola iterativamente la probabilità delle prossime parole da aggiungere, scegliendo quelle più probabili dato il contesto precedente.

Quindi non esiste una comprensione profonda o regole grammaticali codificate manualmentema è un processo statistico che cattura modelli ricorrenti nei dati per produrre output simili a quelli su cui è stato addestrato il LLM.

La richiesta dell’utente (ovvero l’input testuale, lo stesso che ad esempio viene attualmente scritto in un motore di ricerca tradizionale) ha un peso considerevole nella qualità e nell’accuratezza delle risposte fornite da un LLM.

Un suggerimento specifico e ben formulato che inquadra correttamente il contesto desiderato aiuta a indirizzare il modello verso risposte più pertinenti, coerenti e fattuali. Ciò riduce il rischio di “allucinazioni”, ovvero di contenuti generati di fantasia o sostanzialmente errati.

D’altra parte, Suggerimenti vaghi, ambigui o potenzialmente fuorvianti possono far deragliare il modelloportandolo a produrre risposte imprecise, incongruenti o addirittura improbabili perché poco ancorate al contesto reale.

Questo è uno dei motivi per cui spesso si parla di “prompt engineering”, cioè di pronta ingegneria, intesa come il campo che studia e sviluppa tecniche per ottimizzare la formulazione degli input testuali. Tra le soluzioni di prompt engineering ce n’è, ad esempio, quella che incoraggia il LLM a “riflettere” passo dopo passo sul prompt fornito prima di dare una risposta.

In ogni caso, ad oggi, ogni chatbot conosciuto, e per il modo in cui funzionano i LLM, è uno strumento che può dare informazioni errate, proprio perché i suoi risultati sono frutto di statistiche e non la presentazione di informazioni e documenti esattamente come sono stati scritti.

Tutti avranno letto delle sciocchezze nelle risposte di un chatbot per argomenti che sono molto conosciuti. Di conseguenza, nasce spontaneo un pensiero: “E tutte le risposte che ho ricevuto su argomenti che non conoscevo?”

Proprio per la natura statistica delle risposte, un LLM non sa di non sapere, quindi spesso è incoraggiato a dare comunque una risposta, anche se sbagliata (ma che sarà ritenuto corretto dal chatbot).

Qual è lo stato attuale dei motori di ricerca con l’intelligenza artificiale?

Non devi aspettare l’avvento di ChatGPT Search per capire che questi comportamenti LLM si manifesteranno, perché già si verificano in Copilot e Perplexity.

Questa è la risposta di Copilot alla domanda: “Quali erano i modelli di telefoni Pixel venduti in Italia?”

Apri originale

Questa è la risposta di Perplexity in modalità Pro, che, secondo l’azienda, “eccelle nel gestire query ambigue. Quando necessario, pone domande chiarificatrici e fornisce risposte approfondite con una precisione notevolmente migliorata.

Apri originale

Le due risposte sono chiaramente incomplete perché si fermano ai modelli più recentie Perplexity non menziona nemmeno il Pixel 8a: un argomento di grande attualità.

Ora proviamo a porre la stessa domanda in modo più strutturato per vedere cosa succede. Chiediamo: “Quali sono tutti i modelli di smartphone Pixel venduti in Italia dal lancio del primo modello da parte di Google?”

Il copilota ci risponde così, continuando a sbagliare.

Apri originale

Perplexity produce un elenco di tutti i telefoni Pixel di Google, ma Comprende ad esempio anche il Pixel 5 che in Italia non si è visto.

Apri originale

e558de961f.jpg

Questo modo di fornire informazioni è semplicemente sbagliato perché lo è il potere di creare una disinformazione considerevole ed esponenziale.

Anche cercare informazioni con un motore di ricerca tradizionale non dà la certezza che queste siano automaticamente corrette, ma presentarle in modo assertivo e discorsivo come nei motori di intelligenza artificiale conferisce alle informazioni una caratteristica di “infallibilità”che verrà recepito soprattutto dall’utente medio.

A questo dobbiamo aggiungere quello I motori di intelligenza artificiale forniscono risposte basate sui pregiudizi etici e morali scelti dalla società in questionepertanto alcune risposte potrebbero essere censurate o addirittura non essere fornite.

Con la versione 3 dei modelli Claude, Anthropic è un’azienda (nella quale hanno investito Google e Amazon) che sta cercando di evitare questo tipo di censura, ma questo non fa altro che confermare l’esistenza di questo problema. Anthropic non ha attualmente un motore di ricerca in fase di sviluppo.

Dovrai prestare molta attenzione alle risposte

Mettere la ricerca nelle mani di “motori AI” è una responsabilità non indifferente, perché inevitabilmente aumenta quella parte di pubblico che li utilizzerà anche per ricerche quotidiane su temi delicati.

Avere risposte sbagliate credendole corrette consentirà alla disinformazione di trovare nuovi campi in cui mettere radici, potrebbero portare a scelte potenzialmente dannose partendo da premesse informative errate, oppure minare l’apprendimento e addirittura consolidare negli studenti concetti o nozioni errate. Infine, i gruppi sociali con minori capacità di valutare criticamente le informazioni online potrebbero essere più vulnerabili ad accettare acriticamente risposte errate.

 
For Latest Updates Follow us on Google News
 

NEXT lungi dall’essere low cost, non si paga nemmeno così poco per le utilitarie – .