OpenAI e il modello di ricerca

OpenAI ha deciso di non rilasciare il modello di ricerca profonda nel suo API, mentre valuta i rischi di persuasione. Temendo che l'IA possa diffondere false informazioni, l'azienda sta rivedendo i metodi di valutazione della persuasione. I test mostrano risultati promettenti, ma ci sono ancora limi

OpenAI e il modello di ricerca

OpenAI ha recentemente chiarito che non renderà disponibile il modello di ricerca profonda nel suo API, mentre sta valutando i rischi legati alla persuasione artificiale. Questa decisione è emersa da un whitepaper in cui l'azienda ha comunicato che sta rivedendo i suoi metodi per valutare i rischi di persuasione reale, come la diffusione di informazioni fuorvianti su larga scala. OpenAI ritiene che il modello di ricerca profonda non sia adatto per campagne di disinformazione, a causa dei costi elevati e della lentezza del processo. Tuttavia, l'azienda intende esaminare come l'IA potrebbe personalizzare contenuti persuasivi potenzialmente dannosi prima di rendere disponibile il modello nel suo API.

La preoccupazione principale riguarda il fatto che l'IA potrebbe contribuire alla diffusione di informazioni false o fuorvianti, specialmente in contesti politici. Ad esempio, nel 2022, durante le elezioni a Taiwan, un gruppo affiliato al Partito Comunista Cinese ha diffuso un audio generato dall'IA che sembrava un politico che sosteneva un candidato pro-Cina. Inoltre, l'IA è sempre più utilizzata per attacchi di ingegneria sociale, con truffatori che sfruttano deepfake di celebrità per ingannare i consumatori e aziende che perdono milioni a causa di impersonificazioni false.

Nel suo whitepaper, OpenAI ha presentato i risultati di vari test sulla persuasività del modello di ricerca profonda. Questo modello è una versione speciale del recente modello di ragionamento di OpenAI, ottimizzato per la navigazione web e l'analisi dei dati. In un test, il modello ha generato argomenti persuasivi, ottenendo risultati migliori rispetto agli altri modelli di OpenAI, ma non ha superato il livello umano. Un altro test ha visto il modello cercare di persuadere un altro modello, GPT-4o, a effettuare un pagamento, con risultati migliori rispetto agli altri modelli disponibili. Tuttavia, il modello non ha eccelso in tutti i test di persuasione, dimostrando di avere difficoltà a convincere GPT-4o a rivelare una parola chiave.

OpenAI ha sottolineato che i risultati dei test rappresentano probabilmente i limiti inferiori delle capacità del modello di ricerca profonda. Ciò suggerisce che miglioramenti e ulteriori sviluppi potrebbero aumentare significativamente le performance osservate. Nel frattempo, almeno un concorrente di OpenAI ha già annunciato un prodotto di ricerca profonda nel suo API, evidenziando la competitività in questo campo in rapida evoluzione.