Anche l’IA può sbagliare, durante questo ‘esame di dottorato’ è stata bocciata: quale professione pare al scuro.
Più passa il tempo e più l’Intelligenza Artificiale si dimostra capace, tanto da spaventare diversi professionisti. Le sue abilità di codifica, la generazione di contenuti come podcast e perfino i progressi nella ricerca di fonti affidabili – anche se con lacune evidenti – sono ormai sotto gli occhi di tutti. Ma per quanto l’IA sembri inarrestabile, ci sono ancora settori dove fatica a competere con la mente umana.
Eppure resta un dato di fatto: l’IA, volente o nolente, avrà sempre delle criticità, o almeno avrà bisogno del supporto umano per arrivare dove solo un ragionamento cosciente può portare. Qua ci viene subito in mente le materie umanistiche, come può essere la psicologia o anche solo il pensiero critico che ad oggi rimane il motore del mondo e del cambiamo. Diciamo che l’IA è sempre stata ‘politicamente corretta’ e difficilmente ragiona in maniera anticonvenzionale.
Ma oltre a questo, i ricercatori hanno deciso di metterla sotto esame su una materia che non richiede chissà quale ragionamento profondo. Il risultato? Una precisone che non raggiunge il 50%.
L’intelligenza artificiale, per quanto potente, non è riuscita a superare un test di storia di alto livello. Un team di ricercatori ha creato un benchmark, chiamato Hist-LLM, per valutare tre dei principali modelli linguistici: GPT-4 di OpenAI, Llama di Meta e Gemini di Google. Le risposte sono state confrontate con il database storico Seshat Global History Databank, una risorsa immensa e accurata, ma i risultati sono stati tutt’altro che brillanti.
Il modello migliore, GPT-4 Turbo, ha ottenuto una precisione del 46%, poco più di un’ipotesi casuale. Un esempio? Alla domanda se l’antico Egitto avesse un esercito permanente durante un periodo storico specifico, l’IA ha risposto erroneamente di sì. In realtà, l’Egitto di quel tempo non disponeva di un esercito permanente.
Il problema risiede nella natura stessa dei modelli di intelligenza artificiale. Questi tendono a estrapolare informazioni da dati molto comuni e faticano a gestire argomenti meno noti o dettagli tecnici. Maria del Rio-Chanona, una delle autrici dello studio, ha spiegato che se un’IA sente parlare 100 volte di un dato storico A e solo una volta di un dato C, è più probabile che confonda le informazioni e scelga A.
Gli ambiti di lavoro storico, quindi, sembrano ancora lontani dalla portata dell’IA. Questo non significa che la tecnologia non possa diventare un supporto utile per gli storici in futuro. I ricercatori, infatti, stanno lavorando per migliorare il benchmark includendo domande più complesse e dati da regioni storicamente sottorappresentate.
Ma per ora, chi lavora nell’ambito delle discipline umanistiche può tirare un sospiro di sollievo: l’IA non è ancora in grado di ‘rubare’ il posto a chi riesce a unire logica, intuito e analisi critica. La storia, così come molte altre materie umanistiche, resta saldamente nelle mani dell’essere umano.
Il mondo del web può nascondere pericoli da non sottovalutare, soprattutto per i più piccoli:…
Nell'era del digitale le truffe online sono all'ordine del giorno e spesso utilizzano mezzi di…
La pietra pomice funziona veramente per la pulizia di casa? Prima di usarla, c'è qualcosa…
In preda al panico, utenti di TikTok stanno chiamando la polizia: con i loro appelli…
Chi deve acquistare casalinghi o oggetti per la casa può approfittare dei saldi fino al…
I mobili di legno sono belli da vedere e perfettamente funzionali, ma hanno bisogno di…