Le conseguenze degli errori dell'IA possono essere molto serie, soprattutto in ambiti critici come quello medico o finanziario.
Nonostante i progressi degli ultimi anni, l' intelligenza artificiale può cadere in errore, anche di fronte a compiti apparentemente semplici, come i calcoli matematici basilari. Questa vulnerabilità solleva domande importanti: come è possibile indurre questi errori, quali tecniche vengono usate per ingannare l'intelligenza artificiale, e quali possono essere le conseguenze?
Un'altra tecnica è il data poisoning, che consiste nel contaminare i dati utilizzati per addestrare i modelli di IA. Inserendo informazioni false o distorte nei set di dati di addestramento, si può compromettere la precisione del modello e portarlo a fornire risposte errate in modo sistematico. Un esempio è quello di un sistema finanziario che, addestrato su dati manipolati, che potrebbe generare previsioni di mercato fuorvianti.
Anche operazioni matematiche elementari possono mettere in crisi l'intelligenza artificiale. Accade poiché molti sistemi di IA, come i modelli di linguaggio basati su reti neurali profonde, non comprendono i calcoli matematici nel senso umano del termine. Questi modelli hanno imparato a riconoscere e riprodurre schemi statistici presenti nei dati con cui sono stati addestrati. Di conseguenza possono fornire risposte matematiche scorrette, specie se il problema è formulato in modo inconsueto o ambiguo.
L'IA può essere indotta in errore anche attraverso tecniche di prompt engineering ossia manipolando le richieste poste al modello. Per esempio un problema matematico semplice presentato in una forma linguistica inusuale può generare risposte errate: l'IA non ha una comprensione intrinseca della matematicama una competenza basata sull'associazione di pattern.
Il premio Nobel per la fisica Giorgio Parisi ha testato l'Intelligenza Artificiale con esperimenti provocatori, dimostrando che, nonostante la correttezza iniziale delle risposte, può essere confusa o indotta all'errore. In un caso, ha convinto l'IA che 5x4 facesse 25, e in un altro l'IA ha identificato erroneamente un linguista come fisico.
Parisi spiega che questi esempi evidenziano limiti importanti: l'IA genera risposte basandosi solo sui testi utilizzati nel suo addestramento, comportandosi come un pappagallo stocastico, incapace di ragionamento autonomo, critica o rappresentazione reale del mondo. È dunque priva di una reale intelligenza umana e, se addestrata su testi discutibili, potrebbe dare risposte fuorvianti o pericolose.
Il messaggio di Parisi ai giovani è chiaro: studiare è importante per mantenere autonomia critica e capacità decisionale, senza diventare passivamente dipendenti dalle risposte dell'IA.
Le conseguenze di questi errori possono essere molto serie, soprattutto in ambiti critici come quello medico o finanziario. Un errore indotto in un sistema diagnostico medico può portare a diagnosi sbagliate e trattamenti errati. Allo stesso modo, nel settore della finanza, decisioni di investimento basate su previsioni fuorvianti di un'IA manipolata possono causare perdite finanziarie enormi.
A lungo termine, queste manipolazioni possono minare la fiducia pubblica nelle tecnologie basate sull'IA.
Per fronteggiare questi rischi, si stanno sviluppando tecniche specifiche come il robust learning, ovvero metodi di apprendimento progettati per resistere a dati contaminati e attacchi avversari. Questi approcci creano modelli capaci di rilevare e ignorare input anomali o alterati intenzionalmente.
Molte aziende e organizzazioni stanno infine investendo nella creazione di standard e protocolli di sicurezza rigorosi per l'IA, proprio come avviene per i sistemi informatici tradizionali.