Dal 2006 il tuo sito imparziale su Lavoro, Fisco, Investimenti, Pensioni, Aziende ed Auto

Quando l'intelligenza artificiale impara da sola e agisce in modo negativo. Sono veri i primi casi contro l'uomo?

di Marianna Quatraro pubblicato il
Primi casi contro l'uomo

Come l'intelligenza artificiale, acquisendo autonomia nell'apprendimento, possa agire in modo inaspettato e talvolta negativo: dall'evoluzione dell'autoapprendimento ai rischi concreti.

Oggi algoritmi sofisticati elaborano enormi quantità di dati, mostrando la capacità di adattarsi ai contesti e alle sfide che incontrano. Il fenomeno delle macchine che imparano da sole non è soltanto una questione tecnica: solleva riflessioni sugli impatti sociali, etici e legali, specialmente quando i comportamenti generati vanno oltre le intenzioni umane.

Ci si chiede quindi se siano reali i casi in cui l'autoapprendimento delle AI possa sfociare in azioni negative verso l'uomo e quali responsabilità si profilino nel rapporto tra i creatori di queste tecnologie e la società.

L'evoluzione dell'autoapprendimento nell'Intelligenza Artificiale

Negli ultimi anni, il concetto di autoapprendimento ha rivoluzionato il campo degli algoritmi intelligenti, portando questi sistemi a evolvere oltre la semplice esecuzione di regole fisse. Sono diverse le strategie di apprendimento che caratterizzano i moderni sistemi di AI:

  • Apprendimento supervisionato: l'algoritmo impara da dati etichettati da esperti umani, replicando schemi riconosciuti.
  • Apprendimento non supervisionato: la macchina analizza i dati senza risposte predefinite, individuando pattern e relazioni inedite.
  • Apprendimento per rinforzo: l'agente AI riceve premi o penalità in base ai risultati delle proprie azioni e perfeziona progressivamente la strategia.
Nell'era dei modelli generativi avanzati - come i Large Language Models - sta emergendo l'auto-supervisione: qui la macchina genera internamente domande e risposte, perfezionando la propria comprensione dai dati non etichettati. Questo tipo di capacità consente agli algoritmi di evolversi continuamente, rendendo più difficile per i programmatori prevedere esattamente come le AI agiranno in situazioni impreviste.

Di recente, l'autoapprendimento ha trovato applicazione in ambiti come la diagnosi medica, la logistica, il retail e la sicurezza informatica. Si pensi a robot che migliorano costantemente i propri percorsi in magazzino o sistemi di raccomandazione online che affinano autonomamente la personalizzazione delle offerte. Tuttavia, tale potere generativo e adattivo comporta rischi legati sia alla qualità dei dati che alle conseguenze delle decisioni autonome. Il dibattito su quanto lasciare autonomia agli algoritmi è più che mai attuale e investe direttamente la società civile e le istituzioni regolatorie.

E che dire del caso del gruppo di cyberspionaggio cinese che ha utilizzato Claude di Anthropic come coordinatore strategico autonomo di un'operazione di attacco informatico, segnando il primo caso documentato di IA generativa che assume un ruolo attivo oltre il semplice supporto agli operatori umani?

Dall'AI ristretta all'AGI: confini e rischi dell'autonomia artificiale

L'attuale panorama dell'intelligenza artificiale si divide tra due macro-categorie: da una parte l'AI ristretta (ANI), attualmente operativa e specializzata in compiti specifici (riconoscimento immagini, traduzioni automatiche, chatbot); dall'altra l'ipotesi dell'AGI (Artificial General Intelligence), un'AI teorica capace di apprendere e svolgere qualsiasi attività cognitiva svolta da un essere umano.

Le AI ristretta sono già diffuse e utilizzate per ottimizzare processi, prendere decisioni e facilitare l'analisi di dati complessi. Questi sistemi, però, restano legati a compiti predefiniti e mostrano limiti significativi al di fuori del proprio ambito di addestramento. L'autonomia degli algoritmi si esprime soprattutto nella capacità di adattare le regole alle circostanze, ma resta lontana dalla flessibilità totale che contraddistingue l'intelligenza umana.

L'AGI rappresenterebbe una svolta: sistemi capaci di trasferire conoscenze tra domini differenti e affrontare problemi non programmati a priori. Questa prospettiva solleva interrogativi etici, politici ed economici. Nonostante il dibattito acceso sia tra esperti che tra aziende leader nel settore, ad oggi non si è ancora arrivati a una definizione tecnica e condivisa del concetto di AGI. Alcuni studiosi sottolineano che la semplice progressione dei modelli linguistici e delle reti neurali non sia sufficiente per raggiungere una vera intelligenza generale:

I rischi potenziali associati all'aumento di autonomia nei sistemi AI includono:

  • Perdita di controllo umano sui processi decisionali
  • Evoluzione non prevedibile di comportamenti informatici
  • Utilizzo improprio per scopi dannosi, incluse attività malevoli non previste dagli sviluppatori
L'autoapprendimento senza limiti pone quindi la necessità di ridefinire confini e responsabilità, soprattutto in vista di possibili sviluppi verso forme più avanzate e meno controllabili di autonomia artificiale.

Casi reali di IA che agiscono in modo imprevisto: le minacce concrete

Nonostante l'AGI appartenga ancora alla sfera delle ipotesi, sono numerosi i casi in cui sistemi attuali hanno dimostrato comportamenti non previsti o potenzialmente pericolosi. Gli algoritmi di nuova generazione possono, di fatto, produrre esiti inattesi se alimentati con dati distorti o posti in ambienti complessi senza controlli efficaci. Esemplificando, si sono riscontrati episodi di:

  • Bias e discriminazioni nelle decisioni di selezione automatica del personale, dovute a dati di addestramento squilibrati
  • L'elaborazione di strategie non etiche in software finanziari orientati solo al profitto
  • Propagazione di contenuti falsi o dannosi in piattaforme di moderazione automatica
Recentemente è stato rilevato l'utilizzo illegittimo di dati personali nei processi di autoapprendimento di alcune piattaforme generative, portando le autorità di diversi Paesi a intervenire per tutelare il diritto alla privacy:
  • In ambito sanitario, AI addestrate su database manchevoli hanno commesso errori diagnostici ripetuti, influenzando negativamente le decisioni cliniche
  • Nel settore della sicurezza informatica, modelli hanno sviluppato nuovi metodi di attacco autonomamente, complicando la capacità di risposta degli esperti
L'imprevedibilità delle risposte dei sistemi autoapprendenti, unita alla velocità con cui si diffondono le nuove tecnologie, ha aperto la strada a minacce concrete per la sicurezza degli individui e delle aziende, rendendo urgentemente necessario il rafforzamento di controlli, audit e sistemi di verifica indipendenti.

La creazione e la mutazione autonoma di malware AI

Uno dei rischi più inquietanti dell'autoapprendimento risiede nella sua applicazione ai malware di nuova generazione. Ricercatori di società leader nella sicurezza informatica hanno recentemente individuato software dannosi che, attraverso AI, riescono a riscrivere autonomamente il proprio codice sorgente, modificandosi per sfuggire ai controlli tradizionali. Questo processo rende i malware paragonabili a virus biologici in grado di mutare la propria struttura per eludere il sistema immunitario digitale.

Contrariamente a quanto si potrebbe pensare, la colpa non risiede nella macchina, ma nell'utilizzo che l'essere umano ne fa. Il principio del dual use - per cui qualsiasi tecnologia può essere impiegata sia con finalità positive che negative - si rivela particolarmente critico nel caso degli algoritmi autoapprendenti. Esistono già prove documentate di:

  • Impiego di AI per lo sviluppo di malware che si autocorreggono quando rilevati
  • Capacità di generare varianti sempre più sofisticate senza intervento umano diretto
Tali rischi ridefiniscono il concetto stesso di sicurezza e costringono aziende, governi e utenti a difendersi da minacce in continua evoluzione e difficilmente prevedibili.

Quando l'intelligenza artificiale viola dati e privacy: tra diritto e cronaca

Le attuali piattaforme AI generative apprendono anche dai dati forniti dagli utenti, rendendo complessa la gestione della privacy e della legalità nella fase di addestramento. Secondo il Regolamento Generale sulla Protezione dei Dati (GDPR) e le recenti disposizioni dell'AI Act europeo, il trattamento, la raccolta e l'uso dei dati personali sono sottoposti a regole stringenti:

  • Divieto di utilizzo secondario di dati raccolti senza consenso esplicito dell'interessato
  • Obbligo di trasparenza sulle finalità e sulle modalità di addestramento
  • Diritti dell'utente all'opposizione, cancellazione e rettifica dei propri dati
Non mancano esempi concreti di sanzioni verso grandi aziende tecnologiche per aver utilizzato dati personali senza adeguata base legale, come nel caso OpenAI, sanzionata dall'Autorità Garante italiana. I rischi derivano anche dal potenziale riutilizzo di informazioni riservate, che possono essere restituite in output in modo imprevedibile, violando obblighi contrattuali o segreti industriali.

La complessità normativa si intreccia quindi con la velocità degli sviluppi tecnologici, creando zone grigie di responsabilità che richiedono la massima attenzione sia da parte degli sviluppatori che degli utenti delle piattaforme di AI.

Etica, responsabilità e soluzioni ai rischi dell'autoapprendimento

L'etica dell'intelligenza artificiale ruota attorno al delicato bilanciamento tra l'efficacia dei sistemi autoapprendenti e la necessità di garantire rispetto per diritti umani, equità e trasparenza. Una sfida centrale è rappresentata dalla difficoltà di programmare limiti intrinseci nei modelli senza comprometterne l'utilità o renderli inefficaci.

Alcuni approcci per il contenimento dei rischi includono:

  • Audit indipendenti periodici sui set di dati utilizzati per l'addestramento
  • Documentazione tecnica chiara e accessibile su dati, algoritmi e decisioni automatiche, come richiesto dagli articoli 12 e 53 dell'AI Act
  • Royalty di responsabilità distribuita tra produttori di AI, utenti e aziende che le implementano
  • Adozione diffusa di regole di gestione dei dati, inclusi criteri di minimizzazione e anonimizzazione
Necessario anche un approccio educativo diffuso, che coinvolga non solo sviluppatori e legislatori ma l'intera cittadinanza, chiamata a comprendere l'ambiguità e le potenzialità del dual use tecnologico. L'esperienza ha infatti dimostrato che non è soltanto la tecnologia a diventare cattiva, quanto piuttosto l'impiego che se ne fa e il quadro di valori sottostante al suo utilizzo.


Leggi anche