Nella seconda giornata del Congresso ISDE Italia 2025, Gianni Tamino – biologo, già deputato europeo e da sempre voce critica sui rapporti tra tecnologia, ambiente e democrazia – ha offerto una delle analisi più lucide e radicali sul tema dell’intelligenza artificiale (IA). Nel suo intervento “AI: Perspectives and Risks” ha delineato un quadro in cui le opportunità non cancellano, anzi amplificano, rischi sociali, sanitari, ambientali e geopolitici.
L’IA non pensa: riprodurre abilità non significa comprendere
Tamino ha esordito chiarendo un punto spesso frainteso: i sistemi di IA non possiedono alcuna forma di pensiero o comprensione. Come mostrato nelle prime slide della presentazione, ciò che oggi chiamiamo “intelligenza artificiale” è in realtà un insieme di tecniche statistiche – machine learning e deep learning – che operano su enormi basi dati e imitano alcune abilità umane, senza però comprenderne il significato .
Da qui l’argomentazione centrale: l’IA non genera conoscenza nuova, ma rielabora correlazioni presenti nei dati. Mancano tre capacità essenziali dell’intelletto umano:
- definire scopi e ragioni per perseguirli;
- astrarre concetti e costruire modelli;
- provare empatia o motivazioni autonome .
L’IA, quindi, non può “sostituire” il pensiero umano: può solo imitarne alcune funzioni in modo deterministico.
Gli errori delle macchine: perché non possiamo delegare scelte vitali
Tamino ha ricordato che l’IA “risponde senza capire ciò che dice”. Questo comporta inevitabili errori, talvolta anche gravi: dalle date sbagliate nei testi generati, fino a suggerimenti assurdi come “aprire la macchina fotografica ed esporre la pellicola alla luce” per risolvere un problema tecnico .
La domanda, allora, è inevitabile: possiamo affidare sistemi così opachi e fallibili a decisioni che toccano clima, salute, sicurezza internazionale?
Il richiamo alla prudenza del premio Turing Yoshua Bengio – “saliresti su un aereo con il 10% di probabilità di schiantarsi?” – sintetizza bene il rischio percepito dagli stessi pionieri dell’IA .
Minacce a democrazia, privacy e lavoro
Tra i pericoli più gravi evidenziati da Tamino vi sono quelli per la vita democratica. La capacità di analizzare enormi quantità di dati rende l’IA uno strumento formidabile per:
- monitorare e influenzare scelte politiche e consumi;
- rafforzare sorveglianza e controllo sui lavoratori;
- orientare opinioni tramite campagne di microtargeting e disinformazione .
Sono rischi già documentati: uno studio pubblicato su BMJ Global Health nel 2023 ha mostrato come l’IA possa aggravare disuguaglianze, manipolare comportamenti e persino destabilizzare sistemi sanitari e democratici .
A ciò si aggiunge l’impatto occupazionale: l’automazione rischia di sostituire milioni di lavoratori, con effetti sulla salute riconosciuti dalla letteratura (peggioramento degli stili di vita, aumento di morbilità).
L’“apartheid algoritmico” e i rischi di ingiustizia
Una parte significativa dell’intervento ha riguardato il rischio di discriminazioni algoritmiche. Se i sistemi apprendono da dati che riflettono pregiudizi sociali, replicano e amplificano tali ingiustizie.
Il Vaticano ha definito questo scenario un vero e proprio “apartheid sanitario” e ha denunciato una crescente “irresponsabilità sistemica”: chi risponde per un danno causato da un algoritmo?
Dalla scienza alla guerra: i campi in cui l’IA sta cambiando il mondo
Tamino ha poi esaminato gli impatti dell’IA in diversi ambiti:
Sanità
L’IA offre grandi potenzialità nelle diagnosi – dalle mammografie alle risonanze – ma richiede garanzie etiche, trasparenza, tutela dei dati e formazione adeguata dei medici, come sottolineato anche da Lancet Public Health .
Ricerca scientifica
Le principali riviste – Nature, Science, JAMA – hanno vietato di considerare l’IA come co-autore e ne limitano l’uso nella peer review: la trasparenza scientifica sarebbe a rischio .
Guerra
È uno dei passaggi più allarmanti: l’IA sta trasformando rapidamente i conflitti.
In Ucraina e Gaza si utilizzano droni autonomi, riconoscimento facciale e sistemi di targeting come Lavender e Gospel, capaci di selezionare obiettivi in modo automatizzato .
La velocità delle decisioni macchina-macchina rischia di rendere impossibili tregue, verifica degli errori, controllo democratico.
Ambiente
I costi energetici sono enormi: i data center consumano quantità di elettricità paragonabili a intere città; supercomputer come Frontier richiedono 20 megawatt continuativi, equivalenti a due campi da tennis di server raffreddati ad acqua .
A questo si aggiunge l’impatto dell’hardware: estrazione mineraria, rifiuti elettronici, obsolescenza accelerata.
Un appello alla responsabilità: “Non diventiamo cibo per gli algoritmi”
L’intervento si è chiuso con un duplice invito:
- sviluppare spirito critico contro la deriva tecnocratica che propone tecnologie come soluzione a ogni problema;
- ricordare le parole di Einstein: “non si può risolvere un problema con lo stesso metodo che l’ha creato”;
- e quelle di Papa Francesco: “spetta all’uomo decidere se diventare cibo per gli algoritmi oppure nutrire di libertà il proprio cuore” .
TUTTE LE NOTIZIE, PRESENTAZIONI E VIDEO DEL CONGRESSO ISDE 2025
