Skip to main content

Nella seconda giornata del Congresso ISDE Italia 2025, Gianni Tamino – biologo, già deputato europeo e da sempre voce critica sui rapporti tra tecnologia, ambiente e democrazia – ha offerto una delle analisi più lucide e radicali sul tema dell’intelligenza artificiale (IA). Nel suo intervento “AI: Perspectives and Risks”  ha delineato un quadro in cui le opportunità non cancellano, anzi amplificano, rischi sociali, sanitari, ambientali e geopolitici.

L’IA non pensa: riprodurre abilità non significa comprendere

Tamino ha esordito chiarendo un punto spesso frainteso: i sistemi di IA non possiedono alcuna forma di pensiero o comprensione. Come mostrato nelle prime slide della presentazione, ciò che oggi chiamiamo “intelligenza artificiale” è in realtà un insieme di tecniche statistiche – machine learning e deep learning – che operano su enormi basi dati e imitano alcune abilità umane, senza però comprenderne il significato  .

Da qui l’argomentazione centrale: l’IA non genera conoscenza nuova, ma rielabora correlazioni presenti nei dati. Mancano tre capacità essenziali dell’intelletto umano:

  • definire scopi e ragioni per perseguirli;
  • astrarre concetti e costruire modelli;
  • provare empatia o motivazioni autonome  .

L’IA, quindi, non può “sostituire” il pensiero umano: può solo imitarne alcune funzioni in modo deterministico.

Gli errori delle macchine: perché non possiamo delegare scelte vitali

Tamino ha ricordato che l’IA “risponde senza capire ciò che dice”. Questo comporta inevitabili errori, talvolta anche gravi: dalle date sbagliate nei testi generati, fino a suggerimenti assurdi come “aprire la macchina fotografica ed esporre la pellicola alla luce” per risolvere un problema tecnico  .

La domanda, allora, è inevitabile: possiamo affidare sistemi così opachi e fallibili a decisioni che toccano clima, salute, sicurezza internazionale?

Il richiamo alla prudenza del premio Turing Yoshua Bengio – “saliresti su un aereo con il 10% di probabilità di schiantarsi?” – sintetizza bene il rischio percepito dagli stessi pionieri dell’IA  .

Minacce a democrazia, privacy e lavoro

Tra i pericoli più gravi evidenziati da Tamino vi sono quelli per la vita democratica. La capacità di analizzare enormi quantità di dati rende l’IA uno strumento formidabile per:

  • monitorare e influenzare scelte politiche e consumi;
  • rafforzare sorveglianza e controllo sui lavoratori;
  • orientare opinioni tramite campagne di microtargeting e disinformazione  .

Sono rischi già documentati: uno studio pubblicato su BMJ Global Health nel 2023 ha mostrato come l’IA possa aggravare disuguaglianze, manipolare comportamenti e persino destabilizzare sistemi sanitari e democratici  .

A ciò si aggiunge l’impatto occupazionale: l’automazione rischia di sostituire milioni di lavoratori, con effetti sulla salute riconosciuti dalla letteratura (peggioramento degli stili di vita, aumento di morbilità).

L’“apartheid algoritmico” e i rischi di ingiustizia

Una parte significativa dell’intervento ha riguardato il rischio di discriminazioni algoritmiche. Se i sistemi apprendono da dati che riflettono pregiudizi sociali, replicano e amplificano tali ingiustizie.

Il Vaticano ha definito questo scenario un vero e proprio “apartheid sanitario” e ha denunciato una crescente “irresponsabilità sistemica”: chi risponde per un danno causato da un algoritmo? 

Dalla scienza alla guerra: i campi in cui l’IA sta cambiando il mondo

Tamino ha poi esaminato gli impatti dell’IA in diversi ambiti:

Sanità

L’IA offre grandi potenzialità nelle diagnosi – dalle mammografie alle risonanze – ma richiede garanzie etiche, trasparenza, tutela dei dati e formazione adeguata dei medici, come sottolineato anche da Lancet Public Health  .

Ricerca scientifica

Le principali riviste – Nature, Science, JAMA – hanno vietato di considerare l’IA come co-autore e ne limitano l’uso nella peer review: la trasparenza scientifica sarebbe a rischio  .

Guerra

È uno dei passaggi più allarmanti: l’IA sta trasformando rapidamente i conflitti.

In Ucraina e Gaza si utilizzano droni autonomi, riconoscimento facciale e sistemi di targeting come Lavender e Gospel, capaci di selezionare obiettivi in modo automatizzato  .

La velocità delle decisioni macchina-macchina rischia di rendere impossibili tregue, verifica degli errori, controllo democratico.

Ambiente

I costi energetici sono enormi: i data center consumano quantità di elettricità paragonabili a intere città; supercomputer come Frontier richiedono 20 megawatt continuativi, equivalenti a due campi da tennis di server raffreddati ad acqua  .

A questo si aggiunge l’impatto dell’hardware: estrazione mineraria, rifiuti elettronici, obsolescenza accelerata.

Un appello alla responsabilità: “Non diventiamo cibo per gli algoritmi”

L’intervento si è chiuso con un duplice invito:

  • sviluppare spirito critico contro la deriva tecnocratica che propone tecnologie come soluzione a ogni problema;
  • ricordare le parole di Einstein: “non si può risolvere un problema con lo stesso metodo che l’ha creato”;
  • e quelle di Papa Francesco: “spetta all’uomo decidere se diventare cibo per gli algoritmi oppure nutrire di libertà il proprio cuore”  .

TUTTE LE NOTIZIE, PRESENTAZIONI E VIDEO DEL CONGRESSO ISDE 2025