top of page

Pensare Bene nell’Era dell’Intelligenza Artificiale: tra Fake News e Bulimia Informativa

In un mondo dominato da algoritmi e fake news, pensare bene è un atto di resistenza cognitiva. Luca De Biase spiega come recuperare il controllo mentale.



Viviamo in un mondo dove l’informazione è onnipresente, ma la conoscenza è sempre più rara. È questo il paradosso che introduce Jonathan Figoli nella nuova puntata di Finance TV – Le Voci dell’Economia, dedicata alla comunicazione e alla capacità – oggi sempre più difficile – di pensare bene.


A guidarci nella riflessione è Luca De Biase, storico caporedattore di Nova 24 e autore del libro Pensare bene. Giornalista e studioso dei processi informativi e tecnologici, De Biase mette a fuoco un tema cruciale del nostro tempo: come distinguere l’informazione autentica dal rumore, e come restare autori del nostro pensiero in un mondo di macchine che pensano per noi.

“Pensare bene significa pensare in modo informato, logico, fidandosi degli altri e delle conseguenze delle proprie azioni,” spiega De Biase. “Ma questo è possibile solo se siamo bene informati. E oggi, paradossalmente, siamo troppo informati per esserlo davvero.”

Il sovraccarico informativo: troppi dati, poca comprensione

Nell’era del information overload, l’essere umano è sommerso da flussi continui di contenuti che competono per la sua attenzione. L’effetto? Un’attenzione sempre più breve, frammentata, incapace di andare in profondità.


De Biase spiega come gli algoritmi di raccomandazione – i recommendation systems che decidono cosa vediamo sui social network, sulle piattaforme di video o di notizie – non siano neutrali. Si basano su ciò che abbiamo cliccato in passato, e quindi rinforzano le nostre abitudini cognitive, spingendoci verso contenuti sempre più emotivi, polarizzanti o sensazionalistici.

“Questi sistemi imparano che ciò che ci ha interessato ieri ci interesserà anche domani, ma in versione più estrema. Così alimentano la polarizzazione e ci rinchiudono in bolle di conferma.”

È la logica del “più emozione, più attenzione”, che trasforma l’informazione in intrattenimento e la conoscenza in frammento.


Dalla memoria esternalizzata al pensiero delegato

Ma il problema non si ferma qui. Negli ultimi anni l’uomo ha iniziato a delegare alle macchine intere funzioni cognitive: prima la memoria (Google, Wikipedia), ora il pensiero e l’analisi (AI generativa).“Non ricordiamo più i fatti,” spiega De Biase, “ricordiamo dove trovarli.” Questo cambiamento ha una conseguenza profonda: se non conserviamo più le informazioni nella nostra mente, non possiamo più unire i puntini.


È qui che l’intelligenza artificiale entra in scena. Strumenti conversazionali come ChatGPT o i sistemi generativi di Meta e Google mostrano una capacità linguistica e analitica senza precedenti. Ma la loro forza è anche la loro insidia: l’eloquenza con cui rispondono rischia di convincerci che la verità sia già pronta, confezionata e affidabile.

“L’AI ci dà la pappa pronta,” osserva De Biase. “È talmente credibile e fluida che rischiamo di smettere di verificare, di dubitare, di pensare.”

Le “allucinazioni” delle macchine e la crisi della verità

Un altro pericolo, spiega l’esperto, è quello delle allucinazioni dell’intelligenza artificiale – errori o invenzioni presentate come fatti. Il rischio è evidente: se le macchine generano testi, immagini o video sempre più realistici, la linea di confine tra vero e falso diventa sottile fino a scomparire.


L’avvento dei deepfake, già oggi utilizzati per disinformazione politica, manipolazioni economiche o attacchi reputazionali, è solo l’inizio. Con l’arrivo di strumenti di AI generativa integrati nei social network, sarà possibile creare in pochi secondi contenuti falsi ma verosimili, diffondendoli su scala planetaria.

“La distanza tra ciò che è verificato e ciò che è inventato tenderà a scomparire,” avverte De Biase. “E questo renderà vitale la ricerca di nuovi metodi per informarci.”

L’illusione dell’obiettività tecnologica

Uno dei miti più pericolosi dell’epoca digitale è quello dell’obiettività delle macchine. Gli algoritmi – come ricorda De Biase – non sono neutrali: riflettono i pregiudizi dei dati con cui sono stati addestrati, e soprattutto le logiche economiche dei soggetti che li progettano.

Così, mentre ci fidiamo di loro per scegliere cosa leggere, acquistare o votare, rinunciamo inconsapevolmente a una parte della nostra autonomia. L’AI diventa non solo uno strumento, ma un intermediario del pensiero umano.


Recuperare la lentezza del pensiero

Cosa possiamo fare, allora, per “pensare bene” in un mondo che ci pensa addosso? La risposta di De Biase è semplice, ma profonda: ritrovare lentezza, senso critico e attenzione.


Pensare bene non significa essere contro la tecnologia, ma imparare a usarla senza delegarle la nostra coscienza. Significa accettare l’AI come strumento, non come sostituto. Significa tornare a leggere con calma, a verificare le fonti, a dare valore all’incertezza come segno di intelligenza, non di debolezza.

“L’innovazione non va fermata,” conclude De Biase, “ma va accompagnata da una cultura della responsabilità. Solo così possiamo restare autori del nostro destino.”

In un’epoca in cui tutto corre e tutto si semplifica, pensare bene è diventato un atto rivoluzionario.



Guarda l'intervista completa su FinanceTV o ascolta

il Podcast FinanceTV Talks - Le Voci dell'Economia

Tavola disegno 4.png

fa parte del gruppo

Logo PFEconomy.png

Il più importante hub per la divulgazione

della cultura economica e finanziaria

  • Linkedin
  • Facebook
  • Instagram
  • Youtube

© PFHolding Srl

Società certificata UNI EN ISO 9001:2015 per la qualità delle attività proposte.

bottom of page