Miriam Pellitteri (1998) è psicologa laureata con lode in Psicologia Clinica (Neuropsicologia) presso l'Università di Palermo. Attualmente specializzanda in Psicoterapia cognitivo-comportamentale e tecnica del comportamento, si occupa di strategie comportamentali per supportare persone con difficoltà di adattamento. Ha esperienza nel contesto scolastico e nei disturbi dello spettro autistico, lavorando come assistente all'autonomia e alla comunicazione. Appassionata di ricerca, si interessa di apprendimento, educazione e gestione delle emozioni, integrando approcci scientifici e orientati alla persona.
La mente umana è un elaboratore complesso e meraviglioso, ma non è priva di limiti. Gli esseri umani, infatti, non processano le informazioni in modo perfettamente oggettivo, ma sono influenzati da una serie di bias cognitivi e distorsioni che alterano il modo in cui percepiamo la realtà e prendiamo decisioni. Tali distorsioni non sono casuali, ma seguono schemi prevedibili che emergono dalle nostre esperienze, emozioni e modalità di pensiero.
Questo articolo esplorerà i principali bias cognitivi e le distorsioni del pensiero, evidenziando come influenzino il nostro comportamento, le relazioni e le scelte quotidiane. Saranno prevalentemente presentati i contributi teorici della psicoterapia cognitiva basata sul lavoro di Gragnani e Perdighe (2016), insieme a ricerche classiche ed emergenti nel campo della psicologia cognitiva e, più in generale, delle scienze cognitive[1].
La capacità di ragionare in modo logico è spesso idealizzata come uno degli strumenti più potenti a disposizione della mente umana. Tuttavia, diversi studi e teorie suggeriscono che non siamo sempre razionali nel nostro modo di pensare. La teoria TOTE (Test-Operate-Test-Exit), elaborata da George A. Miller, Eugene Galanter e Karl H. Pribram (1960), offre un modello su come gli individui risolvano i problemi attraverso un processo di verifica e adattamento continuo. Parallelamente, il principio di falsificazione di Karl Popper (1934) evidenzia i limiti della nostra tendenza a confermare piuttosto che confutare le nostre credenze di base.
La teoria TOTE, sviluppata nell’ambito della cibernetica e della psicologia cognitiva dei primi anni Sessanta, descrive il processo di problem-solving attraverso un circolo retroattivo di verifica e operazione. Secondo questo modello si verificano i seguenti momenti nel corso di un processo di ragionamento:
- Test: si verifica l’ipotesi target;
- Operate: si compie un’azione per ridurre la distanza tra la situazione attuale e l’obiettivo, operando concretamente sull’ipotesi target;
- Test: si valuta se l’azione in questione ha avuto successo e quindi si effettua una ulteriore verifica;
- Exit: il circolo si chiude solo se l’obiettivo è stato raggiunto, altrimenti si ripete l’operazione, esattamente come nel caso di un calcolatore, oggi computer.
Questo ciclo è molto simile a un sistema di feedback, in cui ogni passaggio guida il comportamento successivo fino al raggiungimento della soluzione desiderata (Miller, Galanter & Pribram, 1960)[2]. Ad esempio, quando una persona cerca di aprire una porta bloccata, prova a girare la maniglia (operate), verifica se si apre (test) e, se necessario, ripete l’azione con più forza; diciamo che, seguendo questo ragionamento, ogni azione umana sarà guidata da tale procedimento logico.
Sebbene la teoria TOTE descriva un modello efficace di problem-solving, non tiene pienamente conto dei numerosi fattori emotivi e cognitivi che influenzano il processo decisionale umano. Gli esseri umani, infatti, non seguono sempre un processo razionale e sistematico nella risoluzione dei problemi, ma sono spesso influenzati da bias cognitivi e euristiche che possono compromettere l’efficacia del ragionamento.
Nello specifico, un bias cognitivo è una deviazione sistematica dalla razionalità che si manifesta nel modo in cui elaboriamo le informazioni e prendiamo decisioni. Per euristiche, invece, si intende quel complesso di scorciatoie mentali che ci permettono di prendere decisioni rapide ma non sempre accurate, prevalentemente in situazioni di cosiddetta emergenza. Anche se queste euristiche hanno un valore adattivo, poiché riducono il carico cognitivo (in termini mnesici e attenzionali), possono portarci a conclusioni errate[3].
A tal proposito, Karl Popper (1934) propose il principio di falsificazione come criterio per distinguere le affermazioni scientifiche da quelle non scientifiche. Secondo Popper, una teoria è scientifica solo se è falsificabile, ovvero se è possibile concepire un esperimento che possa dimostrare la sua falsità. Al contrario del pensiero comune, la scienza non avanza confermando ipotesi, ma cercando attivamente di falsificarle e quindi di confutarle[4]. Tuttavia, gli esseri umani tendono a cercare conferme delle proprie credenze piuttosto che prove contrarie per un principio di coerenza interna, che consente di provare meno disagio, che, in termini di psicologia sociale, definiremmo “dissonanza cognitiva” (Festinger, 1957). In letteratura, questo fenomeno è noto anche come bias di conferma (o confirmation bias; Nickerson, 1998). In pratica, le persone filtrano le informazioni selettivamente, prestando maggiore attenzione a quelle che confermano le loro ipotesi e ignorando quelle che le contraddicono. Questo comportamento, in netto contrasto con il principio di falsificazione di Popper, dimostra che non siamo poi dei così buoni ragionatori.
Un esempio pratico è il modo in cui le persone gestiscono le informazioni durante le discussioni politiche o scientifiche, tendendo a cercare notizie che supportino esclusivamente le proprie idee e ad evitare quelle che le mettono in discussione. Questo comportamento contribuisce alla polarizzazione sociale e alla diffusione di false credenze, oltre che di fake news.
Il principio di falsificazione di Popper è alla base del metodo scientifico moderno, ma la tendenza umana a confermare le proprie convinzioni rende difficile applicarlo nella pratica, per tutta una serie di ragioni, come poc’anzi enunciato. Tale difficoltà è ancora più evidente nei casi in cui dobbiamo prendere decisioni importanti nel più breve tempo possibile e quindi nei casi in cui disponiamo di meno strumenti per raggiungere dati obiettivi (ad esempio, scegliere, nel minore tempo possibile, su quale treno salire per arrivare alla meta desiderata); è proprio in queste circostanze che vengono in nostro aiuto le euristiche, atte proprio all’ottimizzazione delle risorse, quando ne abbiamo più bisogno[5].
Sotto questa luce, sicuramente benevola, possiamo vedere le euristiche come degli importanti dispositivi per la nostra stessa sopravvivenza (Gigerenzer & Todd, 1999)[6]. Ciononostante, è comunque opportuno promuovere un pensiero più critico, essenziale per lo sviluppo della consapevolezza dei limiti personali e l’adozione di strategie cognitive funzionali e utili ai propri scopi. In ragione di ciò, la metacognizione, ovvero la capacità di riflettere sui propri processi di pensiero, è una strategia efficace per contrastare il bias di conferma ed altri errori cognitivi. Anche in ambito educativo, pratiche come il debate[7], ossia il dibattito critico che mette in evidenza due tesi differenti, possono migliorare la qualità del ragionamento, aiutando le persone a correggere i propri errori (Nickerson, 1998).
Adesso, invece, vedremo quali sono le euristiche ed i bias di cui principalmente usufruiamo nella quotidianità. Uno dei ragionamenti maggiormente adoperati in situazioni di minaccia scopistica è quello di tipo emozionale (affect as information)[8] per il quale le decisioni vengono condizionate, per l’appunto, dalla dimensione affettiva verso oggetti o persone, anziché da valutazioni razionali. Ad esempio, la simpatia per un candidato politico può influenzare il voto più delle sue reali competenze (Slovic et al., 2007)[9].
Altro esempio, spesso evidente in ambito educativo e valutativo, è dato dal cosiddetto effetto alone consistente nel lasciarsi influenzare da un’unica caratteristica positiva o negativa di una persona, tale da giudicarne l’intero aspetto o carattere (ad esempio, attenzionare unicamente lo stile di abbigliamento di un candidato, sottostimando, invece, la sua effettiva preparazione)[10]. Questo, chiaramente, non è prova del fatto che ciascuna di queste distorsioni sia perniciosa nei confronti del nostro operato, anzi, talvolta, può esserci estremamente utile ma è comunque d’uopo consapevolizzare tutto ciò (Kahneman, 2011).
In particolare, il bias di conferma ha un ruolo centrale sia nella psicologia del “normale” che nella psicopatologia. Secondo Gragnani e Perdighe (2016), le persone con disturbi d’ansia o dell’umore tendono a interpretare selettivamente la realtà in modo coerente con le proprie convinzioni negative su di sé, sugli altri e sul mondo. Ciò che distingue la condizione psicopatologica da quella normativa è più che altro l’esacerbazione in termini quantitativi del processo di ragionamento, più che qualitativi; difatti, sia pazienti che soggetti di controllo dimostrano le medesime difficoltà ma in settori diversi poiché tali difficoltà, nel caso dei primi, si manifestano con più intensità nel loro dominio psicopatologico di riferimento (ad esempio, un fobico, dinanzi allo stimolo temuto, commetterà più errori di ragionamento rispetto ad un soggetto “sano” proprio perché posto dinanzi a ciò di cui ha più terrore, cosa che, chiaramente, influisce sulle sue capacità cognitive)[11].
Altro effetto interessante è l’effetto ancoraggio ossia la tendenza a fare eccessivo affidamento sulla prima informazione ricevuta (l’ancora) nel prendere decisioni. Questo fenomeno è stato dimostrato in numerosi contesti, dalle negoziazioni economiche alle valutazioni cliniche (Tversky & Kahneman, 1974)[12]. Anche se l’informazione iniziale è irrilevante, essa condiziona in modo sproporzionato il giudizio finale, proprio perché sovrastimata.
L’effetto framing, invece, riguarda le scelte che variano a seconda di come le informazioni vengono presentate, ad esempio in termini di guadagni o perdite (Kahneman & Tversky, 1984). Siamo più portati a prediligere, in modo fisiologico, un guadagno, seppur piccolo, nell’immediato che uno maggiore, però raggiunto nel corso di un periodo di tempo più lungo[13].
Tra le altre distorsioni annoveriamo il pensiero dicotomico che consiste nel vedere le situazioni in termini estremi (tutto o niente), senza considerare le sfumature intermedie. Questa distorsione è comune anche a parecchi disturbi psichici e può portare a interpretazioni catastrofiche degli eventi (“catastrofizzazione”, in gergo)[14].
La personalizzazione consiste nel ritenere se stessi responsabili di eventi negativi esterni, anche quando non vi sono prove concrete di tale responsabilità, oppure, fare riferimento unicamente a se stessi anche in situazioni che non hanno connessioni con queste evidenze.
Secondo il modello proposto da Kahneman (2011), il pensiero umano è organizzato in due sistemi, ovvero uno veloce, automatico e intuitivo e l’altro lento, deliberato e logico.
Il primo è utile per prendere decisioni rapide in situazioni di emergenza, ma è anche sensibile a bias e a distorsioni[15]. Un esempio è l’euristica della disponibilità, secondo cui giudichiamo la probabilità di un evento in base alla facilità e disponibilità con cui ci viene in mente[16]. Questo è tipico di quando ascoltiamo qualche notizia tragica al telegiornale e sovrastimiamo la possibilità che questo possa accadere nuovamente e con un notevole grado di probabilità. Ciò è dato anche dal fatto che, tendenzialmente, privilegiamo, per una questione di spirito auto-conservativo, informazioni negative anziché positive ed ottimistiche. Questo bias può essere particolarmente dannoso per le persone con depressione maggiore, poiché amplifica la percezione di fallimenti e difficoltà.
Al contrario, il bias di ottimismo irrealistico ci porta a sottovalutare i rischi e a sovrastimare la probabilità di eventi positivi nella nostra vita. Anche se questo bias può favorire la resilienza e la percezione di autoefficacia, può portarci a ignorare i segnali di allarme in situazioni rischiose. Prova del fatto per cui sarebbe meglio privilegiare i segnali di allarme è data dal cosiddetto “pessimismo realistico” di cui si fanno portavoce le persone affette da disturbi depressivi, le quali, sostengono un catastrofismo imprescindibile e verosimile[17].
Concludendo, abbiamo visto come i bias cognitivi influenzino la nostra soggettività, trattandosi di processi che uniscono dimensione razionale e irrazionale, ma possono anche incidere sulle dinamiche sociali, portandoci a fare generalizzazioni o a perpetuare stereotipi o comportamenti pregiudiziali.
Esempi di ciò sono rappresentati dal bias del gruppo interno (ingroup) che è la tendenza a favorire le persone che appartengono al nostro stesso gruppo e a discriminare gli estranei ad esso (outgroup). Questo bias è alla base di molti conflitti e di discriminazioni.
Superare i bias e le distorsioni cognitive richiede consapevolezza e pratica.
La psicoterapia cognitiva, sviluppata da Aaron T. Beck (1976), si basa sull’idea che i pensieri distorti siano alla radice di molte emozioni e comportamenti problematici. Gragnani e Perdighe (2016) hanno elaborato un manuale che integra tecniche di riconoscimento e ristrutturazione delle distorsioni cognitive. Tra le tecniche utilizzate, vi sono il dialogo socratico o maieutica che rappresenta un modo di condurre una discussione, promuovendo la logica ed il raziocinio. Ma la tecnica che più fra tutte la fa da padrona è la ristrutturazione cognitiva che, come sottintende la parola medesima, mira a sostituire i pensieri disfunzionali con interpretazioni più equilibrate della realtà[18].
Oltre a questo, gli studi di neuroeconomia esaminano come i bias influenzino le decisioni finanziarie (Thaler & Sunstein, 2008)[19], mentre la psicologia sociale esplora il ruolo dei bias nella formazione di stereotipi e pregiudizi (Fiske & Taylor, 2013). D’altra parte, la neuroeconomia nasce dall’intersezione di economia, neuroscienze e psicologia, con l’obiettivo di studiare i processi cerebrali alla base delle decisioni economiche. Essa si propone di superare il modello dell’homo oeconomicus, secondo cui gli individui sono agenti perfettamente razionali[20].
Tra le tecniche più utilizzate nella neuroeconomia ci sono la risonanza magnetica funzionale (fMRI) e l’elettroencefalogramma (EEG), oltre che gli studi comportamentali in vivo. Studi neuro-economici hanno dimostrato che l’amigdala, una struttura cerebrale coinvolta nell’elaborazione emotiva, giochi un ruolo cruciale nelle decisioni prese impulsivamente. La corteccia prefrontale, invece, è responsabile delle decisioni più ponderate e razionali (Bechara et al., 1999), anche perché è quella che si è generata filogeneticamente più tardi delle altre[21].
La neuroeconomia ha confermato che le euristiche e i bias cognitivi non sono semplici errori, ma strategie evolutive sviluppate per gestire situazioni complesse in modo rapido. Ad esempio, l’euristica dell’ancora è spesso attivata quando si confrontano prezzi, e la sua influenza è stata osservata a livello neuronale nella corteccia orbito-frontale, coinvolta nei processi socio-cognitivi (Plassmann et al., 2008)[22].
Le ricerche mostrano che i bias cognitivi influenzano le scelte economiche, come investimenti e risparmi; è il caso del bias dell’ottimismo, il quale porta gli investitori a sottovalutare i rischi, mentre l’avversione alla perdita induce a evitare vendite anche quando sarebbe razionale (Thaler & Sunstein, 2008)[23].
La pubblicità sfrutta le euristiche per influenzare i consumatori, utilizzando messaggi che facciano leva sugli aspetti emotivi. La neuroeconomia ha dimostrato che il piacere anticipato di un acquisto attiva il sistema di ricompensa nel cervello (reward), coinvolgendo il nucleo accumbens (Knutson et al., 2007) che fa parte del più ampio sistema dopaminergico. Sulla base di questo, anche la neuroeconomia ha il potenziale di migliorare le nostre decisioni, aiutandoci a comprendere meglio come il cervello funziona e come possiamo gestire i nostri limiti cognitivi[24].
I bias e le distorsioni cognitive sono parte integrante del modo in cui la mente elabora le informazioni. Anche se queste distorsioni possono portare a errori di giudizio ed a malessere emotivo, la consapevolezza dei propri bias e l’adozione di strategie cognitive adeguate possono migliorare significativamente la qualità della vita[25].
[1] A. Gragnani, & C. Perdighe, Manuale di psicoterapia cognitiva. Raffaello Cortina Editore, 2016
[2] G. A. Miller, E. Galanter, & K. H. Pribram, Plans and the Structure of Behavior. Holt, Rinehart & Winston, 1960
[3] A. Gragnani, & C. Perdighe, Manuale di psicoterapia cognitiva. Raffaello Cortina Editore, 2016
[4] K. R. Popper, The Logic of Scientific Discovery. Hutchinson, 1934
[5] A. Gragnani, & C. Perdighe, Manuale di psicoterapia cognitiva. Raffaello Cortina Editore, 2016
[6] G. Gigerenzer, & P. M. Todd, Simple Heuristics That Make Us Smart. Oxford University Press, 1999
[7] R. S. Nickerson, Confirmation bias: A ubiquitous phenomenon in many guises, in «Review of General Psychology», 2(2), 175-220, 1998
[8] A. Gragnani, & C. Perdighe, Manuale di psicoterapia cognitiva. Raffaello Cortina Editore, 2016
[9] P. Slovic, M. L. Finucane, E. Peters, & D. G. MacGregor, The affect heuristic, in «European Journal of Operational Research», 177(3), 1333-1352, 2007
[10] D. Kahneman, Thinking, Fast and Slow. Farrar, Straus and Giroux, 2011
[11] A. Gragnani, & C. Perdighe, Manuale di psicoterapia cognitiva. Raffaello Cortina Editore, 2016
[12] A. Tversky, & D. Kahneman, Judgment under uncertainty: Heuristics and biases, in «Science», 185(4157), 1124-1131, 1974.
[13] D. Kahneman, & A. Tversky, Choices, values, and frames, in «American Psychologist», 39(4), 341-350, 1984.
[14] A. Gragnani, & C. Perdighe, Manuale di psicoterapia cognitiva. Raffaello Cortina Editore, 2016.
[15] D. Kahneman, Thinking, Fast and Slow. Farrar, Straus and Giroux, 2011.
[16] A. Gragnani, & C. Perdighe, Manuale di psicoterapia cognitiva. Raffaello Cortina Editore, 2016.
[17] Ibidem.
[18] Ibidem.
[19] R. H. Thaler, & C. R. Sunstein, Nudge: Improving Decisions about Health, Wealth, and Happiness. Penguin Books, 2008.
[20] S. T. Fiske, & S. E. Taylor, Social Cognition: From Brains to Culture. Sage, 2013.
[21] A. Bechara, H. Damasio, D. Tranel, & A. R. Damasio, Deciding advantageously before knowing the advantageous strategy, in «Science», 275(5304), 1293-1295, 1999.
[22] H. Plassmann, J. O’Doherty, & A. Rangel, Marketing actions can modulate neural representations of experienced pleasantness, in «Proceedings of the National Academy of Sciences», 105(3), 1050-1054, 2008
[23] R. H. Thaler, & C. R. Sunstein, Nudge: Improving Decisions about Health, Wealth, and Happiness. Penguin Books, 2008.
[24] B. Knutson, S. Rick, G. E. Wimmer, D. Prelec, & G. Loewenstein, Neural predictors of purchases, in «Neuron», 53(1), 147-156, 2007.
[25] A. Gragnani, & C. Perdighe, Manuale di psicoterapia cognitiva. Raffaello Cortina Editore, Milano 2016.