Elefanti in salotto (20)

Psicologia: fingere che non ci sia niente di sbagliato

“Una delle lezioni più tristi della storia è questa: se siamo stati ingannati abbastanza a lungo, tendiamo a rifiutare qualsiasi prova dell’imbroglio. Non siamo più interessati a scoprire la verità. L’imbroglio ci ha catturato. È semplicemente troppo doloroso riconoscere, anche a noi stessi, che siamo stati presi. Una volta che dai un potere a un ciarlatano su di te, non lo riavrai quasi mai indietro”.[1]

Nel 2012 c’è stato un disastro nucleare presso la centrale nucleare di Fukushima in Giappone. Un’indagine ha concluso che:

“Le sue cause fondamentali sono da ricercare nelle convenzioni radicate della cultura giapponese, nella nostra obbedienza riflessiva, nella nostra riluttanza a mettere in discussione l’autorità, nella nostra devozione a restare fedeli al programma”.[2]

Tuttavia, non c’è nulla di specificamente giapponese in questi atteggiamenti. Una mentalità simile spiega molte delle questioni discusse in altri post. Questo post è il primo di due che forniscono alcune informazioni sul motivo per cui ci comportiamo come facciamo. Perché persone potenti nei governi e nelle società commettono così tanti crimini? Perché le persone tollerano un governo che commette crimini di guerra? Perché le persone chiudono un occhio quando le grandi aziende svolgono ripetutamente attività non etiche? Perché siamo così facilmente fuorviati?

Vogliamo conoscere la verità? Negazione e autoinganno

Stanley Cohen ha scritto un libro intitolato “States of Denial”, che ha esaminato il motivo per cui intere popolazioni consentono ai propri governi di commettere atrocità. Ha descritto una mentalità che era “contemporaneamente sapere e non sapere”. In parte sappiamo qualcosa, ma non vogliamo scoprire il resto, per paura di scoprire qualcosa di preoccupante.[3] Il cervello umano è capace di grandi intuizioni e pensiero indipendente, ma ci siamo condizionati a non porre troppe domande difficili, perché abbiamo paura delle risposte. Siamo vagamente consapevoli che scegliamo di non guardare i fatti, senza capire veramente cosa stiamo eludendo.

Questo di solito è chiamato “cecità intenzionale” o “negazione”. Copre una vasta gamma di fenomeni, dai governi che commettono atrocità e aziende che si comportano in modo non etico, a individui che cercano di convincersi che i loro partner non hanno affari. Se commettiamo o assistiamo a pratiche dannose, cerchiamo di ingannare noi stessi facendogli credere che fossero ragionevoli. Forniamo giustificazioni, usiamo eufemismi per evitare descrizioni accurate e ignoriamo le conseguenze.[4] Questa forma di autoinganno consente a individui, organizzazioni e persino interi paesi di negare la conoscenza di cose che li mettono a disagio.

Numerosi dipendenti governativi e aziendali che hanno preso parte a comportamenti non etici hanno ammesso in seguito di sapere che le loro azioni erano sbagliate, ma sono riusciti a convincersi che le normali regole non si applicassero. La maggior parte delle persone in Gran Bretagna e negli Stati Uniti, inclusi i giornalisti, ha una certa comprensione che la distruzione dell’Iraq e della Libia sono crimini mostruosi, ma sono così a disagio nell’ammetterlo che si illudono nel credere che non sia vero.

Lavaggio del cervello – Ci viene mentito ogni giorno

Più persone sono esposte a un’idea, più è probabile che la accettino. Se sentiamo ripetutamente le stesse informazioni dai media, arriviamo a credere che debba essere vero. Se siamo circondati anche da amici, familiari e colleghi che ripetono la stessa prospettiva, perché anche loro bombardati dalle stesse informazioni fuorvianti dei media, allora diventa sempre più difficile dire che non è vero.

Convincere le persone a credere che versioni distorte degli eventi sia una forma di lavaggio del cervello. Ogni soldato nella storia che ha ucciso persone in un altro paese ha subito un lavaggio del cervello in una certa misura. Sono portati a credere che sparare alle persone, far cadere bombe su di loro o seppellirle vive sotto un carro armato sia ragionevole, anche se le persone uccise stanno cercando di arrendersi. Anche le persone comuni che sostengono queste politiche sono state sottoposte al lavaggio del cervello per accettare queste politiche. Questo è collegato a un altro aspetto della psicologia noto come disumanizzazione: la capacità di vedere gli altri come meno che umani.[5] Questo gioca un ruolo importante nel consentire ai governi di farla franca con i crimini di guerra all’estero, perché le persone che vengono massacrate, come i musulmani in Medio Oriente, sono diverse da noi.

Bias di conferma e “quadro di comprensione”

Gli psicologi hanno riconosciuto che le nostre convinzioni sono una parte importante di come ci vediamo. Preferiamo ricevere informazioni che confermano le nostre opinioni o convinzioni esistenti, perché ci fanno sentire bene con noi stessi. Gli psicologi usano il termine “dissonanza cognitiva” per descrivere una situazione in cui le persone si sentono a disagio perché vengono presentate prove che contraddicono le loro convinzioni esistenti. Cerchiamo di trovare modi per affrontare questo disagio, ignorando le informazioni o utilizzando una logica errata per giustificare le nostre convinzioni esistenti. Questo è noto come “bias di conferma”,[6] ed è spesso suddiviso in tre aree principali.

In primo luogo, la ricerca parziale è dove cerchiamo attivamente informazioni che supportano le nostre opinioni esistenti. La maggior parte dei lettori di giornali saprà di scegliere un giornale in cui gli scrittori esprimono opinioni simili alle loro.

In secondo luogo, l’interpretazione parziale è dove interpretiamo prove ambigue a sostegno della nostra posizione esistente. Troviamo anche ragioni per respingere le prove che contraddicono le nostre convinzioni, convincendoci che la fonte fosse inaffidabile.

Infine, la memoria parziale è dove ricordiamo le informazioni che supportano le nostre convinzioni esistenti e dimentichiamo le informazioni che le contraddicono. Nel tempo, la maggior parte delle persone dimentica i dettagli di ciò che ha appreso. Creano un quadro di comprensione o un quadro di conoscenza. Questa è come una panoramica generale di come vediamo il mondo. Se le nuove informazioni sono coerenti con questo framework, si inseriscono facilmente nel framework, rinforzano il framework e potrebbero essere ricordate. Se le nuove informazioni non si adattano facilmente al framework, non sappiamo cosa farne, quindi tenderà a essere ignorate e rapidamente dimenticate.

L’affetto per le credenze sembra essere simile all’affetto per le persone. Ricerche recenti hanno dimostrato che alcune parti del cervello si disattivano quando si pensa alle persone che amiamo. In particolare, alcune delle aree responsabili del pensiero critico. Lo stesso sembra essere vero quando si pensa alle credenze.[7] Il nostro cervello tratta in modo diverso qualsiasi informazione che possa mettere in discussione le nostre convinzioni. L’effetto sembra essere più forte per problemi carichi di emozioni e per convinzioni profondamente radicate. Questo è particolarmente il caso in cui le persone credono in un’ideologia potente o in una grande idea, come i “mercati”. Siamo per lo più inconsapevoli di quanto profondamente queste grandi idee influenzino il nostro modo di pensare. Il bias di conferma può portare a una situazione in cui le persone continueranno a credere a qualcosa, anche quando è fortemente contraddetta dalle prove.[8]

Le idee sembrano “normali” se molte altre persone le condividono, anche se si sbagliano

Se una minoranza di persone ha un’opinione insolita, come “il mondo sta per finire”, alla maggioranza sembra strana. Ma quando le idee sono ampiamente condivise sembrano meno strane e possono persino sembrare normali. Ciò era evidente durante la corsa alla crisi finanziaria del 2008. La fede nei “mercati” era diventata sempre più rafforzata, con poche persone che li mettevano apertamente in discussione. La maggior parte delle persone, compresi i presunti esperti, ha scelto di trascurare gli svantaggi consolidati della deregolamentazione finanziaria, come i disastri catastrofici.

Ciò è in parte dovuto al fatto che le convinzioni delle persone tendono a svilupparsi nel tempo. Mentre si formano queste convinzioni, possono essere cambiate, ma una volta che si sono consolidate diventa più difficile cambiarle. In particolare, se qualcuno ha espresso la propria opinione, sente che cambiare opinione appare debole.[9] Alla fine sentono di avere troppo da perdere e diventa quasi impossibile cambiare le loro opinioni. Se un giornalista si è guadagnato da vivere sostenendo apertamente le invasioni di altri paesi, è molto difficile per lui ammettere di aver sostenuto i peggiori crimini di questo secolo.

Ciò è particolarmente rilevante per la convinzione che le persone che abbiamo eletto per dirigere il nostro paese siano persone ragionevoli con buone intenzioni. Vogliamo credere che non siano pazzi sociopatici guerrieri, quindi forniamo ogni sorta di spiegazioni per i loro crimini. Se uccidono due milioni di persone in Iraq, ci convinciamo che la loro spiegazione, che erano preoccupati per le armi di distruzione di massa, o il terrorismo, o i diritti umani, deve essere corretta. Anche se, in fondo, sappiamo che queste sono bugie.

Obbedienza distruttiva: provocare danni seguendo gli ordini

Alcuni famosi esperimenti si sono concentrati sul ruolo dell’obbedienza all’autorità. I più noti di questi furono inizialmente eseguiti da Stanley Milgram nel 1963.[10] Questi studi hanno esaminato perché gli individui obbediscono alle autorità anche quando il compito è moralmente ripugnante, quando non c’è ricompensa per farlo e dove non c’è punizione per la disobbedienza. Nell’esperimento è stato detto alle persone di sottoporre ad altre persone forti scosse elettriche. Gli studi hanno scoperto che molte persone obbediranno a questi ordini. Variazioni degli esperimenti sono state eseguite in tutto il mondo, per vedere se i risultati sono veri in altri paesi. Anche se i dettagli a volte variano, il principio generale secondo cui molte persone faranno cose terribili quando eseguiranno gli ordini sembra essere vero.[11]

Studi simili sono stati tentati nel mondo reale, dove gli infermieri sono stati osservati per vedere se avrebbero somministrato dosi letali di farmaci su ordine di un medico. Ancora una volta, forse sorprendentemente, pochissimi hanno messo in dubbio l’istruzione.[12] Le prove nel mondo reale non sperimentali di questi effetti sono molto diffuse. Si pensa che un quarto degli incidenti aerei sia causato da “obbedienza distruttiva”[13] e c’è un famoso incidente di corazzate che si schiantano perché nessuno ha messo in dubbio i loro ordini.[14]

Questa obbedienza senza dubbio crea problemi ripetuti in molte industrie. Le mancanze di sicurezza dovute al taglio dei costi sono un problema comune, anche quando le persone sanno che i tagli creerebbero pericolo. Questo crea una situazione in cui l’etica, la legalità e la sicurezza diventano irrilevanti a causa degli ordini dei capi. Numerose perdite di petrolio ed esplosioni di gas, come la raffineria di petrolio di Texas City o la piattaforma petrolifera Deepwater Horizon, si sono verificate a causa dei risparmi sui costi e dei tagli agli standard di sicurezza.[15]

Conformità e scomparsa dell’etica

La conformità è dove le persone cercano di adattarsi a coloro che le circondano, di conformarsi.[16] Gli esperimenti più noti in quest’area furono condotti da Solomon Asch nel 1951.[17] I soggetti sono stati inseriti in gruppi che dovevano svolgere compiti semplici, come contare il numero di rintocchi di una campana. All’insaputa del soggetto, tutti gli altri membri del gruppo erano “coinvolti” nell’esperimento ed erano stati istruiti a dichiarare il numero sbagliato di rintocchi. In modo schiacciante, i soggetti erano d’accordo con il resto del gruppo, piuttosto che affermare il numero corretto. Si scopre che sotto la pressione sociale la maggior parte di noi preferirebbe sbagliarsi piuttosto che essere soli. L’indipendenza della mente può portare a un senso di isolamento e influenzare la nostra autostima, quindi cerchiamo di proteggerci adattandoci al gruppo.[18] Questo tipo di ricerca è stato ripetuto costantemente. Una delle scoperte più interessanti è che alcuni partecipanti non hanno la sensazione di essersi conformati – è completamente subconscio.[19]

La conformità può spiegare una serie di fenomeni che sono stati osservati. In particolare, i ricercatori hanno notato il pensiero di gruppo, in cui il desiderio di armonia all’interno di un gruppo prevale su un’onesta discussione sulle alternative. Le persone sono riluttanti a suggerire opinioni dissenzienti a causa del loro desiderio di conformarsi. La polarizzazione dell’atteggiamento è dove i gruppi di pensatori che la pensano allo stesso modo tendono a sviluppare visioni ancora più estreme. Sembra altamente probabile che entrambi siano al lavoro quando gruppi di politici perseguono politiche estere estremiste come la guerra. I leader nominano pensatori che la pensano allo stesso modo come consulenti e le persone con opinioni sfidanti tendono ad essere escluse dal processo decisionale.

Le prove di conformità nel mondo reale suggeriscono anche che gli standard etici individuali diminuiscono nei gruppi. È improbabile che i giovani studenti di medicina fischino se vedono qualcosa di non etico. Tuttavia, la ricerca indica che sono ancora meno propensi a fischiare dopo 3 anni di formazione medica ed etica.[20] I medici sono riluttanti a sfidare i loro colleghi, anche quando le prove di incompetenza che porta alla morte sono chiare.[21] Molte persone coinvolte in attività finanziarie negli anni del boom prima della crisi finanziaria globale del 2007 hanno spiegato che non c’era un chiaro senso delle norme morali. Se tutti intorno a te vengono ricompensati per aver fatto affari sbagliati, cosa è normale? Se le aziende stanno spendendo molto denaro facendo pressioni sui politici per cambiare le leggi, questo le fa credere che le leggi non debbano essere prese sul serio, sono solo ostacoli da aggirare.[22]

Obbedienza e Conformità sono una combinazione pericolosa

In molti luoghi di lavoro sono presenti sia obbedienza che conformità. Il personale obbedisce ai suoi superiori, ma vuole anche conformarsi per adattarsi ai suoi colleghi. In pratica, opporsi al consenso è difficile per numerose ragioni.[23] Ovviamente, molti dei sistemi che abbiamo attualmente in atto non forniscono incoraggiamento o ricompensa tangibile per il contraccolpo del sistema o per decisioni impegnative. In effetti, è vero esattamente il contrario. Interrogare i tuoi colleghi, e in particolare i tuoi superiori, può avere un impatto negativo sul tuo lavoro, sulla tua reputazione, sulle tue prospettive di carriera e sui tuoi guadagni finanziari.

Punti chiave
  • La negazione della nostra conoscenza di illeciti governativi e aziendali è diffusa
  • Siamo molto resistenti alle prove che contraddicono la nostra visione del mondo
  • Il nostro desiderio di conformarci o “adattarci” e di essere obbedienti ha la precedenza sulle prove o sull’etica
Ulteriori letture
Risorse in linea

Maria Popova, “Perché ignoriamo l’ovvio: la psicologia della cecità volontaria”, a
https://www.brainpickings.org/2014/08/27/willful-blindness-margaret-heffernan/


References

[1] Carl Sagan, The Demon-Haunted World: Science as a Candle in the Dark, 1995

[2] Justin McCurry, ‘Japanese cultural traits ‘at heart of Fukushima disaster’’, Guardian, 5 July 2012, at
https://www.theguardian.com/world/2012/jul/05/japanese-cultural-traits-fukushima-disaster

[3] Stanley Cohen, States of Denial, 2001, pp. 24–33
https://www.wiley.com/en-us/States+of+Denial%3A+Knowing+about+Atrocities+and+Suffering-p-9780745623924

[4] Margaret Heffernan, Wilful Blindness: Why we ignore the obvious at our peril, 2011, pp.258–259
https://www.mheffernan.com/book-wilfulblindness.php

[5] https://en.wikipedia.org/wiki/Dehumanization

[6] https://en.wikipedia.org/wiki/Confirmation_bias

[7] Margaret Heffernan, Wilful Blindness: Why we ignore the obvious at our peril, 2011, pp. 45–46

[8] Lee Ross and Craig Anderson, ‘Judgement under uncertainty: Heuristics and biases’, 1974, Science 185 (4157): 1124–31
https://www.semanticscholar.org/paper/Judgment-under-Uncertainty%3A-Heuristics-and-Biases.-Tversky-Kahneman/dbdb10f066b857baa6e129f49b8d832c3f6267ae

[9] Margaret Heffernan, Wilful Blindness: Why we ignore the obvious at our peril, 2011, 316

[10] http://en.wikipedia.org/wiki/Stanley_Milgram

[11] Brian Resnick, ‘The Stanford prison experiment was massively influential. We just learned it was a fraud’, Vox, 13 June 2018, at
https://www.vox.com/2018/6/13/17449118/stanford-prison-experiment-fraud-psychology-replication

[12] https://en.wikipedia.org/wiki/Hofling_hospital_experiment
C.K.Hofling et al, ‘An experimental study in nurse-physician relationships’, Journal of nervous and mental disease, 143(2): 171–80, at
https://pubmed.ncbi.nlm.nih.gov/5957275/

[13] Eugen Tarnow, ‘Self-destructive obedience in the airplane cockpit and the concept of obedience optimisation’, in Thomas Blass (ed.) Obedience to Authority: Current perspectives on the Milgram paradigm, 2000, at
https://www.taylorfrancis.com/chapters/self-destructive-obedience-airplane-cockpit-concept-obedience-optimization-eugen-tarnow/e/10.4324/9781410602022-11

[14] https://en.wikipedia.org/wiki/HMS_Victoria_(1887)

[15] http://en.wikipedia.org/wiki/Texas_City_Refinery_explosion
https://en.wikipedia.org/wiki/Deepwater_Horizon_oil_spill

[16] https://en.wikipedia.org/wiki/Conformity

[17] Asch, S.E., ‘Opinions and Social Pressure’, Scientific American, 1955, 193(5) pp.3–5
https://www.lucs.lu.se/wp-content/uploads/2015/02/Asch-1955-Opinions-and-Social-Pressure.pdf

[18] Margaret Heffernan, Wilful Blindness: Why we ignore the obvious at our peril, 2011, p.296

[19] G. Berns et al, ‘Neurobiological correlates of Social Conformity and Independence During mental Rotation’, Journal of Biological Psychiatry, no.58, pp.245–253
http://www.ccnl.emory.edu/greg/Berns%20Conformity%20Biol%20Psych%20Final%20with%20Figs%20and%20Suppl%20Materials.pdf

[20] J. Goldie et al, ‘Students attitudes and potential behaviour with regard to whistle blowing as they pass through a modern medical curriculum’, Medical Education, 37, pp.368–375, at
https://pubmed.ncbi.nlm.nih.gov/12654122/

[21] ‘Learning from Bristol: Report of the Public Inquiry into children’s heart surgery at the Bristol Royal Infirmary 1984–1995’ (also known as The Kennedy Report), July 2001, at
http://www.wales.nhs.uk/sites3/documents/441/The%20Kennedy%20Report.pdf

[22] Margaret Heffernan, Wilful Blindness: Why we ignore the obvious at our peril, 2011, 202

[23] Stanley Cohen, States of Denial: Knowing about atrocities and suffering, 2001, p.19
https://www.wiley.com/en-us/States+of+Denial%3A+Knowing+about+Atrocities+and+Suffering-p-9780745623924

FONTE

2 pensieri riguardo “Elefanti in salotto (20)

Rispondi

Inserisci i tuoi dati qui sotto o clicca su un'icona per effettuare l'accesso:

Logo di WordPress.com

Stai commentando usando il tuo account WordPress.com. Chiudi sessione /  Modifica )

Google photo

Stai commentando usando il tuo account Google. Chiudi sessione /  Modifica )

Foto Twitter

Stai commentando usando il tuo account Twitter. Chiudi sessione /  Modifica )

Foto di Facebook

Stai commentando usando il tuo account Facebook. Chiudi sessione /  Modifica )

Connessione a %s...

%d blogger hanno fatto clic su Mi Piace per questo: