La rivoluzione dell’Intelligenza Artificiale: sfide e linee di ricerca future verso un’intelligenza aumentata

Sulla base di queste premesse, è possibile ipotizzare un’analogia tra l’oggettivazione derivante dal modo di porsi di un superiore e quella proveniente invece dall’interazione con algoritmi intelligenti: nell’interfacciarsi con un’IA l’utente potrebbe sentirsi vincolato alle richieste e alle possibilità di azione imposte dalla tecnologia intelligente, sentendo di ricoprire un ruolo maggiormente passivo e meno proattivo. Questo potrebbe favorire la percezione di eterodirezione, ossia l’impressione che i risultati delle proprie performance dipendano per lo più dai passi imposti da un algoritmo e solo in parte dalle proprie capacità, favorendo forme di auto-oggettivazione (Baldissarri et al., 2017), da intendersi non tanto come la percezione di essere trattati al pari di un oggetto, quanto più come a un file che deve essere processato dall’agente software. In questo quadro, l’interazione con una IA potrebbe favorire minori credenze nel libero arbitrio personale, inteso come la possibilità di compiere scelte libere e consapevoli (Baldissarri et al., 2017, 2019), l’abbassamento dell’impegno lavorativo e un generale peggioramento delle prestazioni (Stillman et al., 2010). Una volta verificate queste ipotesi, successivi studi dovranno approfondire i possibili meccanismi psicologici sottostanti. A questo riguardo, è ipotizzabile che la percezione di essere più simili a un file di dati che a una persona durante l’interazione con una IA, possa essere causata da un indebolimento dell’autoefficacia, rappresentata dall’insieme delle credenze che le persone hanno di controllare, prevenire o gestire potenziali difficoltà che insorgono durante una particolare prestazione (Bandura, 1986). Considerando, ad esempio, il contesto specifico della selezione del personale, un/una candidato/a che si trovi a svolgere un’intervista con un agente basato su IA, potrebbe percepire una riduzione nella gestione delle proprie scelte e quindi anche una ridotta possibilità di superare con successo il colloquio. Analogamente, un/una lavoratore/lavoratrice potrebbe esperire minor controllo nella gestione attiva delle proprie mansioni lavorative, subendo passivamente l’andamento imposto dall’algoritmo e sentendosi quindi più simile a uno script software, parte integrante di un più articolato sistema, piuttosto che una persona in grado di compiere scelte attive e consapevoli.

A sua volta, il processo di auto-oggettivazione derivante dall’interazione con un software di IA, potrebbe portare lavoratori e lavoratrici a percepire i sistemi intelligenti come una minaccia, ritenendo che questi potrebbero sostituirli/e nelle proprie mansioni, rendendo così superfluo il loro contributo e portandoli alla perdita del lavoro. Proprio la percezione di minaccia rappresenta uno dei principali predittori della paura (Dillard & Pfau, 2002), che emerge quando questa viene associata dagli individui alla percezione di ridotte capacità di farvi fronte (Witte, 1992). Dal punto di vista organizzativo, la minaccia elicitata dall’introduzione di nuove tecnologie, così come la paura che può derivarne, rappresentano un fattore in grado di favorire manifestazioni di rifiuto e tentativi di boicottaggio dell’implementazione delle tecnologie stesse da parte di lavoratori e lavoratrici (Kieslich et al., 2021), provocando così rallentamenti a livello produttivo ma anche un ingente spreco di risorse, poiché l’investimento per l’introduzione delle nuove tecnologie viene di fatto vanificato.

D’altro canto, è possibile anche immaginare conseguenze che vanno nella direzione opposta rispetto alle precedenti. Il confronto con una IA potrebbe infatti portare gli individui a percepire i confini fra ingroup (il genere umano) e outgroup (agenti software automatici) come più marcati, rendendo maggiormente salienti i tratti tipici ed esclusivi della natura umana (si veda a tal proposito Leyens et al., 2001; Haslam, 2006; Wilson & Haslam, 2013). Se questo dovesse verificarsi, le IA potrebbero essere percepite come non minacciose e, anzi, il confronto potrebbe rafforzare la percezione che determinate emozioni e competenze siano tipiche esclusivamente del genere umano e non possano appartenere a robot o software intelligenti.

Le conseguenze ipotizzate dell’interazione con le IA potrebbero inoltre essere influenzate da diversi fattori. Un primo aspetto rilevante nello sviluppo di questa linea di ricerca è il ruolo giocato dalla fiducia che le persone ripongono nello sviluppo tecnologico. La fiducia è alla base di qualsiasi tipo di relazione, soprattutto quando si ha una scarsa conoscenza di ciò con cui si entra in contatto (Ba & Pavlou, 2002) e ricopre un ruolo fondamentale nell’accettazione delle nuove tecnologie (Gefen & Straub, 2000). Per garantire quindi che la transizione verso l’impiego delle IA rappresenti realmente un vantaggio per tutti/e, è importante favorire la consapevolezza in merito a cosa un algoritmo possa o non possa veramente fare. Infatti, gli individui considerano una certa tecnologia maggiormente affidabile quando ne conoscono il funzionamento, favorendo così la sensazione di saper esercitare su di essa un certo grado di controllo (Ashleigh & Nandhakumar, 2007). Quando invece il reale funzionamento di una tecnologia rimane nascosto, il livello di affidabilità percepita dipenderà da quanto questa sia considerata familiare (McKnight et al., 2011). Tuttavia, un recente report suggerisce che la familiarità e la consapevolezza delle persone rispetto alle tecnologie di IA è ancora limitata e le persone riportano scarsa fiducia, e talvolta anche paura, rispetto al loro impiego futuro (IPSOS Mori, 2017).

Autore/i dell'articolo

Newsletter

Keep me updated about new In-Mind articles, blog entries and more.

Facebook