La rivoluzione dell’Intelligenza Artificiale: sfide e linee di ricerca future verso un’intelligenza aumentata

La ricerca empirica ha evidenziato come l’opinione pubblica non sia chiaramente polarizzata verso una visione positiva o negativa circa l’introduzione delle IA. A tal proposito, è noto che, indipendentemente dal contesto, nel momento in cui avvengono dei cambiamenti tecnologici, alcune persone ne trarranno dei vantaggi, mentre altre non riusciranno a far fronte al cambiamento (Eubanks, 2018). Conseguenze così diseguali possono essere causa di una preoccupante enfatizzazione delle discriminazioni sociali, poiché i benefici apportati dalle tecnologie sono considerabili tali soltanto nel momento in cui gli individui ne conoscono il funzionamento e le potenzialità, mentre una scarsa consapevolezza del loro funzionamento tende ad accentuare ulteriormente il divario sociale tra classi socioeconomiche differenti. Questa disparità può generare un’incongruenza nella percezione delle nuove applicazioni tecnologiche, viste da alcuni come fonte di opportunità e da altri come fonte di minaccia, determinando il successo o il fallimento del loro impiego, dipendente in buona parte da queste stess percezioni (Bauer, 1997).

La ricerca sulle conseguenze derivanti dall’interazione con algoritmi di IA è ancora agli albori, tuttavia, è possibile trovare una cornice teorica di riferimento nei risultati degli studi relativi alla percezione dei robot, che, insieme alle IA, sono parte delle tecnologie STARA. Da questi studi è emerso come la percezione di minaccia elicitata dai robot può essere di diversa natura: Złotowski e colleghi (2017) suggeriscono infatti come l’interazione con i robot possa favorire, da un lato, sentimenti di minaccia realistica, generalmente elicitati da fonti in grado di limitare l’accesso a risorse materiali, la sicurezza individuale e il proprio lavoro, e dall’altro sentimenti di minaccia all’identità umana, ossia una più simbolica percezione che vengano intaccati i valori e l’unicità della specie umana e quindi i caratteri distintivi del proprio ingroup (Riek et al., 2006; Stephan et al., 1999; Złotowski et al., 2017). Questa seconda forma di minaccia è interpretabile attraverso la teoria della Uncanny Valley (Mori, 1970), secondo cui agenti robotici simili nelle forme agli esseri umani possono elicitare sensazioni di disagio, rifiuto ed evitamento (Kätsyri et al., 2015; Strait et al., 2017). Secondo questo modello, infatti, robot antropomorfi sono valutati più negativamente (MacDorman, 2006), come meno affidabili (Mathur & Reichling, 2016) e vengono più frequentemente evitati rispetto a robot che non ricalcano la figura umana (Strait et al., 2015, 2017).

Tuttavia, data la differenza fra agenti basati su IA e robot, è importante sottolineare che i processi socio-cognitivi implicati nell’interazione con agenti così differenti potrebbero essere a loro volta molto diversi (Raj & Seamans, 2019). Infatti, laddove i robot cercano di replicare i movimenti fisici di un essere vivente, gli algoritmi di IA mirano prevalentemente a riprodurre le capacità cognitive dell’essere umano, senza necessariamente replicarne la fisicità. Ad esempio, robot autonomi impiegati nel contesto produttivo possono essere percepiti come una fonte di minaccia per il lavoro operaio poiché ritenuti in grado di sostituire l’essere umano nelle proprie attività manuali, minandone quindi la sicurezza economica e divenendo fonte di stress. Dall’altro lato, assistenti vocali e chatbot automatici in grado di comprendere il linguaggio, risultano sempre più indistinguibili da un vero operatore umano e per questo potrebbero favorire sentimenti di minaccia non solo in termini di risorse, ma anche rispetto ai tratti considerati esclusivi della specie umana, come appunto le capacità cognitive.

Intelligenza Artificiale e oggettivazione lavorativa: direzioni future di ricerca

Considerando quanto descritto, è lecito ipotizzare che l’interazione diretta con algoritmi intelligenti in grado di replicare le capacità cognitive umane possa portare ad alcune conseguenze anche a livello individuale. Per comprendere la portata e l’entità di questi effetti individuali, è bene considerare con attenzione la letteratura precedente relativa al fenomeno dell’oggettivazione lavorativa, definibile come una forma di deumanizzazione riferita alla considerazione di lavoratori e lavoratrici come oggetti (Volpato, 2013, 2014) semplicemente utili al soddisfacimento di bisogni legati alla sfera produttiva (Baldissarri et al., 2019). Essere considerati dai propri superiori come un mero strumento funzionale al processo produttivo (Gruenfeld et al., 2008) può portare gli individui ad auto-oggettivarsi. Si parla in questo caso di “sguardo strumentale” o “oggettivante” che, secondo la teoria dell'oggettivazione (Fredrickson & Roberts, 1997), costituisce uno tra i principali predittori dell'auto-oggettivazione, in quanto facilita nel target oggettivato l’interiorizzazione della prospettiva dell'osservatore. Questa stretta connessione tra sguardo strumentale e tendenza ad auto-strumentalizzarsi è stata confermata da uno studio di Baldissarri e colleghi (2014) condotto in un contesto lavorativo gerarchico reale, che ha rivelato come nelle situazioni in cui lavoratrici e lavoratori subordinati percepivano di essere trattati al pari di semplici strumenti da chi era gerarchicamente superiore a loro, essi/e tendevano a interiorizzare questa prospettiva, oggettivandosi a loro volta.  

Autore/i dell'articolo

Newsletter

Keep me updated about new In-Mind articles, blog entries and more.

Facebook