Vai al contenuto della pagina

Intelligenza Artificiale: gli algoritmi che ci governano

homepage h2

«Il pressante allarme pubblico sull’AI (Artificial Intelligence) e la società algoritmica segnalano un’emergenza; un novum? No e sì»: esordisce così la professoressa Laura Bazzicalupo, docente di filosofia politica all’Università di Salerno nel suo intervento che proponiamo ai nostri lettori.
Intelligenza Artificiale: gli algoritmi che ci governano
Il pressante allarme pubblico sull’AI e la società algoritmica segnalano un’emergenza; un novum? No e sì. C’è continuità, per quanto accelerata, del processo tecnico che da sempre ha addomesticato l’incertezza naturale attraverso dispositivi immateriali che agevolano il controllo e lo sfruttamento. Emergente è, però, la razionalità qualitativamente nuova, di questo modo di governo. E’ il capitalismo immateriale che risponde così al ‘salto’ di complessità dell’interdipendenza globale, con tecnologie la cui logica – statistica e induttiva – si incardina nell’attuale indeterminismo epistemologico e ontologico. Tecnica e natura, artificio e vita sono indistinguibili poiché è della natura del vivente modificare tecnicamente l’ambiente e esserne modificato. 
Questo processo  bioevolutivo produce la ‘emergenza’ catastrofica per la vecchia forma di vita e di razionalità. Dovremmo esserne consapevoli e governarlo, senza cedere all’immaginario distopico che accompagna l’espansione della robotica, dell’AI algoritmica, sognando dismissioni collettive dei dispositivi digitali o un capitalismo tecnologico-etico. 
Il sussulto inquieto che accompagna questi discorsi, condiviso anche da alcuni degli stessi promotori dell’AI, attesta sorpresa per la presa d’atto di una mutazione radicale sì ma inavvertita, soft; pervasiva, ma vissuta come innocua. Di colpo, ci viene ricordato che una modificazione  cruciale ha investito tutti gli spazi vitali, politici, economici, produttivi, ma anche esistenziali emozionali, in un unico processo globale e innestato sui corpi di ciascuno di noi. L’immagine della forma di governo algoritmica è che non ci sia un fuori, che essa abbia assorbito la realtà tutta e noi con essa. Non è così.
Il dispositivo algoritmico che non solo ci governa, ma che è parte di noi, è diverso dal governo sociale, che pure, come ci dice Foucault, operava sui livelli automatici dei comportamenti. Passivizzare le condotte senza forzarle, facendo emergere e fissando le regolarità, ottimizzando quelle più adeguate, è la forma di potere (estranea al formalismo giuridico e politico) biopolitica. Oggi però, la sua forma algoritmica segue una logica di autoriproduzione ripetitiva, che tende all’auto-perfezionamento, prescindendo totalmente dal senso e dalle biografie concrete. E questo erode la nostra capacità di contestazione politica.
Logica autoreferenziale, temporalità accelerata, automatismo del processo confermano la interfaccia col capitalismo immateriale del quale la tecnologia informatica 24/7 è la chiave di volta.
Gli algoritmi sono sequenze alfanumeriche che memorizzano le informazioni sull’autos, l’abitudine, le condotte e le scelte dei viventi, in modo cieco al contesto e alle motivazioni. Decontestualizzate e riaggregate attorno a un problema da risolvere. La raccolta massiva investe sia i dati biometrici che i comportamenti (individuali e collettivi): anche quelli più banali, che non interessano nessuno, nemmeno a chi li compie. La vita è tradotta in dati metabolizzabili, il cui stoccaggio è virtualmente infinito (il costo delle  memorie digitali è basso): solo la  quantità, non altro, è significativa.
Questa de-contestualizzazione e frammentazione (nei dividui, dice Deleuze, in Post scriptum su le società del controllo) dell’individuo – che era il centro delle società liberali e che, qui, non ha alcuna rilevanza –  de-struttura la vita sociale, personale, per poi ri-comporla, ri-strutturarla ‘automaticamente’, in un profilo con il quale la programmazione mira a risolvere un problema (medico, di marketing commerciale, di controllo sicuritario, di rischio di evasione fiscale, di condotte criminali…). 
Macchine intelligenti dinamiche e autoaccrescitive producono decisioni “automatiche”, deresponsabilizzate. 
E noi? Noi cediamo le informazioni passivamente (Pelgreffi parla di interpassività piuttosto della tanto esaltata interattività) perché innocue e anonime: sembrano semplicemente semplificare e rendere più efficaci le usuali tecniche di governo, di gestione medica, giuridica, poliziesca e soprattutto, evidentemente, di marketing economico. E’ il prosumer, produttore/consumatore di dati digitali – tutti noi, dunque – che spontaneamente, più o meno consapevolmente, conserva, pubblica e moltiplica le proprie tracce digitali. 
La critica si focalizza giustamente sull’incombente perdita di posti di lavoro, o, in ambito giuridico costituzionale, sulla protezione della privacy e dei dati personali. 
Ma non coglie il punto: la registrazione massiva di dati, la loro elaborazione (data mining) e l’effetto di profilazione algoritmica sono innanzitutto strumenti strategici di controllo. Ed è in quest’ottica che vanno pensati criticamente, cercando spazi plausibili di controeffettuazione. La profilazione – diversamente da quella tradizionale, etnica, religiosa, di genere – costruisce e fissa il profilo di rischio, fragilità, propensione al crimine, a prescindere dai contesti specifici. E grazie alla forma anonima, impersonale, egualitaria, che ignora le biografie individuali e le problematiche sociali, si accredita come imparziale, mentre si sottrae a ogni analisi critica e contestuale. Governo ‘oggettivo’ che nasconde la sua potenza normativa sotto l’apparente neutralità dell’immanenza e adeguazione al ‘reale’. Non conta che sia un’istantanea parziale, che le sue predizioni siano autorealizzatrici, e la sua efficacia auto-referenziale: autorizzazioni, misure amministrative o poliziesche, distribuzione di opportunità e risorse, sono assegnate – in funzione delle predizioni associate a ciascun profilo – come se fossero i comportamenti stessi reali a richiederle. Sono invece montaggi meccanici, in cui nessuno può riconoscersi: il che rende impossibili le contestazioni collettive. 
Sfuggono alla statistica algoritmica – e vanno rivendicate – le situazioni e i contesti, le motivazioni specifiche, le idiosincrasie e originalità  che provocano, più spesso di quanto si creda, il fallimento di profilazioni, sondaggi, operazioni di marketing…
Non è visibile – e bisogna rivendicarne la visibilità politica – la materialità complessa di biografie e lotte concrete, la potenzialità della vita a divenire altro né ciò che rende singolari i soggetti e i gruppi concreti. 
 
 
 

Leggi anche

Per eseguire una ricerca inserire almeno 3 caratteri

Il tuo account

Se sei abbonato/a alla rivista Terra Nuova, effettua il log-in con le credenziali del tuo account su www.terranuovalibri.it per accedere ai tuoi contenuti riservati.

Se vuoi creare un account gratuito o sottoscrivere un abbonamento, vai su www.terranuovalibri.it.
Subito per te offerte e vantaggi esclusivi per il tuo sostegno all'informazione indipendente!