Sul tema:
ChatGpt, Antonio Casilli: Il lato oscuro dell’algoritmo è la forza lavoro
INTERVISTA. Antonio Casilli, autore di «Schiavi del Clic»: «Dietro questa tecnologia c’è un’enorme quantità di lavoro sui dati fatto da grandi masse di persone. C’è un filo rosso che lega chi allena ChatGpt e i suoi utilizzatori»
di Roberto Ciccarelli
Nel comunicato del garante della Privacy che blocca l’assistente virtuale ChatGpt c’è un passaggio illuminante in cui si osserva che l’illecita raccolta dei dati personali avviene in mancanza di una «base giuridica» e «allo scopo di addestrare gli algoritmi sottesi al funzionamento della piattaforma».
L’«addestramento» è stato effettuato dagli utenti di questo software che, stimolati dalla stupefacente operazione di marketing basata sull’immaginario apocalittico della sostituzione del lavoro, e persino degli esseri umani, da parte dei robot nelle ultime settimane hanno lavorato gratuitamente, e probabilmente inconsapevolmente, allo sviluppo di ChatGpt bombardandolo con le richieste più singolari e divertenti. Ciò ha permesso alla società OpenAI che ha lanciato anche ChatGpt, fondata a San Francisco nel 2015, di raccogliere fondi da decine di miliardi di dollari, e investimenti cospicui da parte di Microsoft.
Oltre alle questioni legate alla privacy, e all’intelligenza artificiale presentata con una dose di pensiero magico, c’è il «machine learning», i sistemi di apprendimento macchinico attraverso i quali un’altra forza lavoro diffusa nel Sud globale preleva e raffina i dati che permettono di migliorare il rendimento di un software adattandolo ad altri contesti e prodotti.
Al centro di questo sistema c’è la forza lavoro, la merce più preziosa per il capitalismo digitale, quella che alimenta l’inesausta produzione di dati sia a monte che a valle di un’intelligenza che è artificiale nella misura in cui è prodotta dall’interazione con gli umani. È pronta a produrre volontariamente il valore quando è stimolata da un hype pubblicitario pazzesco.
La forza lavoro è il lato oscuro del capitalismo digitale. O meglio, diciamo in chiaroscuro. Perché il suo ruolo non è del tutto ignoto.
Alcuni ricercatori di OpenAI lo hanno parzialmente raccontato in uno studio di 60 pagine pubblicato il 23 marzo scorso in cui descrivono anche il lavoro fatto per migliorare l’algoritmo. Il lavoro sul «modello linguistico» è stato realizzato attraverso test ostili che hanno tentato di costringere l’Intelligenza Artificiale relazionale a esprimersi in maniera pericolosa, controversa o illegale.
Questi tipi di test sono usati per limitare l’attività dei software e impedirgli di riprodurre atteggiamenti pregiudiziali, violenti o anche razzisti che vengono trascinati nel corso della «mietitura dei dati» in quantità mai vista e realizzata anche a partire dalle piattaforme digitali più comune.
«Davanti a una raccolta dati di queste dimensioni va fatta una constatazione. I dati non possono essere usati allo stato grezzo - osserva Antonio Casilli, professore all’Institut Polytechnique de Paris e autore di Schiavi del clic. Perché lavoriamo tutti per il nuovo capitalismo? (Feltrinelli) - Hanno bisogno di essere filtrati, selezionati e arricchiti. Chi fa questo lavoro di selezione sono esseri umani malpagati per fare il data work. Nel caso di ChatGpt c’è stato prima un lavoro di pre-addestramento tra le Filippine, la Turchia, l’India, il Sudafrica e il Kenya. Di quest’ultimo caso ha parlato il Time il 18 gennaio scorso. A noi utenti è toccato il post-addestramento in cui abbiamo fornito una serie di dati personali».
In che modo?
Quando ChatGpt ti dà una risposta appare un pollice elevato e uno abbassato che permettono di dire se la risposta è di buona o cattiva qualità. Tu stesso stai annotando dati che vengono immessi in un data base e usati per riaddestrare l’intelligenza artificiale. C’è un filo rosso che lega chi addestra questo assistente virtuale in tutto il mondo e i suoi utilizzatori. Solo che ci sono tante persone che lo fanno gratis, mentre altrove altre lo fanno quasi gratis, per pochi centesimi o dollari. Del resto lo dice l’acronimo stesso di ChatGpt. La “P” significa «pre-trained», cioé «pre-addestrati». Dietro questa tecnologia c’è un’enorme quantità di lavoro sui dati fatto realizzato da grandi masse di persone».
Più che la sostituzione degli esseri umani da parte dei robot qui stiamo parlando di esseri umani che lavorano per le aziende che producono «intelligenza artificiale». È così?
Sì, nello studio sulla scheda di sistema GPT-4, OpenIA di cui stiamo parlando ha pubblicato una prima stima del numero di posti di lavoro che sarebbero stati esposti a un’intelligenza artificiale, l’80 per cento sarebbero stati trasformati o forse addirittura eliminati da ChatGpt e altre tecnologie. In realtà stiamo assistendo a tutt’altro processo: tanti più posti di lavoro cerchi di sopprimere nell’ambito del lavoro formalmente inquadrato, tanto più saranno creati micro-lavori ultra-precari nel mondo per fare esistere tecnologie come ChatGpt. Anche questo software si trova alla fine a precarizzare il lavoro che c’è e che ci sarà sempre.