L'impatto dell'intelligenza artificiale generativa nei processi di produzione culturale. Il dibattito sul lavoro autoriale
Negli ultimi mesi, l'impatto sociale dell'intelligenza artificiale (IA) ha suscitato un notevole interesse pubblico, spinto dall'emergere di modelli di IA generativa, in particolare ChatGPT. Il rapido sviluppo di questi modelli ha scatenato accese discussioni sui loro benefici, limiti, rischi associati ed impatto sulle trasformazioni del lavoro autoriale.
L’Intelligenza Artificiale (IA) generativa, la forma avanzata di IA che può creare autonomamente contenuti originali come testi, immagini e musica, sta rapidamente trasformando il panorama della produzione creativa. Sulla scia del recente dibattito scatenato dalle prime applicazioni commerciali dei sistemi di IA generativa, per la prima volta accessibili al grande pubblico nel 2022, alcune osservazioni su quelle che sono le trasformazioni sociali derivanti dall’introduzione della tecnologia nei processi di produzione culturale.
Il pre-addestramento generativo (GP) era un concetto ben noto nelle applicazioni di apprendimento automatico già a partire dal 2012. Successivamente, nel 2017, Google introdusse l'architettura del trasformatore. Questi progressi hanno portato alla nascita di grandi modelli linguistici come BERT nel 2018, e XLNet nel 2019: si tratta di trasformatori pre-addestrati (PT) ma non progettati per essere generativi.
In termini generativi i modelli di fondazione GPT più famosi e performanti sono quelli rilasciati da OpenAI a partire dal 2022. Il più recente è GPT-4 di cui il laboratorio di ricerca sull'intelligenza artificiale ha rifiutato di pubblicare i dettagli delle dimensioni e della formazione per motivi aziendali. Altri modelli di questo tipo includono PaLM di Google e GPT-JT di Together, che è stato segnalato come l'alternativa open source più performante a GPT-3. Anche Meta ha rilasciato un modello di linguaggio fondazionale generativo, denominato LLaMA. I GPT fondamentali possono anche gestire i media (e non solo il testo), sia per l'input che per l'output.
E' un dato di fatto che i modelli generativi risultano essere immensamente promettenti in più ambiti, presentando palesemente diverse applicazioni pratiche. Tuttavia, le preoccupazioni sui potenziali effetti negativi collaterali, hanno suscitato prospettive divergenti, specialmente sull'aumento delle disuguaglianze sociali.
Il dibattito quindi, come confronto per capire in che cosa consistono queste trasformazioni nella vita di lavoratrici e lavoratori, prendendo in considerazione le mansioni autoriali dell’industria culturale. Sembra stia nascendo il timore che il sistema di IA con finalità commerciali, possa generare le condizioni per nuove modalità di sfruttamento del lavoro. Al riguardo vi rimando alla lettura di un articolo ben dettagliato su questo specifico tema a cura di Lia Bruna: www.connessioniprecarie.org/.
Si rende necessario, anche in tal senso, approfondire le implicazioni degli strumenti di IA generativa e valutare il potenziale impatto che questi hanno su diversi settori, come quello, nello specifico della produzione culturale. Insomma sarebbe il caso di fare un analisi concreta che miri a facilitare una discussione approfondita che fornisca spunti rivolti a ispirare politiche, normative e pratiche di sviluppo responsabili per promuovere un'IA incentrata sull'uomo.
A tutela del lavoro autoriale abbiamo oggi sia la Direttiva europea 2019/790 sul Copyright, sia il Regolamento sull’IA approvato a giugno dal Parlamento Europeo, primo quadro giuridico globale che stabilisce norme per lo sviluppo, l’immissione sul mercato e l’utilizzo dell’intelligenza artificiale. Esso mira a garantire che questa sia sviluppata e utilizzata in modo sicuro, responsabile ed etico, in linea con i valori dell’Unione europea, stabilendo inoltre quattro categorie di rischio.
L'articolo 3 dell’AI-Act riporta tutte le Definizioni chiave del Regolamento. Si tratta del “Sistema di IA”, un sistema automatizzato progettato per funzionare con livelli di autonomia variabili e che può presentare adattabilità dopo la diffusione e che, per obiettivi espliciti o impliciti, deduce dall’input che riceve, il modo di generare output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali.
Si fa riferimento, in particolare, ai sistemi di IA generativa, come ad esempio ChatGPT, che dovrebbero rispettare i requisiti di trasparenza (dichiarando che il contenuto è stato generato dall’IA), aiutando anche a distinguere le cosiddette immagini deep-fake da quelle reali, e fornire salvaguardie per evitare la generazione di contenuti illegali.
Un dato da tener conto, parallelamente al lavoro autoriale, è quello emerso dalla ricerca “L’impatto dell’intelligenza artificiale sul pubblico impiego” presentata da FPA, nell'ambito del del FORUM PA 2024, l’evento annuale di confronto tra i soggetti pubblici e privati dell’innovazione. I risultati mostrano che ben il 57% dei circa 3,2 milioni di dipendenti pubblici è altamente esposto all’IA, pari a circa 1,8 milioni di lavoratori, ovvero sarà interessato da una forte interazione tra le mansioni svolte e quelle che gli algoritmi sono in grado di svolgere.
Questa interazione potrà tradursi plausibilmente in un arricchimento delle attività grazie all’apporto dell’IA, oppure in una sostituzione dei lavoratori. Si tratta di ben 1,8 milioni di persone, in particolare dirigenti, ruoli direttivi, tecnici, ricercatori, insegnanti, legali, architetti, ingegneri, professionisti sanitari e assistenti amministrativi. La vulnerabilità è abbastanza alta per questi soggetti, con una percentuale, al momento, del 12% a rischio di sostituzione: ben 218mila dipendenti pubblici appartenenti alle professioni meno specializzate, caratterizzate da compiti ripetitivi e prevedibili che potrebbero essere facilmente svolti dall’intelligenza artificiale.
Il Regolamento europeo sull’Intelligenza artificiale, introduce tutta una serie di obblighi per i fornitori e gli utenti di sistemi di intelligenza artificiale, come quello di trasparenza, i cui requisiti devono rispettare le norme UE sul diritto d’autore durante “le fasi di addestramento” dei vari modelli. Inoltre, come accennato, le immagini e i contenuti audio o video artificiali o manipolati (i cosiddetti “deepfake”) dovranno essere chiaramente etichettati come tali.
Interessante, per quanto concerne il lavoro di ricerca, è l'obiettivo di stimolare l’innovazione nel campo dell’IA e sostenere le PMI. Il Regolamento prevede infatti esenzioni per le attività di questo settore e le componenti dell’IA fornite con licenze open-source. La nuova legge promuove i cosiddetti spazi di sperimentazione normativa, o ambienti di vita reale, creati dalle autorità pubbliche per testare l’IA prima che venga implementata.
Certo è il fatto che l'impatto sociale di ChatGPT potrà causare significative trasformazioni sociali, nonostante i dibattiti in corso sulla portata di questi cambiamenti, specialmente quando gli ambienti sociali sono caratterizzati da disparità, stereotipi, conflitti e varie forme di organizzazione politica e sociale. Il rischio è quello di innescare, attraverso questi diversi contesti sociali che circondano i progressi scientifici, conseguenze imprevedibili e incommensurabili che trasformano fondamentalmente il modo in cui interagiamo tra di noi e con il mondo.
Tutto questo deve muoversi con la consapevolezza che siamo ancora alle prime fasi di valutazione dell'impatto sociale dei modelli di IA generativa, che indubbiamente, stanno innescando profondi cambiamenti nella nostra percezione e nel nostro coinvolgimento con essi. Nuovi studi sul fenomeno potranno consentirci di acquisire informazioni più precise sulle percezioni che circondano la loro comparsa nella società contemporanea e prendere provvedimenti specialmente su aree di preoccupazione, come l'etica, la privacy ed il potenziale di pregiudizio. Questi sono attualmente i temi più discussi poiché la generazione di contenuti può portare a problemi legati alla falsificazione, alla manipolazione e all’utilizzo improprio dei dati e della proprietà intellettuale.
Come è noto, nel corso della storia, il progresso della tecnologia ha costantemente portato a significative trasformazioni nelle dinamiche sociali. Ogni nuova svolta tecnologica ha scatenato dibattiti sui vantaggi e sui potenziali pericoli del progresso scientifico. Il dibattito sull'IA è quindi un esigenza che serve ad ampliare e sviluppare argomenti del nostro presente, come regolamentazione, mitigazione del rischio, responsabilità, trasparenza e rendicontazione, nonché gli effetti sui modelli di socializzazione e sulla traiettoria dello sviluppo tecnologico stesso.
Commenti
Posta un commento