INDICE DEI CONTENUTI
Intelligenza artificiale: rischio pregiudizi dalla realtà ai dati; ma lavorare a modelli più equi è possibile. La direzione che lo sviluppo tecnico prenderà non dipenderà solo dalle leggi, ma anche da come la società sceglierà di interagire con la tecnologia, verso una evoluzione in direzioni più giuste
Quello relativo all’intelligenza artificiale (IA) è senza dubbio uno dei temi più discussi degli ultimi tempi, ma non sempre in modo opportuno. Le difficoltà che si incontrano quando si parla di IA in effetti partono già dalla sua stessa definizione. Sebbene vi siano modi differenti di intenderla, si può definire l’intelligenza artificiale come quella disciplina dell’informatica che si occupa dello sviluppo di sistemi o macchine in grado di eseguire compiti relativi a funzioni quali l’apprendimento, il ragionamento, la percezione, il riconoscimento di pattern e la capacità di prendere decisioni. Le spiccate capacità delle tecnologie di IA di svolgere compiti che, un tempo, si ritenevano esclusivi dell’essere umano, ha portato ad un facile parallelismo con le funzioni cognitive umane, cosicché queste macchine vengono dette “intelligenti”, sottolineando la loro abilità nel replicare parzialmente o totalmente capacità tipiche dell’intelligenza umana.
INTELLIGENZA ARTIFICIALE: I MODELLI RIGENERATIVI, DEMOCRATICI MA NON EQUI
Questa convinzione si è consolidata con l’avvento dei modelli generativi che, fra le altre cose, hanno contribuito a democratizzare l’accesso a queste tecnologie. I modelli generativi sono un tipo di algoritmo di intelligenza artificiale progettato per generare nuovi contenuti (come immagini, testi, musica o video) basandosi su schemi appresi dai dati di addestramento. All’infuori delle specifiche tecniche, la loro caratteristica principale, che li ha resi così diffusi in breve tempo, è la facilità di utilizzo. Se, un tempo, per approcciare a strumentazioni di IA occorreva essere un addetto ai lavori, o quantomeno possedere una qualche base di conoscenza in ambito informatico, oggi i modelli generativi sono facilmente utilizzabili da chiunque vi abbia accesso. Questa accessibilità, se da un lato ha offerto una inedita possibilità di personalizzare i contenuti, trovando diverse applicazioni positive in ambito creativo, ha tuttavia rafforzato una serie di rischi potenziali già noti in ambito informatico.
LE FALSIFICAZIONI
Un facile esempio è probabilmente quello relativo alle falsificazioni. Se è vero che le fake news, così come le immagini manipolate, esistevano già prima della diffusione di questi modelli, è indubbio che la facilità e rapidità con cui i sistemi di IA generativa permettono di produrre contenuti falsati ha sicuramente acuito il problema. I modelli generativi, infatti, funzionano come potenti amplificatori delle capacità creative umane, e possono perciò essere usati per creare contenuti straordinari, ma anche per diffondere informazioni errate o pericolose. È importante sottolineare la responsabilità umana di un utilizzo negativo di questi modelli, perché queste tecnologie, al pari di qualsiasi strumento, non sono certamente dotate di una sensibilità artistica o capacità morale intrinseca, ma eseguono semplicemente i compiti per cui sono programmate (a livelli di autonomia differenti) basandosi sui dati.
E se i dati sono definiti come “il nuovo petrolio”, è proprio in questa ricchezza di informazioni che emerge una questione cruciale, quella dei bias. I bias sono, in informatica, distorsioni presenti nei dati su cui i modelli vengono addestrati. Questo perché i dati, appunto, trasportano informazioni relative a società in cui esistono pregiudizi, e queste discriminazioni possono poi essere trasferite ai modelli che, da quei dati, apprendono.
LA QUESTIONE DEI BIAS
Con i modelli generativi, il rischio di bias non è solo amplificato (considerando la mole di dati che vengono utilizzati per addestrare questi strumenti), ma lo sono anche le sue conseguenze sociali. Quando un modello generativo crea, per esempio, l’immagine di un tramonto, lo fa basandosi su migliaia di immagini di tramonti già esistenti contenute nei dati di addestramento. Se queste immagini rappresentano solo tramonti rossi, il modello imparerà a generare esclusivamente tramonti di quel colore. In questo caso, il risultato è semplicemente limitante, ma diventa effettivamente problematico quando i dati riflettono pregiudizi sociali.
Per esempio, se un dataset contiene solo immagini di uomini in posizioni di potere e di donne in ruoli subordinati, il modello apprenderà implicitamente che questa differenziazione corrisponde ad una norma. Allo stesso modo, se i dati contengono una rappresentazione sproporzionata di un gruppo etnico in un contesto positivo e di un altro in un contesto negativo, il modello tenderà a replicare queste discriminazioni.
le difficoltà
I modelli, beninteso, non sono elementi coscienti, non ritengono di stare operando una stigmatizzazione se la stessa non viene indicata come tale nella propria programmazione. Le macchine sono esecutori, non agenti morali, e proprio per questo il ciclo dei bias è particolarmente insidioso: i pregiudizi passano dal mondo reale (in cui si generano) ai dati, dai dati ai modelli, dai modelli agli utenti, e dagli utenti di nuovo al mondo, creando un effetto moltiplicatore delle discriminazioni già esistenti.
La vera sfida risiede non solo, da un punto di vista tecnico, nella difficoltà pratica di mitigazione del problema, ma prima ancora nel fatto che i bias nei dati riflettono i pregiudizi della società stessa. In assoluto, l’integrazione massiva di strumenti di IA, in particolar modo generativa, nel quotidiano, ha legato indelebilmente questioni tecniche e sociali. Decostruire questi costrutti stigmatizzanti, di cui i modelli di IA non sono precursori ma riflessi, è perciò un processo lungo e complesso.
INTELLIGENZA ARTIFICIALE: E’ POSSIBILE SVILUPPARE MODELLI PIU’ EQUI
Tuttavia, nel frattempo, è possibile lavorare per sviluppare modelli più equi, che non alimentino ulteriormente le discriminazioni. L’adozione di modelli sviluppati in modo responsabile potrebbe del resto contribuire, nel tempo, a interiorizzare convinzioni più inclusive e giuste, ottenendo importanti effetti positivi. Allo stesso modo, una maggiore consapevolezza sociale da parte degli utenti su cosa sia etico o meno nell’uso dell’IA potrebbe spingere verso soluzioni tecnologiche più responsabili, non solo nel caso dei modelli generativi. In questo senso, la consapevolezza sociale diventa una leva essenziale per migliorare sia l’uso dell’IA che la qualità dei modelli stessi.
La regolamentazione
Per quanto riguarda invece gli aspetti normativi, è importante riconoscere che esistono anche tentativi concreti per regolamentare un uso prudente delle nuove tecnologie. A livello europeo, il neonato AI Act (entrato in vigore il 2 Agosto del 2024 e applicabile dal 2 Agosto del 2026) è il primo regolamento al mondo a porre limiti chiari all’uso di questi strumenti. Il testo si basa principalmente su una classificazione dei sistemi di intelligenza artificiale in base al rischio (basso, medio, alto o inaccettabile), stabilendo regole stringenti per quelli considerati più pericolosi. Lo scalpore suscitato dall’AI Act non è solo dovuto al testo in sé, che presenta ancora diverse lacune, ma soprattutto alla sua stessa esistenza: è la dimostrazione che, per la prima volta, si stanno ponendo limiti concreti e ideologici all’uso dell’intelligenza artificiale.
Eppure, se la regolamentazione è un passo importante dal punto di vista legale, non è comunque sufficiente. Per rendere l’IA uno strumento realmente sostenibile, è fondamentale continuare a educare gli utenti sui rischi e sulle opportunità legate a queste tecnologie. Un futuro senza queste tecnologie è impensabile, essendo oramai connesse in modo importante alle nostre società.
Ma questo legame è bidirezionale, perché la società influenza la tecnologia quanto è vero il processo inverso. La direzione che lo sviluppo tecnico prenderà non dipenderà perciò solo dalle leggi, ma anche da come la società sceglierà di interagire con la tecnologia, influenzandone lo sviluppo in direzioni, auspicabilmente, più giuste.
La qualità dell'informazione è un bene assoluto, che richiede impegno, dedizione, sacrificio. Il Quotidiano del Sud è il prodotto di questo tipo di lavoro corale che ci assorbe ogni giorno con il massimo di passione e di competenza possibili.
Abbiamo un bene prezioso che difendiamo ogni giorno e che ogni giorno voi potete verificare. Questo bene prezioso si chiama libertà. Abbiamo una bandiera che non intendiamo ammainare. Questa bandiera è quella di un Mezzogiorno mai supino che reclama i diritti calpestati ma conosce e adempie ai suoi doveri.
Contiamo su di voi per preservare questa voce libera che vuole essere la bandiera del Mezzogiorno. Che è la bandiera dell’Italia riunita.
ABBONATI AL QUOTIDIANO DEL SUD CLICCANDO QUI.
TI potrebbe interessare
COPYRIGHT
Il Quotidiano del Sud © - RIPRODUZIONE RISERVATA