L’intelligenza artificiale? Comincia a dare problemi. Dà risposte che sono troppo vere e che non vogliamo sapere..

31 luglio 2022
  • Insomma, l’intelligenza artificiale, frutto di un grande lavoro dell’uomo, giunge spesso a conclusioni ‘politicamente scorrette’
  • Da qui la ‘necessità’ di ‘inquinare’ i dati sui quali vengono addestrati i sistemi AI di modo che ci diano le risposte desiderate, quelle ‘giuste’…

di Nota Diplomatica

Insomma, l’intelligenza artificiale, frutto di un grande lavoro dell’uomo, giunge spesso a conclusioni ‘politicamente scorrette’

Il problema emergente dell’Intelligenza Artificiale è la troppa intelligenza. Se la lasciamo fare, la ‘AI’ è capace di scoprire cose che non vogliamo sapere, specialmente se sono, diciamo, ‘troppo vere’… L’obiettività doveva essere il vantaggio di questi sistemi. Digeriscono vastissime quantità di informazioni, volumi di fatti che vanno oltre alla comprensione umana, per poi restituire dei modelli che permettono di fare delle previsioni in grado di rispecchiare fedelmente le esperienze accumulate nelle loro banche dati, ignorando le opinioni umane al riguardo. Cosa succede quando giungono a conclusioni che non ci piacciono? Per esempio, quando rafforzano pregiudizi riguardanti, per dirne una, il maggiore rischio creditizio delle minoranze etniche o razziali rispetto alla popolazione dominante?

Da qui la ‘necessità’ di ‘inquinare’ i dati sui quali vengono addestrati i sistemi AI di modo che ci diano le risposte desiderate, quelle ‘giuste’…

Il problema è particolarmente sentito in questa nostra epoca ‘politically correct’, caratterizzata dalla convinzione che, cambiando i nomi che applichiamo ai fenomeni, possiamo cambiare la realtà sottostante. Il rischio è che possa esserci un fondo di verità – sgradevole – nei pareri che esprimono le macchine, opinioni che, false o vere che siano, potrebbero essere offensive o semplicemente ‘inaccettabili’. A Giugno la Microsoft ha tolto dai suoi listini un prodotto software che doveva essere in grado di stabilire l’umore emotivo delle persone attraverso l’esame delle espressioni facciali. La motivazione dell’azienda è stata che il loro software poteva essere ‘discriminatorio’ nei confronti delle donne e delle minoranze razziali. È diventata pertanto una concreta necessità trovare la maniera di ‘inquinare’ i dati sui quali vengono addestrati i sistemi AI di modo che ci diano le risposte desiderate, quelle ‘giuste’. È siccome ogni problema è anche un’opportunità, la fornitura di ‘fake data’ – o, più elegantemente, ‘synthetic data’ – per taroccare i contenuti delle grandi banche dati è diventata uno dei settori specialistici in più rapida ascesa nel campo informatico. Per dire, ‘contare balle’ – ora anche alle macchine – è per il momento “the next big thing”…

AVVISO AI NOSTRI LETTORI

Se ti è piaciuto questo articolo e ritieni il sito d'informazione InuoviVespri.it interessante, se vuoi puoi anche sostenerlo con una donazione. I InuoviVespri.it è un sito d'informazione indipendente che risponde soltato ai giornalisti che lo gestiscono. La nostra unica forza sta nei lettori che ci seguono e, possibilmente, che ci sostengono con il loro libero contributo.
-La redazione
Effettua una donazione con paypal


Commenti