- 27/05/2022
Alcuni dei servizi finanziari presenti su Fintastico ci sono stati segnalati dai nostri partner che ci compensano.
La valutazione di Fintastico deriva dalla media ponderata delle valutazioni provenienti da Trustpilot, App Store, Google Play store
Per coloro che non avessero familiarità coi termini Artificial Intelligence, ecco un video introduttivo:
Dopo l’avvio dell’Artificial intelligence act - il regolamento europeo sull’intelligenza artificiale implementato nella plenaria del Parlamento europeo - il dibattito sull’AI responsibility si è ulteriormente ingrandito.
Per gli esperti, l’AI diventerà la colonna portante dei sistemi tecnologici nel prossimo decennio, in ragione delle immense potenzialità che offre per la società. I rischi, però, sono dietro l’angolo.
Per questo ci si interroga, oggi più che mai, su come prevenire le disuguaglianze generate dall’AI e stabilire adeguate responsabilità per chi programma gli algoritmi.
Rischi e debolezze dell'intelligenza artificiale
I rischi principali sono di tipo personale, sociale ed economico.
L’AI, per come stanno le cose adesso, ha più di un tallone d’Achille e può essere sfruttata anche da attori malintenzionati del mercato, in una varietà di modi che violerebbero la privacy, ma che potrebbero addirittura creare danni catastrofici, come il diffondersi di pregiudizi non etici su caratteristiche individuali come età, sesso o razza.
Fra i principi segnalati dall’Institute for Ethical AI, pensati per garantire meglio l’AI responsibility, sono stati individuati:
- la valutazione del pregiudizio nei dati;
- la supervisione dei risultati da parte dell’uomo;
- l’interdisciplinarietà delle competenze da impiegare durante tutto il ciclo di sviluppo.
L’aumento del fattore umano serve ad abbassare il rischio di esiti indesiderati, che potrebbero sorgere a livello sociale, legale o morale, durante l’utilizzo di un algoritmo AI.
Secondo l’Institute for Ethical AI, il livello di coinvolgimento umano dovrebbe essere proporzionale alla sensibilità degli argomenti trattati: ad esempio, un’AI pensata per consigliare film comporta rischi lievi, rispetto un’AI che automatizza i processi di approvazione dei mutui bancari.
Una volta individuati i rischi nascosti di un flusso AI, occorrerà quindi intervenire a mano, “umanamente” sui punti cruciali, per supervisionarli e convalidare l’esito finale.
È attraverso attente fasi di training che si proteggono i soggetti più vulnerabili: la responsabilità di chi crea algoritmi dovrà anche riguardare la protezione dei diritti individuali, al fine di scongiurare il rischio di creare degli emarginati digitali, i nuovi poveri.
Il secondo principio è la valutazione del pregiudizio. Il più delle volte, il processo con cui l’AI elabora la risposta finale è contaminato da pregiudizi contenuti nei dati.
La sfida, in questo senso, non è rendere l’AI imparziale, ma garantire che i pregiudizi indesiderati, e quindi i risultati sbagliati, siano ridotti al minimo attraverso nuove regole che vigilino su tutte le fasi del ciclo di apprendimento degli algoritmi e soprattutto sui rischi correlati ai dati.
Ha suscitato clamore, per citarne uno, l’incidente accaduto a Google nel 2015, quando un algoritmo di catalogazione delle fotografie aveva confuso delle persone di colore per dei gorilla.
In quel caso, i dati con cui l’algoritmo era stato istruito non erano sufficientemente ampi da contemplare questo tipo di esito. Gran parte del problema, quindi, come riporta l’Institute for Ethical AI, è a monte: è cruciale, in partenza, prevedere quali problemi etici possano sorgere nelle fasi successive.
Qui entra in gioco il terzo principio, l’interdisciplinarietà: per far sì che un modello AI sia adatto allo scopo del suo caso d’uso, serve coinvolgere professionalità diverse, non solo informatici o sviluppatori, in modo che chi scrive algoritmi possa considerare anche problemi che vanno oltre la statistica.
In questo senso, bisognerà coltivare collaborazioni fra accademia e industria e introdurre certificazioni non di facciata, affinché non siano poche menti a decidere quale traiettoria dovrà prendere lo sviluppo di un’AI, bensì una platea di professionisti, ricercatori con background complementari, sensibili non solo agli aspetti tecnologici.
Perché l'AI etica è importante per le aziende
Secondo David Ellison, senior AI data scientist di Lenovo, l’AI etica e responsabile dà vantaggi competitivi perché fa accrescere il prestigio dell’azienda e la protegge da rischi finanziari, legali e reputazionali.
Ignorare la responsabilità significherebbe trascurare i propri valori, rischiando di perdere equilibrio e di sciupare risorse aziendali.
Un impatto che potrebbe espandersi a catena, attraverso l’erosione del valore aziendale e contraccolpi sui social media. Da un recente sondaggio di DataRobot, società di analisi che si occupa di brand, si legge che il 62% delle aziende che hanno subito effetti negativi da distorsioni AI, hanno poi perso entrate e clienti.
Le distorsioni hanno riguardato, secondo il sondaggio, pregiudizi e discriminazioni su genere (32%), età (32%), razza (29%), orientamento sessuale (19%) e religione (19%) degli utenti coinvolti.
L’attenzione dei leader tecnologici rispetto l’AI responsibility è cresciuta, fra il 2019 e il 2021, dal 42% al 54%.
Brandon Purcell, analista di Forrester Research, ha dichiarato a InformationWeek che il mercato dell’AI etica e responsabile raddoppierà nel corso del 2022, e che ormai il tema è diventato la priorità, sia per i giganti della tecnologia che per le startup.
Un’AI razzista, sessista e psicopatica genera perdite.
Un’AI responsabile, al contrario, si cura delle diversità e dell’equità, non discrimina e crea profitto.
È una nuova sfida sociale educare al buon utilizzo delle AI: lo si dovrà fare imparando dagli errori della community, coordinandosi attraverso nuove regole e più “fattore umano”, per alzare l’asticella della sensibilità e dell’impatto etico.
Perché un’AI concepita responsabilmente fa guadagnare e persegue lo sviluppo sano dell’intera società.