Una delle sfide spesso citate con l’IA è l’incapacità di ottenere spiegazioni ben comprese su come i sistemi di intelligenza artificiale stanno prendendo decisioni. Sebbene ciò potrebbe non rappresentare una sfida per le applicazioni di apprendimento automatico come consigli sui prodotti o scenari di personalizzazione, qualsiasi utilizzo dell’IA in applicazioni critiche in cui le decisioni devono essere comprese deve affrontare problemi di trasparenza e spiegabilità.

In un episodio del Podcast AI Today, Steve Eglash, Direttore delle iniziative di ricerca strategica nel dipartimento di informatica della Stanford University ha condiviso intuizioni e ricerche sull’evoluzione di AI trasparente e responsabile. Il professor Eglash è un membro del personale del dipartimento di informatica dove lavora con un piccolo gruppo per condurre programmi di ricerca che lavorano con aziende al di fuori dell’università. Questo piccolo gruppo aiuta le aziende a condividere opinioni e tecnologia con gli studenti per condividere la tecnologia con le aziende. Prima di lavorare a Stanford, Steve era un ingegnere elettrico. In questa posizione era tra tecnologia e scienza. Ha anche lavorato in precedenza in investimenti, governo, ricerca, prima di trasferirsi infine nel mondo accademico.

Poiché l’IA viene utilizzata in quasi tutti i settori e nei governi di tutti i livelli, le opportunità di approfondire i casi di utilizzo dell’IA offrono agli studenti di Stanford molte opportunità di esplorare nuove aree di interesse. Comprendere a sufficienza come funziona l’IA è fondamentale perché ci affidiamo sempre più ad essa per una vasta gamma di applicazioni. L’intelligenza artificiale viene messa in ruoli critici, come i veicoli autonomi. In questi scenari, un errore può essere fatale o causare gravi danni o lesioni. Pertanto, immergersi più a fondo in sistemi di intelligenza artificiale trasparenti e spiegabili può servire a rendere tali sistemi più affidabili e affidabili. Garantire la sicurezza nella tecnologia AI come i veicoli automatizzati è fondamentale. Pertanto, dobbiamo essere in grado di capire come e perché un computer prende le decisioni che prende. Allo stesso tempo, vogliamo la capacità di analizzare le decisioni di un computer dopo un incidente.

 

Molti moderni sistemi di intelligenza artificiale funzionano su reti neurali di cui comprendiamo solo le basi, poiché gli algoritmi stessi forniscono poco in termini di spiegazioni. Questa mancanza di spiegabilità è spesso indicato come una “scatola nera” per i sistemi di intelligenza artificiale. Alcuni ricercatori si stanno concentrando sui dettagli di come funzionano le reti neurali. A causa delle dimensioni delle reti neurali, può essere difficile verificarle per errori poiché ogni connessione tra i neuroni e i loro pesi aggiunge livelli di complessità che rendono molto difficile l’esame delle decisioni dopo il fatto.

Reluplex: un approccio all’IA trasparente

La verifica è il processo per dimostrare le proprietà delle reti neurali. Reluplex è un programma progettato da diverse persone per testare reti neurali di grandi dimensioni. La tecnologia alla base di Reluplex consente di operare rapidamente su grandi reti neurali. Reluplex è stato utilizzato per testare un sistema di rilevamento e prevenzione delle collisioni nell’aria per droni autonomi. Quando è stato utilizzato, il programma è stato in grado di dimostrare che alcune parti della rete hanno funzionato come dovrebbe. Tuttavia, è stato anche in grado di trovare un errore con la rete che è stato possibile correggere nella successiva implementazione.

L’interpretazione è un’altra area di interesse quando si tratta di questa idea di “scatola nera”. Se hai un modello di grandi dimensioni, è possibile capire come un modello fa previsioni? Steve usa l’esempio di un sistema di identificazione delle immagini cercando di capire l’immagine di un cane sulla spiaggia. Esistono due modi per identificare il cane. L’intelligenza artificiale potrebbe prendere i pixel che compongono il cane e associarlo a un cane. Oppure, potrebbero essere necessari i pixel della spiaggia e il cielo intorno al cane per capire che il cane era lì. Senza una comprensione di come il sistema sta arrivando a tali decisioni, non si sa esattamente su cosa si sta formando la rete.

Se un’intelligenza artificiale utilizza il primo metodo per comprendere la presenza di un cane, sta pensando in modo razionale che potrebbe simulare il funzionamento del nostro cervello. Il metodo alternativo, tuttavia, può essere visto come un’associazione debole perché non si basa sulla parte reale dell’immagine che contiene il cane. Per confermare che un’intelligenza artificiale sta elaborando correttamente le immagini, dobbiamo sapere esattamente come lo fa. Pertanto, una buona parte della ricerca sta svolgendo questo compito e attività correlate.

Esplorazione della distorsione dei dati

Anche la distorsione dei dati dei sistemi di intelligenza artificiale è al centro di Stanford. È stato riscontrato che i sistemi di intelligenza artificiale presentano una buona dose di distorsione basata sui dati utilizzati per addestrare i modelli di apprendimento automatico. I dati utilizzati dall’intelligenza artificiale per prendere decisioni spesso possono portare a errori poiché il computer non dispone delle informazioni necessarie per effettuare un’analisi imparziale. Oltre alla questione dei dati distorti, i sistemi stessi possono essere distorti nel processo decisionale prendendo in considerazione solo gruppi specifici. Quando si addestra un modello di apprendimento automatico per orientarsi verso gruppi più grandi di dati, è probabile che sia distorto verso quei gruppi più grandi.

Dobbiamo cercare di rimuovere la distorsione dai sistemi di intelligenza artificiale poiché aumenta le interazioni con gli umani. L’intelligenza artificiale sta ora prendendo alcune decisioni come la qualifica assicurativa, la probabilità di recidiva di una persona e altri processi decisionali potenzialmente in grado di cambiare la vita. Le decisioni che l’IA prende hanno conseguenze nel mondo reale e non vogliamo che i computer perpetuino la disuguaglianza e l’ingiustizia.

Per rimuovere il pregiudizio dall’intelligenza artificiale, i data scientist devono analizzare l’IA e prendere decisioni basate sul pregiudizio sociale. A questo punto, il professor Percy Liang sta lavorando con i suoi studenti per creare un’ottimizzazione distributiva robusta che mira a spostarsi dalla demografia e verso il potere della macchina per concentrarsi su tutti i gruppi. Altri ricercatori stanno lavorando per concentrarsi sull’equità e l’uguaglianza nell’intelligenza artificiale.

Poiché i sistemi di intelligenza artificiale non hanno ancora dimostrato la loro spiegabilità e la completa affidabilità, Steve pensa che l’IA sarà utilizzata principalmente in un modo aumentato e assistito, piuttosto che pienamente autonomo. Mantenendo l’essere umano nel giro, abbiamo una migliore possibilità di tenere d’occhio quando il sistema prende decisioni discutibili ed esercita un maggiore controllo sul risultato finale delle azioni assistite dall’IA.

[ad_2]

Mario Moro
Author: Mario Moro

Leave a Reply

Your email address will not be published. Required fields are marked *