Un sistema automatico utilizzato per approvare o rifiutare richieste di mutuo per la casa può essere colpevole di pregiudizi razziali?
È ragionevole che le forze dell’ordine utilizzino sistemi di riconoscimento facciale per catturare criminali sospetti?
Gli sviluppatori possono raccogliere dati utente per addestrare meglio sistemi di riconoscimento vocale nelle videoconferenze?
La comunità scientifica e tecnica si è sempre trovata in una posizione delicata per quanto riguarda l’etica dell’intelligenza artificiale e la responsabilità sociale. Da una parte, è ragionevole sostenere che leggi di fisica o equazioni matematiche di per sé sono neutrali, non prendono una posizione su questioni morali umane. Dall’altra, la scienza non opera, e l’ingegneria certamente non può operare, in un mondo sterile e astratto, separato dall’applicazione di conoscenze scientifiche e tecniche all’attività umana. Tutta l’attività umana ha implicazioni morali ed etiche. Quindi, è ragionevole che esistano responsabilità sociali ed etiche per gli ingegneri. Tuttavia, non possiamo essere ingegneri responsabili senza considerare come i nostri sistemi supporteranno e ostacoleranno diritti umani chiave di privacy, sicurezza, rappresentanza ed equità. La progressiva affermazione dell’apprendimento automatico e dell’intelligenza artificiale basata su dati ha solo accentuato la preoccupazione diffusa sul ruolo della tecnologia nella società.
Come possiamo tenere in primo piano le questioni etiche dell’intelligenza artificiale e scegliere un percorso responsabile per creare sistemi di apprendimento automatico?
Dobbiamo iniziare con una comprensione di base di cosa comporta la progettazione basata su apprendimento automatico e perché può essere un motivo di controversie. L’idea alla base dell’apprendimento automatico è che la funzione dettagliata non è descritta da un pezzo di codice software, ma appresa generalizzando da una vasta gamma di esempi di comportamenti previsti. Tali dati di addestramento possono essere preparati esplicitamente combinando una gamma di input con gli output desiderati (apprendimento supervisionato) o possono essere impliciti nei dati di input (apprendimento non supervisionato) o tramite una metrica di ricompensa per una serie di output di successo (apprendimento per rinforzo). Solitamente, il modello comportamentale appreso nell’addestramento viene poi distribuito come una funzione di blocchi di costruzione all’interno di un sistema di “inferenza” distribuito, dove gli input effettivi dell’utente confluiscono nel modello, in modo che il sistema possa elaborare un risultato che si avvicina il più possibile ai modelli di comportamento appresi nell’addestramento. Che tipo di questioni etiche dell’intelligenza artificiale trovate nelle funzioni basate su apprendimento automatico meritano di essere prese in considerazione quando si pensa all’AI responsabile? In un certo qual modo, il software basato su apprendimento automatico non è molto diverso dal software sviluppato da metodi di programmazione procedurale tradizionali. Ci preoccupiamo di pregiudizio, privacy, onestà, trasparenza e protezione dei dati in tutto il software, ma i metodi di apprendimento automatico sono meno ampiamente compresi, richiedono grandi quantità di dati di addestramento e, a volte, facile spiegabilità. Queste caratteristiche richiedono uno sguardo più da vicino al ruolo che l’etica dell’intelligenza artificiale deve svolgere in questo gioco.
Questioni chiave da considerare per la creazione di principi di progettazione di AI responsabile
Di seguito alcune domande di etica di AI chiave Presumibilmente, tali questioni spesso si sovrappongono, ma è utile guardare la progettazione responsabile da diverse angolazioni:
Pregiudizio: la funzione implementa pregiudizi ingiusti, non intenzionali o inappropriati nel modo di trattare persone diverse? Il sistema è progettato e addestrato per la distribuzione di utenti su cui è realmente applicato? Progettazione, implementazione e test prevengono pregiudizi contro caratteristiche di individui legalmente protette?
Privacy: L’addestramento e il funzionamento di questa funzione richiedono che un individuo divulghi più informazioni personali del necessario e proteggono completamente tali informazioni private da divulgazione non autorizzata o inappropriata?
Trasparenza: il comportamento della funzione è sufficientemente ben compreso, testato e documentato in modo che sviluppatori di sistemi che integrano questa funzione, utenti e altri valutatori appropriati possano comprenderlo? Il comportamento della funzione implementata è essenzialmente deterministico in modo tale che ripetendo gli stessi input si ottengono gli stessi output?
Sicurezza: L’addestramento e l’implementazione della funzione proteggono i dati acquisiti o i prodotti da trasferimento non appropriato, uso improprio o divulgazione? Questi dati possono includere informazioni personali che sono soggette a privacy e dati non personali che possono essere soggetti a proprietà e requisiti d’uso concordati contrattualmente.
Impatto sociale: oltre a questioni specifiche di pregiudizio, privacy, trasparenza e sicurezza, qual è l’impatto diretto e indiretto sulla società se questa tecnologia viene distribuita in modo esteso? Aiuta od ostacola lo scambio di idee? Aumenta la probabilità di violenza o abuso? È pericolosa per l’ambiente? Questa categoria di etica AI è intenzionalmente aperta, pertanto non possiamo aspettarci che tutti i team di progettazione e distribuzione comprendano completamente tutti gli effetti indiretti del proprio lavoro, in particolare quando distribuito negli anni e nel mondo. Ciò nonostante, lo sforzo di prevedere gli effetti negativi a lungo termine può incoraggiare i team a progettare mitigazioni nel proprio lavoro o cambiare strategia tecnologica passando ad alternative apparentemente con meno svantaggi per la società.
Questo elenco di questioni etiche dell’intelligenza artificiale può inizialmente sembrare confuso e astratto per essere attuato, ma il settore ha distribuito con successo linee guida di sviluppo, in particolare nell’ambito della sicurezza del sistema e della privacy dei dati che possono essere sfruttate come un utile modello. La leadership di Cisco di lunga data nella progettazione di sistemi per la sicurezza dei dati, rende tale struttura il punto di inizio naturale per il lavoro di Webex nell’ambito di sistemi di apprendimento automatico responsabili. Il framework per il regolamento europeo GDPR (General Data Protection Regulation) fornisce anche un framework per proteggere i “diritti fondamentali e la libertà delle persone” e può offrire alcuni utili principi da applicare a sistemi basati su apprendimento automatico.
Altre considerazioni a supporto di AI ed etica
Mentre pensavo a una progettazione di sistemi AI consapevole e responsabile, ho identificato tre concetti particolarmente utili da tenere a mente per comprendere le responsabilità sociali ed etiche degli ingegneri:
Un processo per lo sviluppo dell’apprendimento automatico responsabile. Le potenziali applicazioni per l’apprendimento automatico sono talmente vaste che non possiamo sperare di definire un flusso di sviluppo universale. La velocità innovazione di tipi di modello, sistemi di addestramento, metriche di valutazione e target di distribuzione è talmente grande che qualsiasi formula limitata diventerà immediatamente obsoleta. Al contrario, ci aspettiamo di definire linee guida di etica AI con punti di verifica espliciti in corrispondenza dei quali entrambi, sviluppatori e altri, esaminano il proprio lavoro per verificare che le questioni chiave siano state considerate e che le scelte di progettazione chiave siano documentate. Questo può anche implicare test specifici che i sistemi devono superare prima di poter procedere alla distribuzione.
Considerazione di consequenzialità. Designer e implementatori devono avere una comprensione chiara dell’etica dell’intelligenza artificiale e dell’impatto delle decisioni apprese dei relativi sistemi addestrati. Devono recepire l’idea che le funzioni di apprendimento automatico spesso prendono decisioni con impatto reale sugli utenti o su altre persone interessate. A volte, le decisioni sono abbastanza grandi ed esplicite, ad esempio una richiesta di mutuo per casa è accettata o rifiutata? In altri casi, le decisioni sono più sottili, ma comunque con un impatto diffuso. Ad esempio, se una funzione di miglioramento della conversazione appresa in un sistema di videoconferenza ha abbassato il volume della voce delle donne in media del 2% rispetto al volume della voce dei colleghi uomini, tale modifica potrebbe avere l’effetto complessivo subdolo di ridurre l’impatto e il contributo delle donne nel luogo di lavoro.
Varianza statistica dei dati di addestramento e dati d’uso previsti. L’apprendimento automatico deve utilizzare una gamma diversificata di dati di input per addestrare il sistema a gestire tutte le condizioni previste. La progettazione statistica del set di addestramento è la grandissima determinante del comportamento statistico del sistema definitivo. Per sistemi vocali, ad esempio, questa distribuzione specificata può includere una percentuale target per persone che parlano inglese americano, persone che parlano inglese britannico, persone che parlano inglese australiano, persone che parlano inglese ispanico, persone di Sud Asia, Cina, Europa continentale e altre aree. Potrebbe anche includere una percentuale target per toni di voce alti e bassi, voci di persone di età diverse, conversazione in sale con livelli di riverbero diversi e diversi tipi e ampiezza relativa di rumore. Gli sviluppatori devono avere una comprensione esplicita e documentata della distribuzione degli utenti target e devono costruire l’addestramento e il test in base a tale uso target. Inoltre, gli sviluppatori devono considerare cosa potrebbe mancare nella specifica degli utenti target, ad esempio, copertura delle caratteristiche legalmente protette (razza, etnia, sesso, religione e così via). Questo non è un problema facile, perché esistono così tante possibili dimensioni di variazione rilevante nelle condizioni d’uso. Gli sviluppatori devono testare una gamma di caratteristiche più ampia di quella per cui il sistema è addestrato inizialmente, con la possibilità di scoprire la sensibilità ad alcune varianze che richiederanno l’aggiunta di nuovi dati o il cambio delle distribuzioni per ottenere prestazioni adeguate a tutte le condizioni d’uso target.
La progettazione di AI responsabile è ancora agli inizi. Abbiamo ancora molto da comprendere sugli ostacoli alla protezione da pregiudizi, privacy compromessa, trasparenza, perdita dei dati e grave impatto sulla società. Ciò nonostante, l’attenzione consapevole all’etica dell’intelligenza artificiale in discussioni, specifiche, addestramento, distribuzione e manutenzione può iniziare a fare una differenza significativa sul modo in cui tali metodi efficaci possono diventare di fiducia e affidabili.
Chris is a Silicon Valley entrepreneur and technologist known for his groundbreaking work developing RISC microprocessors, domain-specific architectures and deep learning-based software.