L’intelligenza artificiale (AI) non è più un concetto tecnologico futuristico da utilizzare in futuro. È qui, è una tecnologia già adottata da migliaia di aziende e applicazioni per consumatori. Ma abbiamo solo iniziato a vedere le funzionalità AI. Secondo Statista, il settore AI sta crescendo del 54% anno dopo anno, portandoci alla prossima grande svolta tecnologica. Nel settore della collaborazione, l’AI viene utilizzata per fornire connessioni senza problemi e continuerà a migliorare le comunicazioni da remoto in modi che una volta potevamo solo sognare. Sebbene l’uso diffuso dell’AI per migliorare le interazioni professionali e personali sia entusiasmante, non si può prescindere da alcune considerazioni. Molte persone sono stufe dell’AI, hanno paura di pregiudizi involontari negli algoritmi o che la privacy dei dati venga compromessa. Di seguito tre aree chiave su cui le organizzazioni devono concentrarsi per progettare tecnologia AI responsabile. Per una relazione più dettagliata sull’argomento, leggi Progettazione di sistemi AI responsabili del VP di Collaboration AI di Webex, Chris Rowen.
Ottenere fiducia nell’AI con un approccio imparziale
In base a un report Stanford, nel 2019 l’investimento privato in AI ha superato del 9,3% l’investimento dell’anno precedente. Le società riconoscono che l’AI ha la capacità di fornire alle persone una vasta gamma di esperienze che offrono maggiore convenienza, produttività e realismo in un mondo ora perlopiù virtuale, e per questo stanno concentrandosi sullo sviluppo di tecnologia con intelligenza artificiale, apprendimento automatico e algoritmi di apprendimento profondo. Ma per realizzare l’intero potenziale dell’AI, è importante ottenere la fiducia degli utenti in questa tecnologia e, quindi, è fondamentale dimostrare l’etica dell’AI con algoritmi che producono risultati imparziali. La progettazione di AI responsabile include un processo ben ponderato che porta ad affidarsi a organizzazioni in grado di rispondere a diverse domande chiave, tra cui:- Qual è il ragionamento dietro alla motivazione per cui un algoritmo ha prodotto una determinata previsione/un determinato risultato?
- L’algoritmo è adottabile in più piattaforme ed ecosistemi complessi?
- Qualcuno sta aggiornando e correggendo continuamente gli algoritmi quando necessario?
Regolamentazione e protezione dei dati sin dall’inizio
Un’altra importante considerazione nel percorso dell’AI è assicurarsi che i dati raccolti siano mantenuti privati, protetti e regolamentati, con metodi e strumenti in grado di garantire trasparenza con AI. Negli ultimi anni, clienti e parti interessate hanno espresso alcuni dubbi su come e dove i propri dati e le proprie informazioni venissero usati. Questo ha portato alla creazione del regolamento GDPR e di linee guida dell’UE su come utilizzare in sicurezza l’AI. Leggi ancora qui. Per le organizzazioni che sviluppano la propria tecnologia AI, sicurezza, privacy e misure di conformità devono essere le considerazioni primarie, non una riflessione secondaria. Se le organizzazioni non hanno messo in atto misure di sicurezza rigorose, misure che possono essere condivise con gli utenti, sarà difficile ottenere fiducia e, in definitiva, lanciare la tecnologia sul mercato. Le organizzazioni devono essere in grado di accettare le conseguenze delle proprie decisioni e assicurarsi di eseguire valutazioni attente sin dalla prima volta.Lancio e perfezionamento della tecnologia AI
Per lanciare tecnologia AI responsabile occorre anche valutare costantemente la tecnologia e perfezionarla dopo la distribuzione. Il risultato deve essere valutato continuamente per essere certi di fare quello che era stato previsto e apportare correzioni quando necessario. Occorre anche monitorare costantemente la situazione per assicurarsi che non esista alcun rischio, pregiudizio e problema etico. Per un lancio di successo di tecnologia AI, occorre mettere in atto strutture in grado di aiutare a:- Progettare e implementare un modello di controllo per la governance
- Addestrare e sviluppare continuamente il personale che lavorerà con AI
- Controllare accuratezza e correttezza quando necessario
- Valutare eventuali lacune che possono essere presenti
- Creare un protocollo di gestione dei rischi
Approccio di Webex all’AI
In Cisco, sappiamo quanto sia importante costruire e mantenere la fiducia nella nostra tecnologia. Intraprendiamo attivamente e continuamente azioni per identificare il modo più responsabile di sviluppare e realizzare il potenziale dell’AI e per costruire misure di protezione solide per garantire sicurezza, diritti umani e privacy in tutte le fasi dello sviluppo e dell’uso della nostra tecnologia. Webex ha implementato linee guida e intrapreso azioni per assicurarsi che la nostra tecnologia AI sia regolamentata in modo appropriato, protetta e abbia etica e fiducia incorporate nella soluzione. Le nostre funzioni sono progettate tenendo presente la privacy e sulla base della piattaforma di sicurezza leader del settore di Cisco. Le nostre iniziative di AI e apprendimento automatico sono guidate da alcuni principi fondamentali:- Spiegazione a livello di cliente di efficacia/accuratezza, rischi, risultati desiderati, scopo, input e limitazioni
- Protezione da compromissione dei dati
- Consequenzialità delle decisioni
- Prova di convalida
- Probabili rischi, pregiudizi e problemi etici
Per ottenere maggiori dettagli, scopri come Cisco tratta i dati che raccoglie nel nostro white paper, Gestione dei dati e privacy per la collaborazione cognitiva. Inoltre, questa Scheda dati della privacy descrive il trattamento dei dati personali (o delle informazioni di identificazione personale) in Cisco Webex Meetings.Ulteriori informazioni Progettazione di sistemi AI responsabili Le ultime funzioni AI Webex potenziano il futuro del lavoro Novità di AI per la collaborazione: per un futuro del lavoro ibrido più potente