3 facteurs cruciaux à prendre en compte pour lancer une technologie d’IA responsable

On By Emmy Chen6 Min Read
Why transition to cloud calling? Tips for scaling team communication in the hybrid workplace
L’intelligence artificielle (IA) n’est plus un concept technologique futuriste qui sera exploité dans un avenir lointain. Elle est présente et elle est utilisée dans des milliers d’entreprises et d’applications grand public. Mais nous n’avons fait que commencer à effleurer la surface des possibilités de l’IA. Selon Statista, le secteur de l’IA connaît une croissance de 54 % en rythme annuel, ce qui annonce le prochain grand changement technologique. Pour le secteur de la collaboration, son utilisation permet des connexions sans friction et continuera à améliorer les communications à distance d’une manière dont nous n’avons pu que rêver par le passé. Si l’utilisation omniprésente de l’IA pour améliorer les interactions dans les entreprises et la vie quotidienne est passionnante, elle n’est pas sans contrepartie. De nombreuses personnes se méfient de l’IA, craignant que des préférences involontaires ne se glissent dans les algorithmes ou que la confidentialité des données ne soit compromise. Voici trois domaines cruciaux dont les entreprises doivent être conscientes lors de la conception d’une IA responsable. Si vous souhaitez un compte rendu plus détaillé sur le sujet, lisez « Conception de systèmes d’IA responsables » de Chris Rowen, vice-président de Webex responsable de la technologie de l’IA collaborative.

Gagner la confiance dans l’IA par une approche impartiale

Selon un rapport de l’Université de Stanford, en 2019, les investissements privés dans l’IA ont augmenté de 9,3 % par rapport à l’année précédente. Les entreprises reconnaissent que l’IA est la solution pour offrir aux gens une variété d’environnements qui améliore encore plus la commodité, la productivité et le réalisme dans un monde désormais essentiellement virtuel et elles accordent leur confiance dans le développement de technologies dotées d’intelligence artificielle, d’apprentissage automatique et d’algorithmes d’apprentissage profond. Mais pour exploiter pleinement le potentiel de l’IA, les utilisateurs doivent également lui faire confiance, et cela commence par la présentation d’une IA éthique, avec des algorithmes qui produisent des résultats impartiaux. La conception d’une IA responsable intègre un processus bien pensé qui amène les entreprises commanditaires à être capables de répondre à plusieurs questions cruciales, notamment :
  • Quel est le mécanisme analytique qui explique une prédiction ou un résultat obtenu par un algorithme ?
  • L’algorithme peut-il être adopté par de multiples plateformes et des écosystèmes complexes ?
  • Quelqu’un met-il continuellement à jour et corrige-t-il les algorithmes en cas de nécessité ?
Une fois que de telles questions ont été abordées, cela déclenche le début de l’instauration de la confiance dans la technologie de l’IA et de l’obtention de la confiance par les utilisateurs.

Réglementer et sécuriser les données dès le départ

Une autre considération importante dans l’exploration de la technologie de l’IA est de s’assurer que les données collectées sont privées, sécurisées et réglementées, avec la mise en œuvre de méthodes et d’outils pour assurer la transparence avec la technologie de l’IA. Depuis quelques années, les consommateurs et les parties prenantes s’inquiètent de la manière dont leurs données et leurs informations sont traitées et de l’endroit où elles le sont. Cela a conduit à la création du GDPR et des lignes directrices de l’UE sur la manière d’utiliser l’IA en toute sécurité. Pour en savoir plus, cliquez ici. Pour les entreprises qui développent leur propre technologie de l’IA, les mesures de sécurité, de confidentialité et de conformité doivent être prises en compte initialement, et ne doivent pas découler d’une réflexion après coup. Si les entreprises n’ont pas mis en place des mesures de sécurité rigoureuses diffusées auprès des utilisateurs, il sera difficile de gagner leur confiance et, finalement, de commercialiser cette technologie. Les entreprises doivent assumer la conséquence de leurs décisions et s’assurer de l’évaluation correcte de leur technologie dès la première utilisation.

Lancement et perfectionnement des technologies de l’IA

Le lancement d’une IA responsable implique une évaluation constante de la technologie et des ajustements après le déploiement. Il faut évaluer en permanence le résultat pour s’assurer qu’il fait ce qu’il est censé faire et le corriger si nécessaire. Il est également nécessaire d’assurer un suivi permanent afin de garantir l’absence de risque, de partialité et de problèmes éthiques. Pour réussir le lancement d’une technologie de l’IA, il faut mettre en place des cadres d’aide :
  • Concevoir et mettre en œuvre un modèle de contrôle pour la gouvernance de la technologie
  • Former et perfectionner en permanence le personnel appelé à travailler avec la technologie de l’IA.
  • Vérifier l’exactitude des prédictions ou résultats et corriger si nécessaire
  • Évaluer les lacunes éventuelles
  • Créer un protocole de gestion des risques
Il est important de noter que l’adoption d’une stratégie d’IA responsable prend du temps et que sa mise en œuvre doit être évaluée et mesurée avec soin pour garantir la confidentialité et la sécurité des données.

Comment Webex aborde-t-il la technologie de l’IA ?

Chez Cisco, nous comprenons à quel point il est important d’établir et de conserver la confiance dans notre technologie. Nous prenons des mesures énergiques et cohérentes pour identifier la manière la plus responsable de développer et valoriser les potentialités de la technologie de l’IA ainsi que pour mettre en place des garanties solides en matière de sécurité, de droits de l’homme et de respect de la vie privée à tous les stades du développement et de l’exploitation de notre technologie. Webex a mis en place des directives et pris des mesures pour s’assurer que sa technologie d’IA est correctement gérée et sécurisée et que cette solution intègre les valeurs d’éthique et de confiance. Les fonctionnalités de nos technologies sont conçues dans le respect de la vie privée et s’appuient sur la principale plateforme de sécurité de Cisco. Notre programme de technologie de l’IA et d’apprentissage automatique est guidé par quelques principes fondamentaux :
  • Expliquer au consommateur l’efficacité et l’exactitude ainsi que les risques, les résultats souhaités, l’objectif, les données d’entrée et finalement les limites.
  • Protection contre l’empoisonnement des données
  • Faire preuve de conséquence dans ses décisions
  • Preuves de validation
  • Risques, préjugés et problèmes éthiques probables
Pour obtenir une vue plus détaillée sur la façon dont Cisco traite les données collectées, veuillez consulter notre livre blanc intitulé Traitement et confidentialité des données pour la collaboration cognitive.  En outre, cette fiche sur la confidentialité décrit le traitement des données personnelles (ou informations personnellement identifiables) par Cisco Webex Meetings.
En savoir plus Conception de systèmes d’IA responsables Les dernières fonctions d’intelligence artificielle de Webex au service du travail du futur Quoi de neuf avec la technologie de l’IA pour la collaboration : dynamiser l’avenir du travail hybride  

About The Author

Emmy Chen
Emmy Chen Product Marketing Manager Cisco
Emmy Chen is a product marketing manager at Webex for Collaboration AI.
Learn more

Topics


More like this