Un système automatisé d’acceptation ou de refus de prêt immobilier peut-il être coupable de racisme ?
Est-ce raisonnable pour la police d’utiliser des systèmes de reconnaissance faciale pour arrêter des suspects ?
Les développeurs peuvent-ils recueillir les données des utilisateurs dans les visioconférences pour entraîner des systèmes de reconnaissance de la parole améliorés ?
La communauté des sciences et de l’ingénierie s’est toujours trouvée en position délicate sur les questions de responsabilité sociale et d’éthique en matière d’intelligence artificielle. D’une part, il est raisonnable d’avancer l’idée que les lois de la physique ou que les équations mathématiques per se affirment une certaine « neutralité » silencieuse concernant les questions de morale. D’autre part, la science (et certainement pas l’ingénierie) ne fonctionne pas dans un monde abstrait et stérile indépendant de l’application des connaissances scientifiques et techniques aux activités humaines. Toute activité humaine ayant des implications d’ordre moral et éthique, il serait logique que les ingénieurs soient socialement et éthiquement responsables. Toutefois, nous ne pouvons pas être des ingénieurs responsables sans prendre en compte la façon dont nos systèmes soutiendront ou porteront atteinte aux droits humains concernant la vie privée, la sécurité, les conflits d’intérêt et l’équité. L’émergence de l’apprentissage automatique et de l’intelligence artificielle basée sur les données n’a fait qu’exacerber les inquiétudes largement répandues quant au rôle de la technologie dans la société.
Comment mettre en avant les questions éthiques de l’IA et développer des systèmes d’apprentissage automatique de manière responsable ?
Nous devons commencer par bien comprendre ce qu’implique une conception reposant sur l’apprentissage automatique et pourquoi elle peut être source de controverse. L’idée fondamentale de l’apprentissage automatique est que la fonction détaillée n’est pas décrite par une partie de code logiciel mais apprise par la généralisation d’une série d’exemples de comportements attendus. Ces données d’entraînement peuvent être préparées de manière explicite en associant une série d’entrées à des sorties cibles (apprentissage supervisé), ou de manière implicite ou continue avec des résultats attendus soit implicites dans les données d’entrée (apprentissage non supervisé), soit identifiés par une métrique récompensant une série de sorties (apprentissage par renforcement). Généralement, le modèle comportemental appris par l’entraînement est ensuite déployé en tant que fonction de blocs de code au sein d’un système d’« inférence » déployé. Les véritables entrées de l’utilisateur alimentent le modèle pour que le système puisse calculer un résultat qui correspond le plus fidèlement aux schémas de comportement appris dans le cadre de l’entraînement. Pour envisager une IA responsable, quels types de problèmes éthiques concernant l’IA et propres aux fonctions basées sur l’apprentissage automatique faut-il prendre en compte ? Dans une certaine mesure, un logiciel reposant sur l’apprentissage automatique n’est pas extrêmement différent d’un logiciel développé par des méthodes de programmation classique. Pour tous les logiciels, nous faisons attention aux préjugés, à la confidentialité, à l’équité, à la transparence et à la protection des données, mais les méthodes d’apprentissage automatique sont moins largement comprises, nécessitent de grandes quantités de données d’entraînement et doivent parfois être facilement explicables. En raison de ces particularités, nous devons examiner plus précisément le rôle joué par l’éthique de l’IA.
Questions essentielles à se poser lors de la création de principes de conception d’une IA responsable
Voici quelques questions importantes essentielles pour une IA éthique. Il est indéniable que ces problèmes se recoupent souvent, mais il peut être utile de considérer une conception responsable sous différents angles :
Préjugé : La fonction met-elle en place des partis pris injustes, involontaires ou déplacés dans sa façon de traiter différents individus ? Le système est-il conçu et entraîné pour être diffusé auprès d’utilisateurs sur lesquels il s’applique en réalité ? La conception, l’implémentation et les tests empêchent-ils tout préjugé à l’encontre de caractéristiques individuelles protégées par la loi ?
Confidentialité : L’entraînement et le fonctionnement de cette fonction exigent-ils qu’une personne dévoile davantage d’informations personnelles que nécessaire et ces informations personnelles sont-elles parfaitement protégées de toute divulgation non autorisée ou inappropriée ?
Transparence : Le comportement de la fonction est-il suffisamment bien compris, testé et documenté afin que les développeurs de systèmes qui intègrent cette fonction, les utilisateurs et autres investigateurs pertinents puissent la comprendre ? Le comportement de la fonction mise en œuvre est-il essentiellement déterministe, de telle sorte que les mêmes entrées produisent les mêmes sorties ?
Sécurité : L’entraînement et l’implémentation de la fonction protègent-ils les données capturées ou les produits de tout transfert inapproprié, de toute utilisation illicite ou de toute divulgation ? Ces données peuvent inclure des informations personnelles qui sont aussi sujettes à la confidentialité et des données non personnelles pouvant être sujettes à des droits de propriété et des droits d’utilisation soumis à des clauses contractuelles.
Impact sociétal : Au-delà des considérations spécifiques de préjugé, confidentialité, transparence et sécurité, quels seront les impacts direct et indirect sur la société si cette technologie est largement déployée ? Favorise-t-elle ou empêche-t-elle les échanges d’idées ? Augmente-t-elle la probabilité de violence, d’abus sexuels ou de harcèlement ? Est-elle dangereuse pour l’environnement ? Cette catégorie d’éthique de l’IA est volontairement ouverte, car nous ne pouvons pas exiger de la part de toutes les équipes de conception et de déploiement de comprendre pleinement tous les effets indirects de leur travail, notamment lorsqu’il s’étale sur plusieurs années et concerne le monde entier. Toutefois, anticiper les effets négatifs à long terme peut inciter les équipes à intégrer des atténuations à leur travail, ou à modifier la stratégie technologique pour adopter des alternatives présentant moins d’inconvénients sociétaux apparents.
Cette liste de questions éthiques concernant l’IA peut sembler de prime abord trop vague et abstraite pour être envisageable. Toutefois, l’industrie a réussi à mettre en place des directives de développement, notamment en termes de sécurité des systèmes et de confidentialité des données qui peuvent servir de modèle utile. Cisco jouit d’une longue expérience en tant que leader de la conception de systèmes conçus pour assurer la sécurité des données. Un tel cadre constitue le point de départ naturel pour le travail de Webex en matière de systèmes d’apprentissage automatique. Le Règlement général sur la protection des données (RGPD) de l’UE fournit également un cadre pour protéger les « droits et les libertés des personnes physiques » qui peut fournir certains principes utiles à appliquer aux systèmes reposant sur l’apprentissage automatique.
Autres considérations sur l’IA et l’éthique
Dans mes réflexions sur la conception de systèmes d’IA responsables et réfléchis, je suis arrivé à trois concepts particulièrement utiles à garder à l’esprit pour comprendre les responsabilités éthiques et sociales des ingénieurs :
Un processus pour le développement d’un apprentissage automatique responsable. Les applications potentielles de l’apprentissage automatique sont tellement vastes que nous ne pouvons espérer prescrire un flux de développement universel. La rythme de l’innovation concernant les types de modèles, les systèmes d’entraînement, les métriques d’évaluation et les cibles de déploiement est si élevé que n’importe quelle recette trop limitée sera immédiatement dépassée. Nous devons plutôt définir des directives d’apprentissage automatique éthique qui mentionnent des points de contrôle explicites auxquels les développeurs eux-mêmes et d’autres intervenants examineront leur travail pour vérifier que les questions fondamentales ont été prises en compte et que les choix de conception clés ont été dûment documentés. Ces directives pourront aussi inclure des tests spécifiques que les systèmes doivent réussir avant d’entamer leur déploiement.
Prise en compte de la corrélation. Les concepteurs et les responsables de la mise en œuvre doivent parfaitement comprendre le caractère éthique de l’IA et l’impact des décisions apprises de leurs systèmes entraînés. Ils doivent adhérer au principe que leurs fonctions d’apprentissage automatique prennent souvent des décisions qui présentent un réel impact sur les utilisateurs ou d’autres personnes en aval. Parfois les décisions sont plutôt importantes et explicites : un emprunt est-il accordé ou refusé ? Dans d’autres cas, elles sont plus subtiles mais présentent toutefois une incidence profonde. Par exemple, si une fonction d’amélioration de la parole d’un système de visioconférence est entraînée pour baisser le volume des voix féminines de 2 % de plus que pour les voix masculines, elle pourrait présenter l’effet cumulatif insidieux de réduire l’impact et la contribution des femmes dans l’environnement de travail.
Variance statistique entre les données d’entraînement et les données d’utilisation attendues. L’apprentissage automatique doit utiliser une diversité de données d’entrée pour entraîner le système à gérer toutes les conditions attendues. La conception statistique de l’ensemble d’entraînement est le plus grand déterminant du comportement statistique du système ultime. Pour les systèmes vocaux, par exemple, cette distribution spécifiée pourrait inclure un pourcentage cible pour les locuteurs d’anglais américain, d’anglais britannique, d’anglais australien et d’anglais hispanique, ainsi que pour les locuteurs d’Asie du Sud, de Chine, d’Europe continentales et d’autres régions. Elle pourrait aussi inclure un pourcentage cible pour les voix aigües et graves, pour les voix de personnes de différentes tranches d’âge, pour les paroles prononcées dans des salles présentant des niveaux de réverbération différents et pour différents types et amplitudes de bruit. Les développeurs devraient avoir une bonne compréhension, explicite et documentée, de la répartition des utilisateurs ciblés, et créer un entraînement et des tests correspondant à cette utilisation cible. De plus, les développeurs devraient envisager ce qui pourrait faire défaut à la spécification des utilisateurs ciblés, comme la prise en compte de caractéristiques protégées par la loi (origine, nationalité, genre, religion, etc.). Ce problème n’est pas simple, car une multitude de variations potentielles s’appliquent aux conditions d’utilisation. Les développeurs devraient tester une gamme de caractéristiques plus étendue que celle initialement prévue pour l’entraînement, et s’attendre à découvrir une sensibilité à certaines variances qui nécessitera l’ajout de nouvelles données ou la modification des répartitions afin d’obtenir des performances adéquates pour toutes les conditions d’utilisation ciblées.
La conception pour une IA responsable en est encore à ses balbutiements. Il nous reste encore beaucoup de chemin à parcourir pour identifier les embûches inhérentes aux initiatives de protection contre les préjugés, la divulgation d’informations confidentielle, la transparence, la perte de données et les conséquences sociétales graves. Quoi qu’il en soit, en portant une grande attention à l’éthique de l’IA dans les conversations, les spécifications, l’entraînement, le déploiement et la maintenance, il sera possible de commencer à faire une réelle différence dans la manière dont ces méthodes puissantes peuvent être fiables et sources de confiance.
Chris is a Silicon Valley entrepreneur and technologist known for his groundbreaking work developing RISC microprocessors, domain-specific architectures and deep learning-based software.