責任ある AI システムの設計

On By Chris Rowen1 Min Read
Responsible AI
  • 住宅ローンの申し込みを承認または拒否するために使用される自動システムが、人種差別をする可能性はあるでしょうか?
  • 警察が顔認識システムを使用して犯罪容疑者を捕まえることは妥当でしょうか?
  • 開発者は、ユーザー データを収集して、改良されたビデオ会議の音声認識システムをトレーニングできるでしょうか?
科学およびエンジニアリング界は、AI 倫理と社会的責任に関する問題について常にデリケートな立場に置かれています。一方の立場では、物理法則や数学的方程式それ自体が価値中立であるとすることが妥当とされ、人間の道徳問題については沈黙を貫いています。別の立場からすると、科学や技術に関する知識を人間の活動に応用することから切り離された不毛な抽象世界では科学は機能せず、エンジニアリングにいたっては到底無理なことです。人間のどの活動にも道徳的および倫理的な問題は存在します。したがって、エンジニアに社会的および倫理的責任があるというのは筋が通っています。しかし、責任あるエンジニアになるには、システムがプライバシー、安全性、行為主体性、および公平性に関する重要な人権を支えるものか、それとも弱体化させるものかを検討する必要があります。機械学習とデータ主導の人工知能の出現は、社会におけるテクノロジーの役割に関する懸念をさらに大きく広げています。

常に AI 倫理の問題の最前線に立ち、機械学習システムの責任ある構築方法を選択するには

まずは、機械学習ベースの設計に何が必要で、この設計が論争の原因となっているのはなぜかについて基本的な理解を深めることから始めます。機械学習の核となる考えは、詳細機能はソフトウェア コードで表されるのではなく、幅広い予測行動の例から導き出して学習されるというものです。さまざまな入力とターゲット出力を組み合わせてトレーニング データを明示的に準備する方法 (教師あり学習) や、トレーニングを暗黙的または継続的に行い、入力データに内在する予測結果を得る方法 (教師なし学習) 、報酬メトリックを使用して正しい一連の出力を得る方法 (強化学習) があります。一般的に、トレーニングで学習された行動モデルは、展開された「推論」システム内のビルディング ブロック機能として展開されます。このシステムでは、ユーザーの実際の入力がモデルに流れ込むため、トレーニングで学習された行動パターンに適合する結果を計算できます。 責任ある AI について考える上で、検討すべき機械学習ベース機能に見られる AI 倫理の問題にはどのようなものがあるのでしょうか。レベルによっては、機械学習ベースのソフトウェアは、従来の手続き型プログラミング手法で開発されたソフトウェアとそれほど大きな違いはありません。私たちはすべてのソフトウェアで偏見、プライバシー、公平性、透過性、およびデータ保護について配慮していますが、機械学習の方式が広く理解されていないため、大量のトレーニング データ、場合によっては容易な説明可能性が必要になります。これらの特性から、AI 倫理が現在の状況で果たすべき役割をより詳しく調べることが求められます。

責任ある AI 設計ワークフローを構築する際に考えるべき主要な質問

中核となる AI 倫理に関する重要な質問を紹介します。以下の問題には重なる部分が多くありますが、複数の見地から責任ある設計を検討することは害にはなりません。
  • 偏見: さまざまな個人の扱い方について、機能に不公平、意図的ではない偏見または不適切な偏見が織り込まれていませんか?システムは、実際に適用されているユーザーの分布に合わせて設計およびトレーニングされていますか?設計、実装およびテストで、法的に保護される個人の特性に対する偏見が回避されますか?
  • プライバシー: この機能のトレーニングと運用のために、個人に対して必要以上の個人情報の公開を求めていませんか? また、そのプライベート情報が無許可で、または不適切に公開されないよう十分保護していますか?
  • 透過性: この機能を統合するシステムの開発者、ユーザー、その他適切なテスト担当者が理解できるように、機能の動作が十分に理解され、テストおよび文書化されていますか?実装される機能の動作は原則として決定論的で、同じ入力を繰り返すと同じ出力が生成されますか?
  • セキュリティ: 機能のトレーニングと実装の際には、収集されたデータや製品が不適切に転送、悪用、または漏洩されないように保護されますか?このデータには、プライバシーの問題の対象にもなる個人情報、および所有権と契約上合意された許容使用の問題の対象になる可能性のある非個人データが含まれる場合があります。
  • 社会的影響: このテクノロジーが広く展開されている場合、偏見、プライバシー、透過性、およびセキュリティに固有の問題以外に、社会にどのような直接的および間接的な影響を与えますか? 意見の交換を促進するものですか、それとも妨げるものですか? 暴力や虐待の危険性を高めるものですか? 環境に害を及ぼすものですか? AI 倫理のこのカテゴリが意図的に自由回答になっているのは、どの設計および開発チームに対しても、特に数年間かけて世界中に展開されているテクノロジーの場合、その取り組みの間接的な影響をすべて把握することは期待できないからです。それでも、長期的な負の影響を予測することで、チームは取り組みに緩和策を取り込んだり、テクノロジー戦略を社会へのマイナスの影響が少ない代替戦略に変更したりして対応できます。
この AI 倫理に関する質問のリストは当初、あいまいで抽象的すぎて実用化できそうにありませんでしたが、業界は開発者向けガイドラインの導入に成功し、特にシステム セキュリティとデータ プライバシーについては有用なテンプレートして利用できます。データ セキュリティのシステム設計をシスコが長期にわたってリードしてきたことで、その枠組みが自然に責任ある機械学習システムにおける Webex の取り組みの出発点になっています。ヨーロッパの一般データ保護規制 (GDPR) の枠組みも、機械学習ベースのシステムに適用される有益な原則を示す「自然人の基本的人権と自由」を保護する枠組みを提供しています。 都市開発者が見ているホログラムの都市

AI と倫理を支えるその他の考慮事項

意識的で責任ある AI システムの設計について考えてきた中で、エンジニアの社会的および倫理的責任を理解する際に心に留めておくと特に役に立つ以下の 3 つの概念があることに気づきました。
  1. 責任ある機械学習開発のプロセス。機械学習の潜在的な用途は膨大であるため、普遍的な開発フローは規定できないと思われます。モデル タイプ、トレーニング システム、評価メトリックおよび開発ターゲットのイノベーション速度は非常に速いため、範囲の狭い方法はすぐに古くなります。代わりに、開発者自身と他の人々の両方が自分たちの取り組み方を調べ、重要な問題が考慮されているか、および重要な設計の選択が文書化されているか確認する明示的なチェックポイントを含む倫理 AI ガイドラインを作成することはできると思います。これには、システムが開発に進む前に合格する必要のある特定のテストも必要になる可能性があります。
  2. 間接的な影響の考慮。設計者や実装担当者は、AI 倫理およびトレーニングされたシステムの学習に基づいた決断の影響を明確に理解する必要があります。これらの担当者は、機械学習機能がユーザーまたは他の下流の個人への実際の影響に基づいて判断を行うことがよくあるという考えを受け入れる必要があります。その判断は、住宅ローンの申請が受け入れられるかどうかというような、非常に重大で明確なものである場合があります。一方で、判断そのものはそれほど重大でなくても、広範囲に影響を及ぼす場合があります。たとえば、ビデオ会議システムの学習済み音声強調機能で平均的な女性の音量を男性の同僚に比べて 2% 下げた場合、職場における女性の影響力と貢献度の減少という累積的影響が徐々に広がっていく可能性があります。
  3. トレーニング データと予想されるユーザー データの統計上のバリアンス。機械学習は幅広い入力データを使用してシステムをトレーニングし、予想されるあらゆる状況に対応する必要があります。トレーニング セットの統計的設計は、最終的なシステムの統計的挙動の最大決定要因です。たとえば、音声システムで、指定された分布に、アメリカ英語を話す人、イギリス英語を話す人、オーストラリア英語を話す人、ヒスパニック系の英語を話す人、南アジア、中国、欧州大陸、およびその他の地域の言語を話す人のターゲット割合が含まれる場合があります。高い声と低い声、さまざまな年齢の話し声、反響音レベルが異なる部屋での会話、ノイズのさまざまな種類と相対振幅に関するターゲット割合も含まれるかもしれません。開発者は、ターゲット ユーザーの分布を明確に文書化して理解し、その目的の用途に合ったトレーニングとテストを作成する必要があります。さらに、ターゲット ユーザーの指定から欠落している可能性があるもの、たとえば法的に保護される特徴 (人種、国籍、性別、宗教など) の範囲を考慮する必要があります。これはそう簡単な問題ではありません。使用条件の関連バリエーションには非常に多くの側面が存在する可能性があるからです。開発者は、すべてのターゲット使用条件で十分なパフォーマンスを達成するために新しいデータの追加や分布の変化が必要となる一部のバリアンスに対する感度を見つけ出すことを予想して、当初のトレーニング対象よりも幅広い特徴についてテストすべきです。
責任ある AI の設計はまだ初期段階です。偏見、プライバシーの侵害、透過性、データ損失、深刻な社会的影響を防ぐ上で注意すべき点について理解しなければならないことがたくさんあります。しかし、ディスカッション、仕様、トレーニング、導入およびメンテナンスにおける意識的に配慮した AI 倫理は、これらの強力な方法が信頼できるものになる上で大きな差を生む第一歩となります。
サインアップすると Webex を無料でお試しいただけます。チーム コラボレーションとビデオ会議テクノロジーのエクスペリエンス向上にお役立てください。
その他の記事 未来の働き方を推進する、Webex の最新の AI 機能 ハイブリッド ワークの未来を支えるコラボレーション AI の新機能 ハイブリッド環境における業務の質とカスタマー エクスペリエンスの向上

About The Author

Chris Rowen
Chris Rowen VP of Engineering Cisco
Chris is a Silicon Valley entrepreneur and technologist known for his groundbreaking work developing RISC microprocessors, domain-specific architectures and deep learning-based software.
Learn more

Topics


More like this