社会的影響: このテクノロジーが広く展開されている場合、偏見、プライバシー、透過性、およびセキュリティに固有の問題以外に、社会にどのような直接的および間接的な影響を与えますか? 意見の交換を促進するものですか、それとも妨げるものですか? 暴力や虐待の危険性を高めるものですか? 環境に害を及ぼすものですか? AI 倫理のこのカテゴリが意図的に自由回答になっているのは、どの設計および開発チームに対しても、特に数年間かけて世界中に展開されているテクノロジーの場合、その取り組みの間接的な影響をすべて把握することは期待できないからです。それでも、長期的な負の影響を予測することで、チームは取り組みに緩和策を取り込んだり、テクノロジー戦略を社会へのマイナスの影響が少ない代替戦略に変更したりして対応できます。
この AI 倫理に関する質問のリストは当初、あいまいで抽象的すぎて実用化できそうにありませんでしたが、業界は開発者向けガイドラインの導入に成功し、特にシステム セキュリティとデータ プライバシーについては有用なテンプレートして利用できます。データ セキュリティのシステム設計をシスコが長期にわたってリードしてきたことで、その枠組みが自然に責任ある機械学習システムにおける Webex の取り組みの出発点になっています。ヨーロッパの一般データ保護規制 (GDPR) の枠組みも、機械学習ベースのシステムに適用される有益な原則を示す「自然人の基本的人権と自由」を保護する枠組みを提供しています。
AI と倫理を支えるその他の考慮事項
意識的で責任ある AI システムの設計について考えてきた中で、エンジニアの社会的および倫理的責任を理解する際に心に留めておくと特に役に立つ以下の 3 つの概念があることに気づきました。
責任ある機械学習開発のプロセス。機械学習の潜在的な用途は膨大であるため、普遍的な開発フローは規定できないと思われます。モデル タイプ、トレーニング システム、評価メトリックおよび開発ターゲットのイノベーション速度は非常に速いため、範囲の狭い方法はすぐに古くなります。代わりに、開発者自身と他の人々の両方が自分たちの取り組み方を調べ、重要な問題が考慮されているか、および重要な設計の選択が文書化されているか確認する明示的なチェックポイントを含む倫理 AI ガイドラインを作成することはできると思います。これには、システムが開発に進む前に合格する必要のある特定のテストも必要になる可能性があります。
責任ある AI の設計はまだ初期段階です。偏見、プライバシーの侵害、透過性、データ損失、深刻な社会的影響を防ぐ上で注意すべき点について理解しなければならないことがたくさんあります。しかし、ディスカッション、仕様、トレーニング、導入およびメンテナンスにおける意識的に配慮した AI 倫理は、これらの強力な方法が信頼できるものになる上で大きな差を生む第一歩となります。
Chris is a Silicon Valley entrepreneur and technologist known for his groundbreaking work developing RISC microprocessors, domain-specific architectures and deep learning-based software.