責任ある AI テクノロジーを提供する際に考慮する 3 つの主要要素

On By Emmy Chen1 Min Read
Why transition to cloud calling? Tips for scaling team communication in the hybrid workplace
人工知能 (AI) はもはや、はるか遠くで利用される未来的なテクノロジーの概念ではありません。AI はすでに何千ものビジネスおよびコンシューマー向けアプリケーションに使われています。しかし、私たちはまだ AI の機能をほんの少しかじった程度にしかすぎません。Statista によると、AI 産業は前年比 54% の伸びを示し、次なるテクノロジーの大きな変化をもたらしています。 コラボレーション産業では、AI は円滑なつながりを提供するために使われ、今後も、以前は夢でしかなかった方法でリモート コミュニケーションの改善を続けます。 AI の普及によってビジネスや日々の生活でのやり取りがスムーズになるのは素晴らしいことですが、配慮なしにこの状況は実現しません。多くの人は AI にうんざりしていて、意図的ではない偏見がアルゴリズムに入り込んだり、データのプライバシーが侵害されることを恐れています。 組織が責任ある AI を設計する上で注意する必要がある 3 つの重点項目を以下に示します。このトピックに関する詳細については、Collaboration AI 担当 Webex VP である Chris Rowen による「責任ある AI システムの設計」を参照してください。

先入観のないアプローチで AI に対する信頼を得る

スタンフォード大学のレポートによると、2019 年の AI への民間投資は前年比で 9.3% 上昇しました。企業は、現在ほぼバーチャルな環境で利便性、生産性、および現実感を向上させるさまざまなエクスペリエンスを人々に提供する上で AI が重要な役割を果たしていることを認識し、人工知能、機械学習、およびディープ ラーニング アルゴリズムによるテクノロジーの開発に信頼を置くようになってきています。 しかし、AI の可能性を最大限に引き出すためには、ユーザーも AI を信頼する必要があります。その第一歩となるのは、偏りのない結果を生み出すアルゴリズムにより、倫理的な AI を実証することです。責任ある AI の設計には、スポンサー組織が次のようないくつかの重要な質問に回答できるようにするための、考え抜かれたプロセスが含まれます。
  • アルゴリズムによって特定の予測や出力が行われた背後にどのような理由がありますか?
  • アルゴリズムは複数のプラットフォームや複雑なエコシステムに適用できますか?
  • アルゴリズムは必要に応じて継続的に更新され、修正されていますか?
このような質問に対応できて初めて、AI テクノロジーに対する信頼を築き、ユーザーの信頼を得られるようになります。

データを最初から規制および保護する

AI の導入過程におけるもう 1 つの重要な考慮事項は、収集されたデータのプライバシーと安全性を確保し、データを規制して、AI の透過性を確保するための手法やツールを実装することです。 この数年の間に、顧客と利害関係者は自分のデータや情報がどこでどのように使用されているかについて懸念を示すようになりました。この状況に対応するため、AI の安全な使用に関する GDPR および EU のガイドランが作成されました。詳しくは、こちらをご覧ください。 独自の AI テクノロジーを開発している組織の場合は、セキュリティ、プライバシー、コンプライアンス対策を最優先で検討する必要があり、後回しにすべきではありません。組織がユーザーと共有できる厳格なセキュリティ対策を実装していない場合、信頼を獲得して、最終的にテクノロジーを市場に出すことは困難になります。組織は意思決定の間接的な影響を受け入れられるようにして、最初に正確な評価を確実に行う必要があります。

AI テクノロジーの提供と微調整

責任ある AI を提供するには、常にテクノロジーを評価し、導入後に微調整します。出力を常に評価して、やるべきことが行われているか確認し、必要に応じて修正することが必要です。また、リスクや偏見、倫理的な問題が生じていないか常に監視することも必要となります。 AI テクノロジーの提供を成功させるには、以下の実施に役立つ枠組みを整える必要があります。
  • ガバナンス用の制御モデルを設計および実装する
  • AI を操作する個人に対して継続的なトレーニングと育成を行う
  • 正確性を確認し、必要に応じて修正する
  • 生じる可能性のあるギャップを評価する
  • リスク管理プロトコルを作成する
責任ある AI 戦略の導入には時間がかかり、その実装はデータのプライバシーと安全性を確保するため慎重に評価および測定する必要がある点に注意することが重要です。

Webex の AI に対するアプローチ

シスコは、シスコのテクノロジーに対する信頼を築き、維持していくことがいかに重要か理解しています。シスコは、AI の潜在能力を開発および認識するための最も責任ある方法を特定し、シスコのテクノロジー開発および運用のあらゆる段階において安全性、人権、プライバシーに関する強力な保護を組み込むための取り組みを一貫して積極的に実施しています。 Webex は、AI テクノロジーを適切に管理および保護して、ソリューションに倫理と信頼性を組み込むためのガイドラインを実装し、取り組みを実施しています。シスコの機能は、プライバシーに配慮して設計され、その背後ではシスコの最新セキュリティ プラットフォームが利用されています。 シスコの AI および機械学習に関する取り組みは、以下の主要原則に基づいて行われています。
  • 有効性と正確性、リスク、望ましい成果、目的、入力、および制限に関する顧客レベルの説明
  • データ ポイズニングからの保護
  • 意思決定の間接的影響
  • 検証の証拠
  • 発生する可能性のあるリスク、偏見、倫理的な問題
詳細については、ホワイトペーパー『コグニティブ コラボレーションに向けたデータの取り扱いとプライバシー』で、シスコでの収集データの処理方法を確認してください。さらに、この『プライバシー データ シート』では、Cisco Webex Meetings での個人データ (または個人を特定できる情報) の扱いについて説明しています。
その他の記事 責任ある AI システムの設計 未来の働き方を推進する、Webex の最新の AI 機能 ハイブリッド ワークの未来を支えるコラボレーション AI の新機能

About The Author

Emmy Chen
Emmy Chen Product Marketing Manager Cisco
Emmy Chen is a product marketing manager at Webex for Collaboration AI.
Learn more

Topics


More like this