人工智慧 (AI) 已不再是遙不可及且難以駕馭的未來科技概念。這項技術已然應用於成千上萬的商業和消費型應用程式中。不過,我們才剛開始接觸到 AI 能力的皮毛而已。根據 Statista 的報告,AI 產業的年增率為 54%,將引領我們邁向下一個重大技術性變革。 就協作產業而言,使用 AI 可讓連線更順暢,還能以我們過去只能夢想的各種方式,繼續讓遠端通訊變得更好。 AI 的廣泛運用可改善商業與日常生活中的互動情形,儘管這一點令人振奮,但也不是全然沒有顧慮的。許多人厭棄 AI,是因為害怕無意的偏見會深植到演算法中,或是資料隱私權因此遭到侵犯。 以下的三大重點領域,說明各大組織在設計負責任的 AI 時所須注意的事項。如果您想要更詳細地瞭解本主題,請閱讀 Webex 協作 AI 副總裁 Chris Rowen 所撰寫的〈Designing Responsible AI Systems〉(設計負責任的 AI 系統)一文。
以持平的方式贏得人們對於 AI 的信任
根據 Stanford 報告指出,相較一年前,2019 年對 AI 的私人投資增加了 9.3%。各公司現已體認到,AI 是為人們帶來各種體驗的關鍵要素,可在當今大多事物皆虛擬化的世界中增添便利性、現實感並提高生產力;而人們也逐漸放心地運用人工智慧、機器學習及深度學習演算法來開發技術。 但為了充分發揮 AI 的潛力,使用者也一樣必須信任它,而這要從展示符合行為準則的 AI 開始,讓其演算法產生公正持平的成果。設計負責任的 AI 須採取經過縝密思考的程序,而這會讓主事的組織得以回答多項關鍵問題,包括:- 某項演算法得出特定預測/輸出之背後的推論為何?
- 該演算法能否適應多個平台和複雜的生態系統?
- 是否會有人持續地在必要時更新和修正演算法?
從一開始便規範及保障資料權
在此 AI 歷程中,另一項重要的考量,就是藉由種種方法和工具來確保蒐集的資料具有隱私、獲得保障且受到監管,藉此確保使用 AI 時的透明度。 在過去幾年來,對於資料和資訊的使用方式和位置,客戶和利害關係人不斷地表達其顧慮。而這也是制訂 GDPR 規範的原因,這就是歐盟對於如何安全地使用 AI 所頒佈的準則。在此繼續閱讀。 對於自行開發 AI 技術的組織而言,安全性、隱私權及合規措施是首要考量,而非事後才有的想法。如果組織沒有制定嚴謹的資安措施(能與使用者共同遵守的措施),便很難取得信任,最終難以在市場上推動其技術。組織必須能夠接受決策的必然後果,並確保第一次便能準確地評估。推出並微調 AI 技術
要推出負責任的 AI,必須在部署後不斷地評估該技術,並進行微調。必須持續地對輸出進行評估,以確保該技術符合預期並視需要修正。也必須持續地監控,以確保風險、偏見與行為準則問題不會出現。 若要成功地推出 AI 技術,就必須制定良好的架構從旁協助:- 設計並實作用於控管的控制模型
- 持續訓練與培養會與 AI 一同工作的人員
- 檢查準確性並在必要時予以修正
- 評估任何可能會產生的落差
- 建立風險管理規章
Webex 採納 AI 的方式
思科瞭解贏得人們對我們的技術的信任,以及保有這份信任有多麼重要。我們正積極地以一致的行動來找出最負責任的方式,開發 AI 並發揮其潛力,以及在我們技術開發和運作的所有階段中,就資安、人權及隱私權建立起強大的保護機制。 Webex 已實施各項方針並採取種種措施,來確保我們的 AI 技術受到妥善的控管和保護,並在解決方案中加入行為準則與信任機制。我們的各項功能在設計之初便考量到隱私權,並憑藉著思科領先業界的資安平台做為後盾。 我們的 AI 和機器學習計畫是以少數核心原則為指導依據:- 在客戶層面說明效用/準確性、風險、預期成果、目的、想法及限制
- 保障資料不受到汙染
- 決策的必然成果
- 驗證的憑據
- 可能的風險、偏見及行為準則問題
若要深入瞭解,請閱讀我們的白皮書《Data Handling and Privacy for Cognitive Collaboration》(認知型協作的資料處理方式與隱私權),查看思科如何處理所蒐集的資料。 此外,本隱私權資料表說明了 Cisco Webex Meetings 處理個人資料(或可辨識個人的資訊)的方式。深入瞭解 設計負責任的 AI 系統 支援未來工作型態的最新 Webex 人工智慧功能 協作 AI 最新發展:推動混合工作模式的未來