Tags: 資料損失預防
人工智慧 (AI) 已不再是遙不可及且難以駕馭的未來科技概念。這項技術已然應用於成千上萬的商業和消費型應用程式中。不過,我們才剛開始接觸到 AI 能力的皮毛而已。根據 Statista 的報告,AI 產業的年增率為 54%,將引領我們邁向下一個重大技術性變革。
就協作產業而言,使用 AI 可讓連線更順暢,還能以我們過去只能夢想的各種方式,繼續讓遠端通訊變得更好。
AI 的廣泛運用可改善商業與日常生活中的互動情形,儘管這一點令人振奮,但也不是全然沒有顧慮的。許多人厭棄 AI,是因為害怕無意的偏見會深植到演算法中,或是資料隱私權因此遭到侵犯。
以下的三大重點領域,說明各大組織在設計負責任的 AI 時所須注意的事項。如果您想要更詳細地瞭解本主題,請閱讀 Webex 協作 AI 副總裁 Chris Rowen 所撰寫的〈Designing Responsible AI Systems〉(設計負責任的 AI 系統)一文。
根據 Stanford 報告指出,相較一年前,2019 年對 AI 的私人投資增加了 9.3%。各公司現已體認到,AI 是為人們帶來各種體驗的關鍵要素,可在當今大多事物皆虛擬化的世界中增添便利性、現實感並提高生產力;而人們也逐漸放心地運用人工智慧、機器學習及深度學習演算法來開發技術。
但為了充分發揮 AI 的潛力,使用者也一樣必須信任它,而這要從展示符合行為準則的 AI 開始,讓其演算法產生公正持平的成果。設計負責任的 AI 須採取經過縝密思考的程序,而這會讓主事的組織得以回答多項關鍵問題,包括:
一旦這類問題獲得解決後,便是開始建立對 AI 技術的信任以及獲得使用者的信心的時候。
在此 AI 歷程中,另一項重要的考量,就是藉由種種方法和工具來確保蒐集的資料具有隱私、獲得保障且受到監管,藉此確保使用 AI 時的透明度。
在過去幾年來,對於資料和資訊的使用方式和位置,客戶和利害關係人不斷地表達其顧慮。而這也是制訂 GDPR 規範的原因,這就是歐盟對於如何安全地使用 AI 所頒佈的準則。在此繼續閱讀。
對於自行開發 AI 技術的組織而言,安全性、隱私權及合規措施是首要考量,而非事後才有的想法。如果組織沒有制定嚴謹的資安措施(能與使用者共同遵守的措施),便很難取得信任,最終難以在市場上推動其技術。組織必須能夠接受決策的必然後果,並確保第一次便能準確地評估。
要推出負責任的 AI,必須在部署後不斷地評估該技術,並進行微調。必須持續地對輸出進行評估,以確保該技術符合預期並視需要修正。也必須持續地監控,以確保風險、偏見與行為準則問題不會出現。
若要成功地推出 AI 技術,就必須制定良好的架構從旁協助:
必須注意的是,採用負責任 AI 策略需要時間,而執行這項策略需要經過審慎評估和衡量,才能確保資料隱私和安全性。
思科瞭解贏得人們對我們的技術的信任,以及保有這份信任有多麼重要。我們正積極地以一致的行動來找出最負責任的方式,開發 AI 並發揮其潛力,以及在我們技術開發和運作的所有階段中,就資安、人權及隱私權建立起強大的保護機制。
Webex 已實施各項方針並採取種種措施,來確保我們的 AI 技術受到妥善的控管和保護,並在解決方案中加入行為準則與信任機制。我們的各項功能在設計之初便考量到隱私權,並憑藉著思科領先業界的資安平台做為後盾。
我們的 AI 和機器學習計畫是以少數核心原則為指導依據:
若要深入瞭解,請閱讀我們的白皮書《Data Handling and Privacy for Cognitive Collaboration》(認知型協作的資料處理方式與隱私權),查看思科如何處理所蒐集的資料。 此外,本隱私權資料表說明了 Cisco Webex Meetings 處理個人資料(或可辨識個人的資訊)的方式。
深入瞭解