- 以自動化系統核准或拒絕房貸申請是否可能帶有種族偏見?
- 警方使用臉部辨識系統逮捕嫌疑犯是否合理?
- 開發人員能否蒐集使用者資料,用以訓練視訊會議的語音辨識系統?
對於 AI 倫理和社會責任等相關問題,科學界和工程界始終處於微妙的立場。一方面,物理定律或數學等式本身其實並未挾帶任何價值觀,對於人類道德議題並無提供任何闡釋。但另一方面,科學和工程絕不可能在無生命的抽象世界中運作,科學和技術知識的相關應用皆不可能脫離人類活動。所有人類活動都會產生道德倫理方面的後果,而在這個立論觀點上,主張工程師必須承擔社會和倫理責任可說相當合理。然而,若未思考系統會如何促進或傷害隱私、安全、平等、選擇自由等重要人權,就無法稱得上是負責任的工程師。隨著機器學習和資料導向的人工智慧問世,對於科技在社會中扮演的角色,大眾的疑慮其實有增無減。
我們應如何正視 AI 倫理問題,選擇以負責任的方式打造機器學習系統呢?
首先,我們應初步瞭解以機器學習為基礎的設計涉及哪些面向,並釐清這些面向為何引發爭議。機器學習的核心概念在於,詳盡的函數並非由一段軟體程式碼描述,而是從眾多可預期行為的實際例子歸納學習而來。準備的訓練資料可以很明確,將指向目標輸出結果的多種輸入資料結合在一起(監督式學習);也可以使用預期結果來展開較隱晦或持續性的訓練,而預期結果可能隱含在輸入資料中(非監督式學習),或由一系列成功輸出結果的獎勵指標來定義(增強式學習)。一般而言,透過訓練學習而來的行為模型會以基礎函數的形式,部署在「推論」系統中,使用者實際輸入的資料會進入該模型,因此系統可以透過運算得到與訓練中習得的行為模式相近的結果。
思考何謂負責任的 AI 時,應考量機器學習函數的哪些 AI 倫理問題?就某種程度而言,相較於透過傳統程序式程式設計方法開發出來的軟體,機器學習類型的軟體其實大同小異。所有軟體都重視偏見、隱私、公正性、透明度和資料保護等問題,但機器學習方法相對較少人瞭解,而機器學習又需要大量的訓練資料,有時還要能夠淺顯易懂地說明。基於這些特性,我們有必要更進一步探究 AI 倫理在這個領域所扮演的角色。
打造負責任 AI 設計原則的關鍵考量
以下列舉幾個重要的 AI 倫理核心問題。其實這些問題時常相互重疊,但從多個角度探討負責任的設計,亦無傷大雅:
- 偏見:函數對待不同個人的方式,是否涉及不公平、非故意或不恰當的偏見? 系統是否針對實際應用上的使用者分佈情形進行設計和訓練?面對受法律保護的個人特徵時,系統的設計、實作和測試能否有效防止發生任何偏見?
- 隱私:個人是否需要揭露更多超出規定範圍的個人資訊,函數才能順利完成訓練及運作?該隱私資訊是否受到完善保護,不會在未經授權或不當的情況下外流?
- 透明度:函數行為是否獲得充分瞭解、測試和書面說明,當系統採用此函數時,相關的系統開發人員、使用者和其他適當審查人員均可確實理解?函數實作後產生的行為能否決定一切,在重複提供相同的輸入資訊後,得到相同的輸出結果?
- 安全性:函數的訓練和實作是否提供任何保護,以防資料遭到擷取,或產品遭不當移轉、濫用或揭露?這些資料可能包含具有隱私疑慮的個人資訊,以及可能涉及所有權與合約允許用途等問題的非個人資料。
- 社會影響:除了與偏見、隱私、透明度和安全性相關的明確疑慮之外,廣泛部署這項技術會對社會帶來哪些直接和間接的影響? 是否會促進或阻礙意見交流?是否會推升暴力或濫用情形的發生機率?是否會傷害環境?這類 AI 倫理議題實在沒有明確答案,因為我們無法期待任何設計和部署團隊完全瞭解其工作成果的所有間接影響,尤其在部署多年、範圍遍及世界各地的情況下,更是如此。然而,若能投入心力設法預估長期的負面影響,或許能鼓勵團隊在其系統中設計風險降低措施,或改採其他技術策略,以減少對社會明顯不利的影響。
這樣的 AI 倫理問題清單一開始可能看似過於模糊抽象而難以實行,但業界已成功部署開發指南,尤其在系統安全和資料隱私方面,該指南可以充當範本,具有實用功效。思科長久以來位居資料安全系統設計的龍頭地位,因此該架構理所當然成為 Webex 打造負責任機器學習系統的起點。歐洲的《一般資料保護規範》(GDPR)同樣提供了保護「自然人基本權利和自由」的架構,其中的幾個實用原則值得我們在思考機器學習系統時借鏡。
支持 AI 和倫理的其他考量要點
在思考具有警覺性的負責任 AI 系統設計的過程中,我發現以下三個實用概念,在探究工程師的社會和倫理責任時尤其應該銘記在心:
- 負責任機器學習的開發過程。機器學習的潛在應用範圍十分廣泛,訂定統一的開發流程顯然不切實際。模型類型、訓練系統、評估指標和部署目標的創新速度奇快無比,狹隘的制式指引很快就會不合時宜。因此,我們期待能建立一套提供明確檢查重點的 AI 倫理指南,讓開發人員和其他人員得以檢視工作成果,以確認重大問題均已經過充分思考,而且關鍵的設計決策也已妥善記載。也就是說,系統可能必須通過特定測試,才能進入後續的部署作業。
- 考量後果。設計師和實作人員必須清楚瞭解 AI 倫理,並明白系統經過訓練所獲得的決策能力會產生什麼影響。他們必須認同一個事實:機器學習函數做出的決策時常會對使用者或後續的其他個人造成實質影響。有時候,決策重大而明確,例如房貸申請是否核准通過或遭到拒絕?另外有些決策雖然較小,但依然會造成深遠影響。舉例來說,如果視訊會議系統採用語音品質改善函數,而該函數在經過訓練後,將一般女性的音量調整至低於男性 2 %,長久下來,這套系統可能就會在不知不覺中產生日益惡化的負面影響,削弱女性在職場的影響力和貢獻。
- 訓練資料和預期用途資料的統計差異。機器學習必須使用大量且多元的輸入資料來訓練系統,以處理所有可預期的情況。最終系統統計行為的最大決定因素,就是訓練資料集的統計設計。舉語音系統為例,其指定分佈中可能包括美國人、英國人、澳洲人、西班牙裔等英語使用者的目標百分比,以及南亞、中國、歐陸和其他區域英語使用者的目標百分比。其他目標百分比也可能包括高低頻的聲音、不同年齡說話者的聲音、不同空間的語音殘響程度,以及不同類型與相對振福的雜音。對於目標使用者的分佈情形,開發人員應確切理解並妥善記錄,並應建立符合目標用途的訓練和測試方法。此外,開發人員應思考目標使用者規格中可能缺少哪些項目,例如是否涵蓋受法律保護的各種特徵(種族、國籍、性別、宗教等等)。處理這項問題並非易事,因為使用情況往往涉及太多相關的可能面向。開發人員應廣泛測試更多特徵,而非侷限於起初訓練中所鎖定的項目,同時心中預期可能發現系統對某些特徵差異較為敏感,而必須新增資料或調整資料的分佈情形,這樣在所有目標使用情況下才能達到充分的效果。
負責任 AI 的設計仍在初期發展階段。我們仍需進一步釐清潛在的缺失,瞭解在預防形成偏見、犧牲隱私權、妥協透明度、遺失資料和造成重大社會影響等方面,還有哪些地方需要改善。不過,若在討論、設定規格、訓練、部署和維護等方面都能有意識地注重 AI 倫理,即可開始推動改變,讓這類強大技術值得信任和仰賴。
立即申請免費試用 Webex,實現更優質的團隊協作和視訊會議技術體驗。
瞭解詳情
支援未來工作型態的最新 Webex 人工智慧功能
協作型 AI 最新發展:推動混合工作模式的新未來
提升混合工作模式與客戶體驗