對於 AI 倫理和社會責任等相關問題,科學界和工程界始終處於微妙的立場。一方面,物理定律或數學等式本身其實並未挾帶任何價值觀,對於人類道德議題並無提供任何闡釋。但另一方面,科學和工程絕不可能在無生命的抽象世界中運作,科學和技術知識的相關應用皆不可能脫離人類活動。所有人類活動都會產生道德倫理方面的後果,而在這個立論觀點上,主張工程師必須承擔社會和倫理責任可說相當合理。然而,若未思考系統會如何促進或傷害隱私、安全、平等、選擇自由等重要人權,就無法稱得上是負責任的工程師。隨著機器學習和資料導向的人工智慧問世,對於科技在社會中扮演的角色,大眾的疑慮其實有增無減。
我們應如何正視 AI 倫理問題,選擇以負責任的方式打造機器學習系統呢?
首先,我們應初步瞭解以機器學習為基礎的設計涉及哪些面向,並釐清這些面向為何引發爭議。機器學習的核心概念在於,詳盡的函數並非由一段軟體程式碼描述,而是從眾多可預期行為的實際例子歸納學習而來。準備的訓練資料可以很明確,將指向目標輸出結果的多種輸入資料結合在一起(監督式學習);也可以使用預期結果來展開較隱晦或持續性的訓練,而預期結果可能隱含在輸入資料中(非監督式學習),或由一系列成功輸出結果的獎勵指標來定義(增強式學習)。一般而言,透過訓練學習而來的行為模型會以基礎函數的形式,部署在「推論」系統中,使用者實際輸入的資料會進入該模型,因此系統可以透過運算得到與訓練中習得的行為模式相近的結果。 思考何謂負責任的 AI 時,應考量機器學習函數的哪些 AI 倫理問題?就某種程度而言,相較於透過傳統程序式程式設計方法開發出來的軟體,機器學習類型的軟體其實大同小異。所有軟體都重視偏見、隱私、公正性、透明度和資料保護等問題,但機器學習方法相對較少人瞭解,而機器學習又需要大量的訓練資料,有時還要能夠淺顯易懂地說明。基於這些特性,我們有必要更進一步探究 AI 倫理在這個領域所扮演的角色。
打造負責任 AI 設計原則的關鍵考量
以下列舉幾個重要的 AI 倫理核心問題。其實這些問題時常相互重疊,但從多個角度探討負責任的設計,亦無傷大雅:
社會影響:除了與偏見、隱私、透明度和安全性相關的明確疑慮之外,廣泛部署這項技術會對社會帶來哪些直接和間接的影響? 是否會促進或阻礙意見交流?是否會推升暴力或濫用情形的發生機率?是否會傷害環境?這類 AI 倫理議題實在沒有明確答案,因為我們無法期待任何設計和部署團隊完全瞭解其工作成果的所有間接影響,尤其在部署多年、範圍遍及世界各地的情況下,更是如此。然而,若能投入心力設法預估長期的負面影響,或許能鼓勵團隊在其系統中設計風險降低措施,或改採其他技術策略,以減少對社會明顯不利的影響。
這樣的 AI 倫理問題清單一開始可能看似過於模糊抽象而難以實行,但業界已成功部署開發指南,尤其在系統安全和資料隱私方面,該指南可以充當範本,具有實用功效。思科長久以來位居資料安全系統設計的龍頭地位,因此該架構理所當然成為 Webex 打造負責任機器學習系統的起點。歐洲的《一般資料保護規範》(GDPR)同樣提供了保護「自然人基本權利和自由」的架構,其中的幾個實用原則值得我們在思考機器學習系統時借鏡。
支持 AI 和倫理的其他考量要點
在思考具有警覺性的負責任 AI 系統設計的過程中,我發現以下三個實用概念,在探究工程師的社會和倫理責任時尤其應該銘記在心:
負責任機器學習的開發過程。機器學習的潛在應用範圍十分廣泛,訂定統一的開發流程顯然不切實際。模型類型、訓練系統、評估指標和部署目標的創新速度奇快無比,狹隘的制式指引很快就會不合時宜。因此,我們期待能建立一套提供明確檢查重點的 AI 倫理指南,讓開發人員和其他人員得以檢視工作成果,以確認重大問題均已經過充分思考,而且關鍵的設計決策也已妥善記載。也就是說,系統可能必須通過特定測試,才能進入後續的部署作業。
考量後果。設計師和實作人員必須清楚瞭解 AI 倫理,並明白系統經過訓練所獲得的決策能力會產生什麼影響。他們必須認同一個事實:機器學習函數做出的決策時常會對使用者或後續的其他個人造成實質影響。有時候,決策重大而明確,例如房貸申請是否核准通過或遭到拒絕?另外有些決策雖然較小,但依然會造成深遠影響。舉例來說,如果視訊會議系統採用語音品質改善函數,而該函數在經過訓練後,將一般女性的音量調整至低於男性 2 %,長久下來,這套系統可能就會在不知不覺中產生日益惡化的負面影響,削弱女性在職場的影響力和貢獻。
Chris is a Silicon Valley entrepreneur and technologist known for his groundbreaking work developing RISC microprocessors, domain-specific architectures and deep learning-based software.