- 註冊時間
- 2012-1-6
- 積分
- 8440
- 精華
- 0
- 帖子
- 1525
- 閱讀權限
- 100
- 最後登錄
- 2024-12-11
- UID
- 5
- 帖子
- 1525
- 主題
- 739
- 記錄
- 1
- 分享
- 0
- 日誌
- 213
- 閱讀權限
- 100
- 最後登錄
- 2024-12-11
- 在線時間
- 2326 小時
|
本帖最後由 hlperng 於 2020-1-6 12:51 編輯
負責的人工智慧 (Responsible AI, RAI)
Microsoft 對於負責的人工智慧 的六項指導原則:- 公平性 (faireness)
- 可靠性與安全性 (Reliability and Safety)
- 隱私性與般全性 (Privacy and Security)
- 包容性 (Inclusiveness)
- 透明性 (Transparency)
- 負責姓 (Accountability)
負責的人工智慧框架的四個關鍵領域:
- 治理 (governance)
- 設計 (design)
- 監視 (monitoring)
- 技能再造 (reskilling)
谷歌 (Google) 提出負責的人工智慧應該具備機器學習公平性、可解釋性、隱私性、與保全性等特質,建議及實踐的實務包括:
- 使用以人為本的設計方式
- 識別訓練與監視的多重評價指標
- 直接檢查原始數據,若可能時
- 了解所使用資料集與模型的限制
- 測試、測試、再測試
- 佈署之後持續監視與更新系統
Source: https://s3.amazonaws.com/dev.ass ... le-ai-3-600x325.png
為了能夠產出可以理解和完善的輸出結果,人工智慧的學習過程必須有足夠且正確的數據與資訊。
對於負責的人工智慧的圖形技術而言,與所展示的圖形相關的所有周邊資訊所構成的內涵 (context) 是相當重要的因素。內涵不明確的人工智慧,缺乏適切的情境,無法提供更適合人類決策的有用建議。內涵有助於決策建議的可解釋性與透明性,使飲用決策建議的人可以有更好的全貌與看清楚的決策過程。
參考資料:
|
|