個人資料私隱專員公署表示,鑑於人工智能日漸普及,同時存在私隱及道德風險,署方今日(8月18日)發出《開發及使用人工智能道德標準指引》,旨在協助機構在開發及使用人工智能時,能明白及遵從《個人資料(私隱)條例》的相關規定。
私隱專員鍾麗玲表示,指引建議機構開發及使用人工智能時,奉行尊重、互惠及公平三項基本數據管理價值去對待持份者。
指引根據國際標準,列出七項人工智能的道德原則,包括機構應確保在人工智能運作時,有適當的人為監督;同時, 機構應披露它們正使用人工智能及相關的政策,且致力改善自動化和人工智能輔助作出的決定的可解釋性(interpretability)。
此外,機構應具備有效的數據管治;機構使用人工智能時應避免出現偏見及歧視;機構在使用人工智能時,應為持份者帶來益處及減低對持份者造成傷害;以及應確保人工智能系統能可靠地運作,能夠處理錯誤,並得到保護而免遭攻擊。
(圖片來源:Pixabay)