OpenAI為保護未成年用戶 停止與青少年談自殺自殘調情

OpenAI為保護未成年用戶 停止與青少年談自殺自殘調情



Chat GPT開發商OpenAI宣布,將會推出措施加強保護未成年用戶,系統並會停止與青少年談及自殺問題,如果發現未成年用戶有自殺念頭,會嘗試聯絡用戶的父母或相關部門;在有懷疑的情況下,系統會把用戶預設為未成年人士,以策安全。

OpenAI行政總裁阿爾特曼發文,強調保護青少年是公司的三大原則之一,正建立一套評估用戶年齡的系統。對於18歲以下的用戶,系統會實施不同的規則,包括不會談及有關自殺、自殘或調情等的內容;如果發現未成年用戶有自殺念頭,會嘗試聯絡用戶的父母或相關部門。在有懷疑的情況下,系統會把用戶預設為未成年人士,以策安全;在部份情況或個別國家,亦可能會用求用戶提供身份證明文件。

奧特曼形容今次是困難的決定,可能有部份人不同意有關做法,但與專家商討後,認為是最佳的做法。


(圖片來源:unsplash)


相關文章