Facebook用戶在觀看一段黑人視頻時,系統會詢問用戶是否繼續收看有關靈長類動物的影片。(網絡圖片)
Facebook發言人指事件是不能接受的錯誤,已經展開調查,並就事件致歉。(美聯社圖片)
近日,Facebook用戶在觀看一段黑人視頻時,視頻下方會出現一個自動生成的提示,詢問用戶是否繼續收看有關靈長類動物的影片。
Facebook發言人指事件是不能接受的錯誤,已經展開調查,並就事件致歉,重申人工智能系統並非完美,仍有很多改善空間。
Google、亞馬遜等其他科技公司,多年來都因AI系統的偏見而受外界的批判,尤其是跟種族相關的議題。多項研究顯示,臉部辨識技術對有色人種帶有偏見,在辨認這些族群時會出現較多問題,導致黑人被歧視,或發生因電腦認錯而讓警方錯誤拘捕的事件。(編輯:梁啟星)