人工智慧大出包(下)亞馬遜搞混國會議員與罪犯

人工智慧大出包(下)亞馬遜搞混國會議員與罪犯


人工智慧大出包,亞馬遜最不願回顧的黑歷史,搞混國會議員與罪犯

人工智慧臉部辨識 不易分辨有色人種

0702-1.png
▲ 被亞馬遜「Rekognition」 臉部辨識系統錯認的 28 位國會議員
其實人工智慧 臉部辨識 有色人種時,似乎常常犯錯。如 2018 年,美國公民自由聯盟(American Civil Liberties Union,ACLU)就對亞馬遜提供的「Rekognition」 付費臉部辨識服務做了一項測試。
ACLU 蒐集了 25000 張嫌犯照片做為臉部辨識的資料庫,並使用預設的設定,讓 Rekognition 逐張比對國會議員和資料庫裡的嫌犯照片。結果,最後有 28 名國會議員被誤判,在誤判的議員中,有 40% 的議員是有色人種 ── 即便有色人種在全部的國會議員中只占了兩成。
0702-2.png
▲眾議員 Sanford Bishop(D-Ga.)被 Amazon Rekognition 臉部辨識系統錯認為罪犯
然而,「Rekognition」 臉部辨識系統也被美國警方使用。這是否會在不知不覺中侵犯到有色人種的權益?目前亞馬遜已因此問題,暫停提供這套系統給美國政府使用。
現有的臉部辨識技術,在分辨有色人種特別容易出錯,也許是以下原因導致:

AI資料庫的白人照片比較多

美國喬治城大學法律中心(Georgetown Law School Center)的隱私與科技領域資深助理 Clare Garvie 表示,原因可能是出在工程師建立 AI 人工智慧的臉部辨識資料庫時,提供的白人照片比有色人種多而導致。

開發工程師以白人居多

一個研究顯示:人們在辨識另一種族的人員時,準確度會低於辨識與自己相同種族的成員。 而大部分 IT 產業的工程師以白人男性居多,他們開發出的臉部辨識系統在辨識有色人種的準確度時,無形中也比白人還差 ── 即使他們無意為之。
其時除了臉部辨識的問題,使用人工智慧來取代真人撰寫、改編新聞,本來就爭議連連:
過去英國《衛報》曾將一則關於英國脫歐的新聞中,第一段中的一些句子餵給人工智慧,結果 AI 馬上產生「可信度高」的假新聞與文章 ── 文中的人名 (如政壇人物的名字)、地名與所提到的片段事件皆為真實存在,不過新聞的內容卻是將這些真實的元素移花接木而成,但是卻符合邏輯,因此易被有心人士用來製造假新聞。(詳細報導:AI寫作能力強過人類,恐成為假新聞製造機?)
人工智慧太會捏造新聞,甚至有人懷疑之前馬斯克離開自己創立的 AI 人工智慧研究團隊「OpenAI」與此有關呢!(詳細報導:馬斯克宣布離開 OpenAI 的真正原因是...研發的 AI 太會寫假新聞?)
無論如何,人工智慧畢竟沒有靈魂,因此沒有明辨是非的能力,所以生產出的文章都會跟現實有些出入。所以最好的方法還是把新聞的編輯、審稿工作交還給人類,畢竟這世界八卦與謊言已經夠多了!我們需要真實的東西!

本篇為下篇,上篇請點此連結




相關文章:

線上職訓正夯 從零開始花半年錄取軟體工程師

Python vs R語言:哪個比較適合人工智慧/機器學習?

台灣本土開發AI 發行首張音樂專輯<<武漢肺炎>>

六個月從工地工人轉職 Java 軟體工程師,全因半年做了「對的決定」

疫情下的人工智慧發展:AI一手包辦整張專輯"武漢肺炎"

史上第一支人工智慧威士忌勇奪金牌(下)


數位行銷,利用Python把工作變得簡單(上)

SEO八個重點筆記(8)KISS原則:全世界都愛你的網站

   八個SEO重點請牢記 ! 本篇: (8)KISS原則:全世界都愛你的網站 所謂KISS 原則 中的 KISS,其實是「Keep It Simple, Stupid.(讓它簡單、笨拙)」 的縮寫。 SEO 應該盡力保持網站文案內容的簡潔、直接。原因如下: 根據調...