Google宣布聊天機器人Gemini暫停生成人像圖片,在種族議題上過度政治正確引發批評

Google宣布聊天機器人Gemini暫停生成人像圖片,在種族議題上過度政治正確引發批評
Photo Credit: GettyImages

我們想讓你知道的是

過去人工智慧在生成人種圖片而面臨歧視問題,Google就曾被指控沒有呈現足夠的有色人種,或是未能正確地評斷有色人物種的圖像。因此團隊積極修正後而誕生的Gemini AI也引發外界批評是否成為過度正確的「覺醒AI」(woke AI)。

《路透社》報導,Google昨(22)日宣布暫停其開發的聊天機器人Gemini AI生成包含人像的圖片,因Gemini在生成有關過去歷史上的圖片時,出現了不夠精確的情形而引發爭議。

生成與歷史不符的人物影像 Google緊急暫停Gemini

Google於2月初透過Gemini AI模型以提供影像生成服務,然而僅經過數天便出現許多使用者在社群平台上反映,該模型生成的人像圖片與過去歷史是不吻合的。

《紐約時報》報導,有名使用者便在社群平台X發布一則貼文表示,他對Gemini AI下的指令為生成「一張1943年二戰期間的德國士兵」,一開始被系統拒絕。因此他便有意地拼錯句子中的士兵一字以迴避偵測,而Gemini產生了多張有色人種穿著納粹時期制服的士兵。

《The Verge》的報導中,也有使用者要求生成美國開國元勳的圖像,但卻得到了非白人的影像結果,明顯地與歷史事實不符。

此外,也有使用者要求Gemini生成華人或黑人伴侶的影像皆成功產生,但當指令改為白人伴侶時卻遭到拒絕。且Gemini回應使用者:「基於特定種族和膚色因此無法產生影像,這是為了避免有害的刻板印象與偏見長存。」

Google也緊急地於昨日在社群平台X上道歉,並發表聲明。Google在聲明中說到:「Gemini AI生成大範圍的人像,總的來說這是一件好事,因為世界各地的人都在使用它,但目前Gemini還沒有達到目標。」Google宣布暫停Gemini生成有關人的影像,並修正在人物描述生成上所遇到的問題,並且會盡快釋出更新後的版本。

過去人工智慧曾觸犯種族問題

生成式AI在過去面臨不少爭議,一年前,當Google發布生成式聊天機器人Bard AI時,因為在宣傳影片中分享了不夠準確的太陽系外星圖片,而導致股價下跌高達9%。經過修正後,Google重新將其命名為Gemini並推出了付費訂閱制度,使用者可以透過AI模型獲得更精確的生成結果。

《BBC》報導,2015年Google也曾因為旗下的照片應用軟體Google相簿(Google Photo��,誤將一張包含兩位黑人的照片標記成猩猩而道歉。Google也關閉此應用程式將任何影像分類為猩猩、猴子或猿類的功能,包含真正的動物本身,而這項政策持續到目前仍在進行。

同時,Google也持續減少可能會冒犯到使用者的生成結果,同時也致力於提高代表性,像是在圖像搜尋中針對如醫生和商人等專業人士時,出現更多樣化的結果。

一直被Google視為競爭對手的OpenAI也被指控過延續有害的刻板印象,有使用者發現其影像生成器Dall-E在生成有關執行長的圖片時,男性白人的圖片主宰了多數回答。

「覺醒AI」是否真的矯枉過正?

過去人工智慧在生成人種圖片而面臨歧視問題,Google就曾被指控沒有呈現足夠的有色人種,或是未能正確地評斷有色人物種的圖像。因此團隊積極修正後而誕生的Gemini AI也引發外界批評是否成為過度正確的「覺醒AI」(woke AI)。

《NBC》報導,許多科技專家對於各大公司努力讓AI更具有包容性持批評態度,認為Gemini即是覺醒AI的典型例子。因為Gemini會在種族上生成多元化圖像,便是源自於人們長期以來對人工智慧模型含有種族偏見的擔憂,尤其是缺乏少數民族和有色人種的代表性。

但Gemini對於種族多元性上的努力被批評是「走得太遠了」。具有影響力的科技通訊網站Stratechery,其作者湯普森(Ben Thompson)說:「你直接地拒絕描繪白人。」電腦科學家達斯(Debarghya Das)則是說:「令人尷尬的是,要讓Google Gemini承認白人的存在是非困難的。」

新聞來源

延伸閱讀

【加入關鍵評論網會員】每天精彩好文直送你的信箱,每週獨享編輯精選、時事精選、藝文週報等特製電子報。還可留言與作者、記者、編輯討論文章內容。立刻點擊免費加入會員!

核稿編輯:楊士範