近期由多倫多大學和麻省理工學院的計算機科學家團隊進行的實驗發現,當前AI模型的設計存在嚴重問題,可能給人類帶來災難性后果。這是因為使用描述性標簽訓練的AI系統往往做出比人類更為苛刻的決定。
隨著AI已經廣泛滲透到我們生活的方方面面,如語音助手提醒、健康機器人診斷、判決算法建議監禁時間等,未來幾乎所有領域都將由算法作為守門人。然而,如果AI算法的訓練存在缺陷,那么在申請租房、貸款、手術或工作等方面,頻繁被拒可能并非純粹的倒霉,而是因為背后的公司在AI算法訓練方面存在問題。
研究人員通過一系列實驗發現,人們在附加描述性標簽和規范標簽時有時會給出不同的反應。具體而言,描述性標簽強調客觀陳述,而規范標簽則包含價值判斷。他們在一項實驗中使用了狗的圖像數據集,其中一組參與者對數據附加描述性標簽,另一組對規定禁止侵略性狗的政策有所了解并附加規范標簽。
結果顯示,那些不知道公寓規定但被要求評論侵略性的描述性標簽者相比那些知道規定并附加規范標簽的人,無意中判定了更多的狗違反了規定。這一實驗結果對人類生活的方方面面都有著深遠的影響,尤其是對于不屬于主導子群體的人群。
比如,在設計評估博士申請者的算法中,如果數據偏向某一類人,算法可能會將高分、名校背景、種族為白人定義為成功的標志,從而繼續強化社會中的偏見和不平等。目前,這一問題在我們周圍已經普遍存在,比如在美國廣泛使用的定罪算法被發現錯誤地認定黑人被告更有可能再犯罪,盡管事實證明相反。
這種問題不僅限于種族,還包括性別、種族和年齡等方面的偏見,而AI算法的決策卻比人類的判斷更為危險,因為它們不僅僅是復制已有的社會偏見,還可能產生比社會偏見更糟糕的結果。研究人員強調,這種相對簡單的AI數據集標注過程如果不當,可能成為一個時鐘炸彈,導致不可逆轉的后果。
在這個算法主導的時代,關鍵是要及早糾正這一問題,以避免對人類生活造成嚴重影響。
文章內容僅供閱讀,不構成投資建議,請謹慎對待。投資者據此操作,風險自擔。
海報生成中...
海藝AI的模型系統在國際市場上廣受好評,目前站內累計模型數超過80萬個,涵蓋寫實、二次元、插畫、設計、攝影、風格化圖像等多類型應用場景,基本覆蓋所有主流創作風格。
IDC今日發布的《全球智能家居清潔機器人設備市場季度跟蹤報告,2025年第二季度》顯示,上半年全球智能家居清潔機器人市場出貨1,2萬臺,同比增長33%,顯示出品類強勁的市場需求。