沐鳴測速註冊_這是真“學廢了”!AI已經學會了性別歧視:重男輕女

  綜合來看,關於AI算法中含有性別、種族歧視的案例並不鮮見,但要消除這些偏見並非易事。就如微軟紐約研究院的高級研究員Hanna Wallach此前所說:只要機器學習的程序是通過社會中已存在的數據進行訓練的,那麼只要這個社會還存在偏見,機器學習也就會重現這些偏見。,  CNMO了解到,早在2019年,聯合國教科文組織便發表了一份題為《如果我能,我會臉紅》的報告,指出當時大多數AI語音助手存在性別偏見。,

ChatGPT,  據媒體報道,清華大學交叉信息研究院助理教授於洋,曾在去年帶領團隊做了一個針對“預測某種職業為何種性別”的AI模型性別歧視水平評估項目。測試模型包含GPT-2,即ChatGPT的前身。結果显示,GPT-2有70.59%的概率將教師預測為男性,將醫生預測為男性的概率則為64.03%。,  【CNMO新聞】最近,ChatGPT的爆火又讓AI(人工智能)的話題擺在了大家的面前。關於AI技術的現狀和前景,不少科技圈大佬都發表了自己的看法。不過,看起來無所不能的AI,似乎已經在某些方面開始走彎路了。據CNMO了解,根據模型測試,AI已經學會了性別歧視,而且還是很常見的“重男輕女”。