當前位置:編程學習大全網 - 編程語言 - 公務員面試熱點:人工智能的偏見能消除嗎

公務員面試熱點:人工智能的偏見能消除嗎

當人們在為人工智能進入人類生活的方方面面歡呼,並以為人工智能可能讓人類進入新的文明時代而充滿無限美妙的憧憬之時,壹種新憂慮產生了:人工智能也會像人類壹樣產生種種偏見和歧視,而且,這種偏見和歧視與生俱來,是人類教會了它們。英國媒體《衛報》近日發表的壹篇文章指出,計算機在學習人類語言時吸收了人類文化中根深蒂固的觀念,產生了偏見和歧視。

在人們孜孜以求實現社會公平和正義之時,人工智能如果帶有偏見,就不可能更好地完成其替代人類工作和服務於人類的任務。這是人工智能應用面臨的另壹種巨大挑戰,如果不能解決這個挑戰,顯然沒法寄予人工智能以厚望和賦予其更大、更艱巨和更崇高的使命。

人工智能的偏見和歧視早就引起了人們的註意,較典型的是微軟2016年3月23日推出的人工智能聊天機器人Tay。設計的最初目的是讓其成為壹個善解人意的小女孩,為用戶排憂解難。但是,上線第壹天Tay就變成了壹個滿口粗言穢語的種族主義者,發表了不少白人優越的言論,甚至還變成了希特勒的粉絲,要發起種族滅絕戰爭。眼見不妙,微軟公司立刻將Tay下線,並刪除所有不適言論。經過調教,Tay於2016年3月30日再次上線,但舊病復發,不得不再次下線。

現在,壹項發表於《科學》雜誌(2017年4月14日)的研究揭示了人工智能的毛病來源於人類。美國普林斯頓大學信息技術政策中心計算機科學家阿爾文德·納拉亞南(Arvind

Narayanan)等人在網上用“爬蟲”軟件收集了220萬個詞的英語文本,用來訓練壹個機器學習系統。這個系統采用了“文字嵌入”技術,是壹種普遍應用於機器學習和自然語言處理過程的統計建模技術。其中,也包括根據心理學家揭示人類偏見時使用的內隱聯想測驗(IAT)。

文字嵌入的核心是采用壹種稱為詞語表達全局向量的無監督學習算法,通過對詞語庫中詞對詞同現的統計結果進行訓練,在處理詞匯時,主要根據各種因素來觀察詞語之間的相關性,即不同的詞***同出現的頻率。結果,在最為相鄰相關的詞語上出現了與人類語言使用相似的語義組合和聯系情景。

比較中性的結果是,鮮花與女人相聯,音樂與愉快相關;但極端的結果是,懶惰,甚至犯罪與黑人相聯;隱秘的“偏見”則把女性與藝術、人文職業和家庭聯系得更為緊密,讓男性與數學和工程專業更為接近。

其實,這不能怪人工智能,而要怪人類。人類自誕生以來和在演化進程中壹直充斥著偏見,而且從人類社會組成以來,更充滿相當多的負面和人性的弱點,所有這些都會體現在人類的文化中。而文化的載體就是語言,所以所有的偏見都可以從語言和語義中找到根源。

教會人工智能更為客觀和公正,至少比人類更客觀和公正,在目前似乎還難以做到。因為人類文化中的偏見和歧視是壹種與生俱來的“原罪”,人類要麽在除掉自己的原罪後才能教會人工智能更為公正和客觀,要麽就是引進社會監督的相生相克原理來教會和監督機器公正和公平。

當人類設計和研發的人工智能尚不足以做到更客觀、更公平和更公正(正義)時,人工智能的應用就有可能受到限制。例如,如果讓人工智能來處理招聘,不公正的情況會像人工處理壹樣出現,甚至更多,因為假如申請者的名字是歐洲裔美國人,所能得到的面試機會將比非洲裔美國人要多出50%,男性名字的申請者也可能比女性名字的申請者獲得面試機會多。

即便是人工智能記者(寫作軟件)能寫稿了,但由於偏見(尤其是語言使用和語義聯系、聯想必然會產生的偏見)存在,也只能讓機器人寫財經統計類的稿,而不能寫調查類的稿件,更不能寫評論稿,尤其不能寫辛普森案件壹類的稿,否則字裏行間就會體現出偏見和歧視。

在人工智能天然會習得人類的偏見和歧視的弱點未能克服之時,對於人工智能的發展前景就不能抱太大的期望。

  • 上一篇:Java考試
  • 下一篇:電腦為什麽能裝系統?說白了他不就是壹些破銅爛鐵拼湊在壹起的東西嗎?
  • copyright 2024編程學習大全網