您好,登錄后才能下訂單哦!
人工智能已經風靡整個行業。它正在傳播具有高度先進技術痕跡的寶石,并以其簡單的觸感,改變了科技世界的面貌。隨著它為捕捉不同行業鋪平道路,它影響最新趨勢和激動人心的復雜性,最終給營銷人員,開發人員和創意藝術家帶來巨大壓力。
然而,由于有關人工智能算法的一些令人震驚的更新已經浮現在行業中,科技巨頭之間激起了許多相互矛盾的觀點和判斷。據報道,人工智能算法被認為會產生種族主義和偏見的歧視。
AI驅動的算法以無數的方式影響著我們的生活。從提供表明您遇到麻煩的技術,在駕駛時潛伏在您附近,識別您的聲音并滿足您的所有需求,而您甚至無需移動手指。由于其廣泛的方法和不可逾越的好處,它幫助設計師創建令人難以置信的創意設計和開發人員,以生產可以像人腦一樣的設備。今天,AI機器人被用作為維基百科等偉大網站撰寫合法文章的客戶支持的重要來源。
當我們揭示人工智能給世界及其人民帶來的各種優勢和貢獻時,很難相信它也會產生如此嚴重的歧視。在許多主要報道中,人工智能驅動的機器人被視為刺激歧視行為。請在下面詳細了解它們:
面部識別軟件現在已經成為一個受關注的話題,因為它正在傳播性別消除。根據IT研究提出的研究,當識別具有較暗膚色的人的面部時,該系統的執行效率較低。與此同時,亞馬遜也忽略了人工智能招聘系統,因為它是以性別中立的方式對候選人進行評級而不是承認他們的專業知識。隨著這些問題開始在科技行業引起轟動,許多領先的專家提出了他們對類似問題的觀察和研究。像Cathy O'Neil和Virginia Eubanks這樣的專家推出了他們的暢銷書籍“數學毀滅武器”和“ 自動化不平等” 分別以令人難以置信的發現轟動了整個行業。
PredPol被用于美國的幾個州 - 一個識別犯罪率較高的地方的系統被采取行動,以減少人類的偏見。然而,在2016年,根據人權數據分析小組提出的調查結果,“該軟件可能會使警方不公平地對某些社區收費。”
添加另一個支持的研究來證明這一點,提出了2012年的研究由電氣和電子工程師協會(IEEE)表示,由于警方偵察行動的一部分,關于面部識別工作僅相機犯罪嫌疑人達5-10%,這在識別非裔美國人時表現得最不準確。這項偉大的研究清楚地表明了對無辜黑人公民的巨大歧視。
Centrelink債務追回軟件的新案例引發了許多嚴重指責,即人工智能是造成人類偏見的因素。超過18個月,人們被錯誤地定位。超過20,000名福利受助人被指控債務,后來被發現幾乎沒有錢。由于系統中發現了一些嚴重的缺陷,這個巨大的問題被觸發了。
最近發生的一些事件突出了AI算法寫得不好的事實。Facebook注冊時可能不會歧視其13億會員; 然而,在2018年2月,Facebook允許營銷人員根據關于哪類人可以查看這些廣告的標準上傳有針對性的廣告,包括種族,性取向,宗教和種族的差異。
此外,在另一個帳戶上,當微軟Tay,編程為學習內容的人工智能聊天機器人,人們在模仿人類對話時發推文時,新聞得到了支持。當Tay 因為許多惡意巨魔變成“ 一個充滿希特勒的骯臟機器人 ” 時,事情出了問題。
此外,早在2015年,一項研究表明,谷歌搜索首席執行官的圖片僅占11%的女性,而在美國,首席執行官職位的比例恰好為27%。再過幾天,一項新的研究顯示,男性申請人獲得了所有高薪工作。Anupam Datta 在匹茲堡的卡內基梅隆大學展示了這項研究。根據Datta的說法,Google算法將男性視為最適合所有高薪工作和領導職位的申請人,從用戶的行為中學習。
2016年3月,舉辦了一場大型選美比賽,來自印度和非洲的60多萬男女參加了比賽。參與者被要求發送他們的自拍,三個機器人應該判斷事件。機器人被編程以比較演員和模特的面部特征。盡管在結果公布時收集了超過50,000家餐館,但據觀察,近44名獲獎者是白人。青年實驗室的研究人員在研究情況后表示,機器人拒絕考慮光線不良影響的黑皮膚人物的照片。他們沒有用算法來判斷更暗的膚色。
在計劃盲目依賴機器學習系統之前,深入了解算法。它可能被證明是非常有益的,同時也是傳播人類偏見的一個原因。
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。