当前位置 - 股票行情交易網 - 金融財經 - 信也科技王春平:價值觀在前的人工智能算法發展

信也科技王春平:價值觀在前的人工智能算法發展

9月27日,由瑪娜數據基金會主辦的“促進人工智能算法性別平等”報告發布會暨政策研討會在上海舉行,聯合國婦女署駐華辦公室高級項目官員馬雷軍、上海市浦東新區婦女聯合會副主席國雲丹、瑪娜數據基金會秘書長張唯、瑪娜數據基金會課題組專家負責人周旅軍、專家況琨,以及小米集團 科技 委員會技術向善議題召集人朱汐、信也集團首席算法科學家王春平、Thought Works(中國)數據智能團隊解決方案架構師任添石等各界嘉賓出席了本次會議,***同探討如何促進人工智能算法中的性別平等。

作為金融 科技 企業信也 科技 集團的代表,也是在人工智能領域取得優秀成就的女性從業者,王春平博士在會上闡述了其對於人工智能在研究、應用中對於數據倫理、性別平等的觀點與建議。

人工智能時代加速,促進性別平等即發展大前提

人工智能自1956年被提出以來,短短60余年的時間中,這項科學技術的飛速發展給人類 社會 帶來了不小的變化。人工智能算法是以數學方式或計算機代碼表達的意見,由算法模型和數據輸入決定著預測的後果。

隨著人工智能時代的加速到來,人類將生活在壹個算法無所不在的世界,隨著算法決策開始介入並主導人類 社會 事務,算法對人類的生活和未來都將產生不可估量的影響。基於此,由算法偏見可能帶來的倫理風險也開始引起人們重視。單就性別角度而言,由於目前人工智能領域目前仍處於男性主導的狀況,使得人工智能算法在日常應用中不自覺就容易出現 “性別歧視“的爭議。

據當日發布的《促進人工智能算法性別平等》報告(後文簡稱《報告》)介紹,目前人工智能算法的諸多應用場景中均存在壹定的性別歧視現象。以人工智能開放平臺為例,壹張“端著水果籃的男性”圖片被AI人臉識別平臺檢測為“女性”,單獨截出頭像卻能夠被檢測為“男性”。在就業場景中,2018年亞馬遜公司的自動招聘算法傾向於給關鍵詞含“女”字的簡歷打低分,降低了女性工作申請成功率,最後棄用了該招聘算法。

信也 科技 首席科學家王春平表示:“人工智能算法的基礎是數據,但在實際生活中因為種種原因,沈澱下來的很多數據分布是有偏的,從而可能將 社會 中的壹些偏見滲透進算法中。作為人工智能算法的女性從業者,我認為需要通過多種方式去消除這些偏見。”

消除偏見與歧視,數據算法從業者新課題

2019年,國家新壹代人工智能治理專業委員會發布《新壹代人工智能治理原則——發展負責任的人工智能》,提出了人工智能治理的框架和行動指南,明確提出要在數據獲取、算法設計、技術開發、產品研發和應用過程中消除偏見和歧視。該委員會近日又發布了《新壹代人工智能倫理規範》,第十三條特別強調避免偏見歧視,在數據采集和算法開發中,加強倫理審查,充分考慮差異化訴求,避免可能存在的數據與算法偏見,努力實現人工智能系統的普惠性、公平性和非歧視性。

“算法中存在性別歧視問題,主要源於訓練AI的數據集反映了人類 社會 存在的性別偏見,而算法工程師對這壹問題缺乏意識,未將解決性別偏見納入開發需求,從而使得算法放大了性別歧視。“瑪娜數據基金會課題組專家況坤表示。

據《報告》中專題 社會 調研的數據顯示,58%的人工智能算法從業者不知道算法當中存在的性別偏見問題,73%的從業者不知道存在專門針對女性的惡意算法。從業者對算法性別平等的意識及能力亟需提升。

王春平博士表示,“對於在人工智能算法中盡可能地促進性別平等,我們認為首先需要從研發者的意識與環境培養開始。比如在信也 科技 集團內部,我們有很多公司政策都在保證並促進不同性別員工得到平等的機會。比如說我們會有比較完善針對人工智能領域或數字化應用相關的培訓課程,這些課程包含了業務場景、算法學習、工程化落地,會開放給所有職位的員工,並且會盡可能地幫助公司內部對於人工智能算法有興趣的員工參與壹些實驗性的創新項目,為其提供平等的崗位機會。我們認為保障女性員工獲得公平的職業機會,為算法開發團隊營造沒有明顯兩性區分的環境,並有意識消除算法工程師們的性別偏見,對於人工智能算法在應用中盡可能實現性別平等是有益的。”

商業與倫理的平衡,價值觀在前的人工智能算法未來

人工智能算法獨特的運行邏輯導致人們 社會 生活的結構性場景發生了重大變化,加劇了決策者與相對人之間的“數字鴻溝”,人工智能算法獨特的運行邏輯正在深刻地改變著以往的生產方式和生活方式,並與人的行為形成了支配關系。這也表示,人們的行為可以借助於數據算法來預測甚至被改變。

對於企業來說,人工智能算法的準確為商業行為的執行提供了準確的預判,但同時算法發展帶來的倫理問題、性別歧視問題同樣也是企業需要考慮的問題。

王春平博士認為,目前為止,人工智能算法在應用中反映的依然是相關性,在開發過程中考慮的因素與得到的決策結果之間,很大程度上只是相關。在很多應用裏,性別可能是被引入的壹個帶有相關性的幹擾項,如何排除偏見,公平地看待不同的性別,但是又不會影響到最終的商業判斷準確性,具有不小挑戰。目前這個問題已經引起了重視,有很多從不同角度試圖解決這個問題的嘗試,比如基於因果推理理論,尋找與期望預測結果擁有直接因果關系的因素;通過創新性地構造特征表征空間,抑制某些帶有偏見的因素,比如由於性別帶來差異。

“雖然很多時候,基於商業行為,我們很難判定部分情況下算法在偏好與偏見之間的界限,但是在算法的創新開發過程中,作為人工智能算法工程師如果擁有正確的價值觀,就能盡可能提前審視並察覺歧視偏見的存在,很好地利用對於算法的不斷更新去調整它帶來的問題,這是我們作為算法開發者的使命與責任,也是人工智能算法發展的重要前提。” 王春平如是說到。

信也 科技 作為國內領先的金融 科技 企業之壹,壹直致力於推進 科技 應用與 社會 發展的互相融合與發展,尤其是在人工智能領域,信也 科技 通過在開發過程中納入 社會 性別多元化視角,盡己所能為促進算法中的性別平等而努力。作為企業,信也 科技 致力推動在內部技術開發中的客觀認識和理性反思,從而更好地促進 科技 發展。未來,信也 科技 將繼續通過技術的不斷創新,以確立正確價值觀,助力促進人工智能時代的性別平等。