中新經(jīng)緯12月21日電 (張燕征)近日,清華大學社會科學學院社會學系、中國科學院學部-清華大學科學與社會協(xié)同發(fā)展研究中心主辦了“倫理立場、算法設計與企業(yè)社會責任”研討會。清華大學公共管理學院副教授陳玲在研討會上指出,可從數(shù)據(jù)、算法、人類行為三個層面入手,建立一個“可接受公平”的整體框架,關注算法治理的起點、過程和結果公平,促進AI的創(chuàng)新發(fā)展和善治。
清華大學公共管理學院副教授陳玲。來源:主辦方供圖
“不管哪個國家、經(jīng)濟體或產(chǎn)業(yè)部門,各方都把公平作為算法治理的一個起點性要求,但實際上關于什么是算法公平,大家卻沒有共同可接受的內容?!标惲嵴J為,公平有不同的定義,至少應先建立一個基礎框架,從共識的角度去理解“可接受公平”。
公平可分為起點公平、過程公平、結果公平,陳玲建議針對不同階段的公平來制定相應的公平準則?!袄?,我們將數(shù)據(jù)作為起點公平的對象,首先我們希望用于訓練算法模型的數(shù)據(jù)集本身是完整的,數(shù)據(jù)集不偏向于男性或女性、白人或黑人等。其次,數(shù)據(jù)集應當是開放的、用戶可以自己選擇進入或退出數(shù)據(jù)集。若數(shù)據(jù)集完整且開放,至少可以在最低限度上保證算法的起點公平?!标惲岱Q。
在陳玲看來,算法程序的透明、可追溯、可問責,有利于促進算法的過程公平。例如通過企業(yè)內設的算法倫理委員會或外部監(jiān)管機構,可以核查、追溯到算法任意模塊或環(huán)節(jié)的問題,進而確定每一個模塊或環(huán)節(jié)的可問責對象,這可以在最低限度上確保算法的過程公平。
“結果公平是人們最直觀、最樸素的公平訴求。人們看到的算法推薦或AI決策,希望這些是可計算、可預期和可解釋的?!标惲崤e例稱,很多時候人們可以接受一些歧視定價或者專門推薦,比如保險的差別定價,本質上是因為它符合人們的預期,而不是結果均等?!八裕惴ㄍ扑]結果的可計算、可預期、可解釋,而不是決策結果的均等化,是結果公平的最低起點?!?/p>
那么如何建立一個可接受公平的整體框架?在陳玲看來,可從數(shù)據(jù)、算法、人類行為三個層面入手?!皵?shù)據(jù)的完整性、準確性、開放性,算法的透明、可追溯和可問責,結果的可計算、可預期、可解釋,這是大家可接受的公平底線;那些尚存爭議或技術上有待解決的部分,可以作為算法公平的調適區(qū)間,隨著調適水平提高,算法公平的共識底線也可以逐步提高。”
那么,算法公平的規(guī)則體系具體該如何落地?陳玲表示,法律提供了一個最低限度的公平底線,算法倫理的要求往往高于法律。可以從私法、公法、全球秩序三個層面來研究現(xiàn)有法律體系的規(guī)制現(xiàn)狀,找到可接受公平的共識起點。
“全球立法或治理規(guī)定,對我們有兩點啟示:一是在中國國內現(xiàn)有的法律和行政法規(guī)體系下,建議推出不同層面的策略,包括算法公平政策、虛假信息準則、可信的透明度準則等;二是兼顧創(chuàng)新和數(shù)字經(jīng)濟的發(fā)展,尊重客觀的現(xiàn)實條件,吸引更多的工程師和不同領域的專家參與到規(guī)則制定過程中?!标惲岱Q。(中新經(jīng)緯APP)
中新經(jīng)緯版權所有,未經(jīng)書面授權,任何單位及個人不得轉載、摘編或以其它方式使用。