數(shù)據(jù)和算法構(gòu)成了當前信息通信技術(shù)特別是人工智能創(chuàng)新發(fā)展的關(guān)鍵要素,在其開發(fā)和利用過程中產(chǎn)生了諸多倫理風險和問題。在日前舉辦的以“加強科技倫理治理背景下的算法與數(shù)據(jù)治理”為主題的“伏羲智庫學術(shù)沙龍·數(shù)據(jù)治理前沿系列研討會”上,伏羲智庫高級顧問、清華大學文科資深教授、清華大學人工智能國際治理研究院院長、清華大學蘇世民書院院長薛瀾表示,數(shù)據(jù)、算法的倫理問題和治理問題應當區(qū)別對待。
薛瀾指出,在道理層面,人們習慣把倫理問題和治理問題放到一起討論,但其實兩者是存在差別的,需要區(qū)別對待。
薛瀾認為,倫理問題主要涉及社會行為準則和規(guī)范。以職業(yè)倫理為例,人們?nèi)フ衣蓭熁蜥t(yī)生,一定會泄露很多個人隱私。但是,很少會有人為此擔憂,因為醫(yī)生和律師都是受職業(yè)倫理和行業(yè)規(guī)則約束的。而當前人工智能面臨一些倫理問題,在很大程度上是因為人工智能技術(shù)比較新,其相關(guān)倫理規(guī)則尚未在全社會形成共識。“如果有更多的交流和討論,能夠形成被公眾普遍接受的倫理規(guī)則,那么人工智能面臨的一些倫理問題就可以部分地得到解決。”他指出,很多倫理問題并沒有絕對的對錯,人們的觀念意識不同,看法也會不同,所以倫理方面的問題可能更多的是求同存異。
“治理問題則是從公共管理角度出發(fā),對新興技術(shù)的研發(fā)和應用帶來的有社會影響的問題找到解決辦法。”薛瀾以電子游戲為例,認為其本身沒有問題,但若未成年人沉溺其中,就會給社會帶來不利影響。他認為:“怎樣能夠讓我們的產(chǎn)品或服務在改善公共福利的同時,盡可能減小潛在的不利影響,是治理需要考慮的。例如,人工智能技術(shù)的應用確實提高了政府、企業(yè)、社會等各個方面的效率,但從長遠來看,其對整個社會就業(yè)帶來的影響是治理需要關(guān)注的內(nèi)容。”
在執(zhí)行層面,薛瀾表示,存在準則、標準、規(guī)范、法律等多種治理工具,但其中最好的工具之一是市場的公平競爭,可以幫助人們解決很多問題。但這里說的治理主要是解決一般市場運行自身解決不了的問題。對算法和數(shù)據(jù)治理應當考慮以下兩點:一是關(guān)于成本和收益。行業(yè)治理和行業(yè)發(fā)展應是并行不悖的關(guān)系,如果治理成本過高,最后可能對行業(yè)發(fā)展產(chǎn)生重大的不利影響。二是關(guān)于國際競爭力。一方面對行業(yè)的治理要把國際市場的因素考慮進來。例如,有些企業(yè)如果僅僅從國內(nèi)市場看已經(jīng)是壟斷了,但如果從全球市場看,根本就排不上。另一方面,制定相關(guān)治理規(guī)則要考慮國際通行做法,特別是在立法上要格外慎重。我國不一定要走在最前面,但也不能落后。
在治理的具體執(zhí)行層面,到底是結(jié)果導向還是過程導向?“過程導向是通過設立特定規(guī)則或流程,讓企業(yè)行為符合規(guī)則,但最后效果如何有不確定性。還有一種執(zhí)行方式是結(jié)果導向,但執(zhí)行過程就不一定規(guī)范了。這也是我們下一步在落實目前出臺的有關(guān)文件時需要重點考慮的。”薛瀾如是說。
編輯:李華山