【獵云網(wǎng)(微信號:ilieyun
)】2月11日報道(編譯:何棄療)

編者注:本文的作者Linda Kinstler是Protocol的特約編輯。她的特寫出現(xiàn)在《連線》、《商業(yè)周刊》、《衛(wèi)報》、《1843年》等雜志上。她曾是《政治歐洲》的特約編輯和《新共和》的執(zhí)行主編。
企業(yè)在他們的工作流程中加入了倫理思考,但是倫理的結(jié)局是可選的。
在Salesforce Tower的52層樓下,我在一間鑲玻璃的會議室里見到了Paula Goldman。會議室掛著一個拼布彩旗橫幅,上面清楚地寫著“平等辦公(EQUALITY OFFICE)”。
Goldman在普林斯頓大學(xué)獲得了碩士學(xué)位,在哈佛大學(xué)獲得了博士學(xué)位,在博士期間她研究的問題是關(guān)于那些有爭議的想法是如何成為主流的。一年多前,她來到了Salesforce公司,出任該公司有史以來第一位首席倫理及人性化使用官(Chief Ethical and Humane Use Officer),這是一個前所未有的、定義含糊不清的職位,主要的工作是:確保Salesforce能讓世界變得更好,而不是更糟。
Goldman表示:“我認為我們正處在這個行業(yè)的轉(zhuǎn)折點上,我覺得科技行業(yè)在80年代也有過類似的經(jīng)歷,當時的網(wǎng)絡(luò)安全系統(tǒng)突然出現(xiàn)了病毒,人們需要一種全新的思考問題及處理問題的方法。在那之后,行業(yè)發(fā)展不斷地壯大。而現(xiàn)在,這只是標準協(xié)議。如果不確保主要產(chǎn)品擁有正確的安全保護措施,你就無法交付產(chǎn)品?!?br>
她表示:“我認為,我們在倫理方面也處于類似的時刻。它不僅需要一套工具來完成工作,還需要一套規(guī)范,這一點很重要。那么,你是如何衡量這些標準呢?”
我問她這些規(guī)范最初是如何決定的。
“從某種意義上說,這是一個價值數(shù)十億美元的問題,”她說,“所有這些問題都是極其復(fù)雜的,只有極少數(shù)問題的答案是絕對清楚的。對嗎?很多東西都可以歸結(jié)為,在你的微積分中,你認為哪些值是最高的?”
在劍橋分析丑聞、員工罷工以及其他政治和隱私事件之后,科技公司面臨著一系列的監(jiān)管。他們不斷地雇傭來自數(shù)據(jù)與社會研究所(Data&Society Research Institute)被稱為“倫理所有者(ethics owners)”的研究人員,這些人負責(zé)以實用且可被證明的方式展開與倫理相關(guān)的辯論。
在Salesforce員工抗議該公司參與特朗普政府的移民工作之后,Salesforce從Omidyar Network那把Goldman挖到自己麾下,這也是該公司長達七個月的危機管理工作的一個高潮。其他的科技公司為了應(yīng)對各自的危機和擔(dān)憂,也紛紛聘請了一小批類似的專業(yè)人士——哲學(xué)家、政策專家、語言學(xué)家和藝術(shù)家——所有這些都是為了確保讓他們不作惡的承諾有與之相匹配的行動。
那后來發(fā)生了什么?
盡管一些科技公司已經(jīng)采取了具體措施,將倫理思考融入他們的流程,但倫理咨詢公司Doteveryone的臨時首席執(zhí)行官Catherine Miller表示,圍繞這一主題也出現(xiàn)了很多“搖擺不定”的情況。
批評人士認為這是一種“倫理洗禮(ethics-washing)”,即為了避開政府監(jiān)管和媒體批評而向倫理價值觀低頭的行為。這個詞是越來越多的科技倫理詞匯集合中的一個,簡稱“tethics”,最初是電視節(jié)目Silicon Valley中的諷刺用語,但后來偶爾也被媒體認真地使用。
圣塔克拉拉大學(xué)(Santa Clara University)馬庫拉應(yīng)用倫理學(xué)中心(Markkula Center for Applied Ethics)的技術(shù)哲學(xué)家Shannon Vallor說:“如果你不把這些東西應(yīng)用到實際的操作中,或者應(yīng)用到你的激勵機制中,如果你沒有審查流程,那么,它就變成了倫理的蒸氣。這是你承諾過并打算兌現(xiàn)的東西,但它從未真正實現(xiàn)。”
聲名狼藉的谷歌成立了一個人工智能委員會,然后在員工抗議加入反LGBTQ倡導(dǎo)會之后,于去年4月解散了這個委員會。如今,谷歌對倫理的態(tài)度包括使用旨在解釋其人工智能的“模型卡(Model Cards)”。
“那不是什么有實質(zhì)性用處的東西,”Enigma的數(shù)據(jù)倫理學(xué)家、丹佛大學(xué)的哲學(xué)教授Michael Brent說?!斑@就像是一張非常漂亮的卡片。”
科技公司們已經(jīng)做出了更實質(zhì)性的努力:Vallor剛剛在谷歌出了一次差,在那里她向工程師講授了倫理問題,并幫助該公司實施產(chǎn)品開發(fā)的治理結(jié)構(gòu)。Vallor告訴我:“當我在組織環(huán)境中談?wù)搨惱頃r,我經(jīng)常采用的方式是,幫助人們和組織履行對他人的責(zé)任,教會他們一些倫理知識和倫理技能。”
超過100名谷歌員工參加了在Markkula中心開展的倫理培訓(xùn)。該公司還開發(fā)了一個公平模塊,作為其機器學(xué)習(xí)速成課程的一部分,并在每季度更新其“最佳人工智能實踐”清單。Vallor說:“這些公司的絕大多數(shù)員工都希望生產(chǎn)出對人們有益的產(chǎn)品。他們真的不想破壞民主,也不想對人類福祉造成威脅,更不想減少人們對社會現(xiàn)實的了解和認識。他們想做出讓自己引以為傲的東西。所以我要盡我所能來幫助他們實現(xiàn)這個目標。”
Vallor工作的Markkula中心是以“默默無聞”的蘋果聯(lián)合創(chuàng)始人Mike Markkula Jr.的名字命名的。1986年,Mike Markkula Jr.給了該中心一筆啟動資金,就像他當初向年輕的Steve Jobs提供了一筆啟動資金一樣。他從不希望自己的名字出現(xiàn)在大樓上,他希望這筆錢就像是一個驚喜,一種對母校的感恩。
Markkula已經(jīng)從Woodside一處豪華宅邸里搬了出來,過著平靜的生活。如今,他和他創(chuàng)辦的公司也已經(jīng)沒有太多聯(lián)系,“只有當我的電腦出了問題時,我才會叫人來幫忙,”他告訴我。但是,早在80年代中期,當他和女兒一起來到圣克拉拉大學(xué)校園參加新生培訓(xùn)時,他是蘋果公司的董事長,他對硅谷的現(xiàn)狀感到擔(dān)憂。他說:“我和Linda(他的妻子)都很清楚,有相當多處于決策崗位的人根本就沒有倫理意識。這并不是說他們不道德,他們只是沒有任何與倫理相關(guān)的工具可以使用?!?br>
在蘋果,他花了一年時間起草公司的“蘋果價值觀”,并撰寫了該公司著名的營銷理念(“移情、專注、灌輸”)。他說,在創(chuàng)業(yè)之初,有很多時候,他不得不做出艱難的倫理抉擇,但“幸運的是,我是管理公司的人,所以我可以做任何我想做的事情?!?br>
他說:“如果在今天,我還要管理蘋果、管理谷歌,我想我會需要耗費大量的時間。我在很多事情的處理上會和之前完全不同,其中一些與哲學(xué)、倫理有關(guān),有些則與20年后我們對世界的看法有關(guān)。”
Markkula應(yīng)用倫理中心是技術(shù)倫理覺醒浪潮中最重要的聲音之一。在其網(wǎng)站上,它提供了一份關(guān)于技術(shù)倫理的匯編,包括一個工具包,一個“最佳倫理實踐”列表以及一個應(yīng)用程序。
這些工具中的每一個都試圖以一種工程師們能夠快速理解和實施的方式,來將倫理哲學(xué)的基本原則付諸實踐。但Markkula中心的執(zhí)行主任Don Heider很快就承認,“這是一場艱難的斗爭?!彼f:“我得說,普通員工對它的態(tài)度比高管更開放?!?br>
即使在Salesforce,像Yoav Schlesinger(該公司負責(zé)人工智能倫理實踐的領(lǐng)導(dǎo)人)這樣的實踐者也擔(dān)心這會對他們的團隊征收“倫理稅”——這一倫理要求可能需要“繁重的工作”,并會減緩他們的發(fā)展進程。
在Goldman的指導(dǎo)下,該公司推出了一套工具和流程,以幫助Salesforce員工和客戶“有效地拓展他們的倫理想象力”。正如Schlesinger所說,該公司提供了一個教育模塊,培訓(xùn)開發(fā)人員如何構(gòu)建“可信的人工智能”,并組織員工關(guān)注倫理問題。他說:“我們的基本任務(wù)不是教授倫理學(xué),也不是教授道義論與康德主義或功利主義的倫理學(xué)方法——這可能不是我們的工程師所需要的。人們需要的是倫理風(fēng)險識別方面的培訓(xùn),如何識別風(fēng)險,以及當你從過程角度(而非倫理角度)看待風(fēng)險時,你該如何應(yīng)對。”
Goldman也認為:“這并非不從倫理角度出發(fā),我們關(guān)注的更多的是實踐,‘你該怎么做’,而不是理論?!?br>
該公司還創(chuàng)建了可解釋性功能、機密熱線和受保護字段,這些字段警告Salesforce客戶端,郵政編碼等數(shù)據(jù)與種族高度相關(guān)。他們已經(jīng)完善了可接受的使用政策,以防止他們的電子商務(wù)平臺被用來銷售各種各樣的槍支,防止他們的人工智能被用來在法律決策中做出最后的決定。倫理和人性化使用團隊在辦公時間里,員工可以順便來問問題。他們還讓自己的團隊參與由Doteveryone的研究人員開發(fā)的一項名為“結(jié)果掃描(consequence scanning)”的活動。
團隊被要求回答三個問題:“這個產(chǎn)品或功能的預(yù)期和非預(yù)期后果是什么?我們想要關(guān)注的積極后果是什么?我們希望削弱哪些后果?”整個過程被設(shè)計成適應(yīng)敏捷的軟件開發(fā),盡可能減少干擾。就像目前正在使用的大多數(shù)倫理干預(yù)措施一樣,它并不是真的要讓事情慢下來,或者改變企業(yè)的運作方式。只是在幫助企業(yè)小心“倫理稅”。
前軟件工程師、現(xiàn)任Markkula中心媒體倫理主任的Subbu Vincent說:“沒人會碰運行代碼,工程師們總是希望在這個處理數(shù)十億用戶的軟件系統(tǒng)上投入新的努力如果他們不這樣做,就可能會結(jié)束他們的職業(yè)生涯。”
這就是問題所在。這些方法雖然出發(fā)點是好的,也有潛在的影響力,但它們往往表明,道德是可以量化的東西。想要生活在一個更道德的生活中,僅僅需要坐下來接受適當數(shù)量的培訓(xùn)和鍛煉。
Data & Society的研究人員Jacob Metcalf表示:“值得注意的是,正在出現(xiàn)的解決方案使用的語言是,‘我們會適應(yīng)你已經(jīng)熟悉的東西?!麄儾粫f,‘也許不要對用戶數(shù)據(jù)如此貪婪,也許你不需要使用這些剝削性的方法來擴大規(guī)模。’他們并沒有強迫房間里的人改變多樣性?!?br>
Metcalf最近與同事Danah Boyd和Emmanuel Moss一起,對17名來自不同公司的“倫理所有者”進行了調(diào)查。一位工程師告訴他們,科技界的人“還沒有被倫理打動”。一位高管告訴他們,市場壓力阻礙了他們,“如果我們遵守這些甚至不存在的規(guī)則,那么我們就會處于劣勢。”與他們交談的“倫理所有者”都在嘗試用不同的方法解決問題,但他們往往試圖推動從其他領(lǐng)域?qū)W來的簡單、實用的解決方案,比如清單和教育模塊。
研究人員寫道:“通過將倫理界定為一個困難但容易處理的技術(shù)問題,并使之適用于熟悉的方法,倫理所有者能夠招募他們認為需要的技術(shù)和管理專家,作為‘做倫理’項目的正式參與者。然而,在用于構(gòu)建問題的相同模型中構(gòu)建解決方案本身就是一種失敗?!?br>
如果倫理真的“降臨”到一家公司,它通常會悄無聲息地降臨,最理想的情況則是無形的。Doteveryone的代理首席執(zhí)行官Miller說:“成功是不好的事情沒有發(fā)生,這是一個非常難以衡量的事情?!痹谧罱鼘τ萍脊ぷ髡叩囊豁椪{(diào)查中,Miller和她的團隊發(fā)現(xiàn),28%的人曾看到過他們認為會對人類或社會產(chǎn)生負面影響的科技決策。其中,五分之一的人因此離開了自己的公司。
Enigma是一家位于紐約市的小型商業(yè)數(shù)據(jù)和情報初創(chuàng)公司,該公司的所有新員工都必須與身為該公司首位數(shù)據(jù)倫理官的哲學(xué)教授Brent進行一系列會談。
在這些會談上,Brent打開幻燈片說:“好了,各位?,F(xiàn)在我們將用一個小時的時間來介紹過去2400年提出的,基于歐洲的,極具影響力的道德理論?!?br>
這個會議的想法是,從頭開始是找出前進道路、提出新答案的唯一途徑。他說:“我們正在研究的理論顯然還沒有直接應(yīng)用到這些新問題上。所以這取決于我們,對吧?我們是必須解決問題的人?!?br>
與他共事的工程師們——“25歲,剛畢業(yè),年輕,才華橫溢”——不可避免地會問他,所有這些關(guān)于道德和倫理的討論,在旁觀者看來,是否只是主觀的。他們來到他的辦公室,請他解釋。他說:“到最后,他們會意識到,這不僅僅是主觀主義,也沒有客觀的答案,要適應(yīng)那個灰色地帶?!?br>
Brent在哥倫比亞大學(xué)攻讀博士學(xué)位時,在哲學(xué)課上遇到了Enigma的創(chuàng)始人Marc DaCosta和Hicham Oudghiri。他們很快成為了朋友,后來受邀加入了他們的公司。不久后,Enigma的一位數(shù)據(jù)科學(xué)家叫他過來看一份個人名單和個人資料?!拔耶敃r想,哇,然后我問:你打算怎么處理這些數(shù)據(jù)?它是從哪里來的?我們?nèi)绾伪WC它的安全?顯然,這位工程師還沒有意識到他有權(quán)獲取這些身份信息。我想,好吧,讓我們談?wù)勅绾握_使用它?!?br>
事實上,Brent和其他許多像他一樣的人,都在這個房間里問這些問題,這是一個有意義的轉(zhuǎn)變。受過訓(xùn)練的哲學(xué)家們正在與企業(yè)進行咨詢,并共同撰寫報告,闡述在一個充滿未知的世界里構(gòu)建不可預(yù)測的技術(shù)時,在倫理上采取行動意味著什么。
另一位在一家大型科技公司工作的人文博士告訴我,他最終在團隊中采取的干預(yù)措施,往往包括讓同事們少做一些他們正在做的事情,并以更清晰、更準確的方式表達想法。他說:“這很難,因為要真正制造這些產(chǎn)品,完成我們的工作,所有的機器學(xué)習(xí)都是圍繞著數(shù)據(jù)建立的。你現(xiàn)在真的無法避免,有很多地方要?!F(xiàn)在基本上很難做好我們的工作?!?br>
但對于每一個進入這一領(lǐng)域的專業(yè)人士來說,都有同樣多的——也許更多的——被Reid Blackman(一位出任倫理咨詢專家的哲學(xué)教授)稱為“熱情的業(yè)余人士”的同事?!澳阒茉獾墓こ處焸儠P(guān)心倫理問題,但不知何故,他們把關(guān)心和專業(yè)知識混淆了。然后他們把自己包裝成,比如說,人工智能倫理學(xué)家,但他們肯定不是倫理學(xué)家。我看到他們寫的東西,聽到他們說的東西,這些都是我在倫理學(xué)導(dǎo)論課上的新生們會說的話,我必須糾正他們?!?br>
其結(jié)果是,涉入這個領(lǐng)域就會遇到一個真正的巴別塔。最近對來自世界各地的84項人工智能倫理準則的研究發(fā)現(xiàn),“在所有文件中,似乎沒有一項倫理原則達成了共識,盡管圍繞以下原則出現(xiàn)了趨同趨勢:透明度、公正與公平、非惡意、責(zé)任和隱私?!?br>
在某種程度上,這也是一個地緣政治問題:每個國家都希望自己的人工智能道德規(guī)范成為贏家。Miller說:“所有這些人工智能倫理原則的提出,都是為了支持特定的世界觀,以及‘好’是什么的特定理念?!?br>
“現(xiàn)在還為時過早,”Goldman說,所以人們會用不同的詞匯來談?wù)摰赖聜惱?,這并不奇怪。“領(lǐng)域就是這樣創(chuàng)建的,我相信安全也會是這樣產(chǎn)生的?!?br>
我問她和Schlesinger,如果Salesforce的客戶決定無視他們在系統(tǒng)中處理的所有道德警告,使用可能導(dǎo)致有偏見的結(jié)果的數(shù)據(jù),會發(fā)生什么。Goldman停頓了一下。問題是,倫理在這一點上仍然是你可以選擇的。Schlesinger解釋說,Salesforce的系統(tǒng)現(xiàn)在的設(shè)計目的是讓客戶“有機會決定他們是否想要使用這些代碼,我們真的相信,客戶應(yīng)該被授權(quán)使用所有的信息來做出他們的決定,但是他們的用例只能服務(wù)他們的目標?!?br>
同樣,在Enigma,該公司的聯(lián)合創(chuàng)始人和領(lǐng)導(dǎo)團隊可以選擇不聽取Brent的建議。他說:“我會說,好吧,我認為開發(fā)這類產(chǎn)品存在道德風(fēng)險。但你們是賺錢的人,所以你們可以決定自己愿意承擔(dān)多大的風(fēng)險,這是一種商業(yè)主張。”