可選擇:人權、信念、言論…人工智能道德的基礎是什麼?

全文共1997字,預計學習時長4分鐘算法


圖片來源:pexels.com/@marcin-dampc-807808安全

在涉及人工智能的業務上,誰應成爲科技公司裏道德委員會的一員呢?微信

科技公司逐漸認識到AI改變了權力動力學。科技公司做爲AI和機器學習系統的供應者,應主動考量他們的發明將帶來的倫理影響。併發

這也解釋了他們爲什麼在未作出任何與以往科技相媲美的東西時,就公佈如《人工智能的原則》一類的前景文件。可是他們應選擇何種道德規範呢?倫理常識、原則以及判斷因時間、地點、文化而不一樣,而這些甚至可能在當地社區都沒法調和。因爲存在太多的分歧,人們在真正要警戒的AI應用上沒有劃明警惕線。框架

因爲企業不一樣於個體或政府,他們要對股東負責,所以,愈來愈多的併發症出現了。履行他們的信託義務可能意味着優先考慮增加,強調利潤,並與國際客戶合做,他們的政治忠誠在民主—威權統一的連續統一體中不一樣。機器學習

能夠理解的是,這就致使人們對企業道德的誠意產生懷疑。每當科技公司談及道德倫理,評論家們就開始擔心,他們認爲這是公司爲避免強硬的政府管制並贏得商譽的手段。該手段只有空洞的口號,卻幾乎與遵照法紀不沾邊。所以當科技公司創建外部人工智能倫理委員會時,該委員會可能被視爲自私的、「道德洗白的」面子工程。學習

憤世嫉俗老是合乎情理的。畢竟這些公司一面兜售透明化,一面推崇「阻止透明化的貿易語言」。它們被指責向那些總不公開企業資金的倫理研究員提供支持。一個重大的案例顯示,這些公司對倫理委員會的成員祕而不宣。若是科技公司想創造有意義的倫理實踐,他們得請正確的人到倫理委員會並給他們賦權,這樣才能提出公開建議,使企業對透明規則負責。人工智能

圖片來源:pexels.com/@belart84設計

人權和人工智能倫理orm

經過決策設計、戰略實施以及意外後果,AI有可能影響整我的類生活。在軍事、執法、銀行業務、刑事司法、就業,甚至產品的交付情境中,算法系統能經過自動化歧視、恐嚇公共演說及會議、限制獲取信息的渠道方面威脅人權。

意識到這些問題後,AI治理的主要框架將人權做爲基礎來制定措施,其中包括歐盟委員會發布的可信賴的《AI倫理指導》、《AI經濟合做及發展原則組織》、《社會責任下的AI企業:一份以權力爲基礎的企業藍圖》、《數據及社會中的統治者AI:捍衛人權和尊嚴》,以及《AI時代中的人權准入》。

人權是不完美的理想,它屈從於互相沖突的解釋,也植根於有「過於宏大理想」的議程中。人權理論上應普及全球,但其實並不是在各地受重視。然而,聯合國發佈的《世界人權宣言》倒是迄今爲止最好的聲明,它創建了全面的社會、法律平等,以及根本的我的自由。電子電氣的工程師機構正確地指出,即便在多元的倫理傳統中,人權也是可行的基準。

「不管倫理實踐是西方的(亞里士多德學派或康德學派),東方的(神道教或孔子學派),非洲的(班圖精神),或是來自一個徹底不一樣的傳統,只要創造出自動化且智能的系統,使其能確切地尊重人權和使用者的效益價值,人類福祉的提高就會成爲重中之重,並做爲算法時代人類進步的度量。」

科技公司應歡迎這一標準,明確地致力於實現更包容、具備保護性的人權解釋,並將其做爲企業戰略在AI系統方面的基礎。這些公司應邀請那些承認廣泛人權的人加入AI倫理委員會。

從倫理角度衡量AI的影響時多樣化很重要,這點尤爲體如今最邊緣化人羣中。但委員會不該該包括那些參與邊緣化的表明。一旦選好了委員會的成員,科技公司必需要求這些專家在任期內嚴守人權承諾。若是正當程序顯示一位委員說了或作了與人權相悖的言論或事情,不管其職位高低或成就如何,他/她應被除去職務。道理就是這麼簡單。懲罰很重但合理,且抑制了「數字倫理消費」,即企業玩忽職守,經過吸引可塑的倫理基準爲現狀正名。

誰的人權?

聯合國《世界人權宣言》第4條款稱任何人都不得處爲奴隸。誠然,如今這一條款在倫理上毫無爭議。然而據國際勞工組織(ILO)估計,在2017年,有2500萬人是強制勞動和奴隸制的受害者,其中包括非法性買賣、童子軍以及家政、建築、農業勞動力。因此若是這樣理所應當的人權都是人們求之不得的,那些更復雜的議題,如第16條款中結婚的權利將面臨更大的挑戰。

LGBTQ(包括女同性戀者、男同性戀者、雙性戀者、跨性別者、疑性別者、雙性別者)是世界上最易受攻擊的羣體之一,他們在全部方面都遭到管制,包括有限的就業機會(第23條款)及社會機會(第22條款)、性取向轉化療法,甚至遭受折磨(第5條款)。那些將同性關係及性別錯位定爲犯罪的國家會發現,這羣人中患精神疾病率更高。另外同性婚姻也一直是各地很有爭議的話題,它常與以宗教爲基礎、限制性人權概念聯繫在一塊兒。

當谷歌任命美國傳統基金會主席凱·科爾·詹姆斯爲科技資訊委員會委員時,一些批評家,包括有些是來自谷歌的批評家提出反對,他們認爲谷歌在迎合共和黨人。谷歌的AI原則是這場辯論的焦點,由於它保護企業的承諾,即避免創造或使用「目的與普遍接受的國家法律及人權原則相悖的科技」。詹姆斯認爲跨性別個體不符合她對人類性別的想法,反對LGBTQ,且帶領傳統基金會長期支持「傳統」婚姻,她如何能讓谷歌對其既定的理想負責呢?

一樣地,谷歌邀請科爾到委員會這一舉動正是默認了其在LGBTQ上的觀點,這無心間傷害了邊緣化羣體。就算詹姆斯將她矛盾的觀點放置一邊,在委員會開會時仍堅守與本身理念有部分衝突的公司理念,邊緣化羣體受到的傷害也沒法被抹去。

諮詢委員會的爭端代表,谷歌的AI原則太含糊,不能做爲一份清晰的政策聲明。除此之外,這份原則包含許多警告,使得公司在與政府或企業合做時漏洞百出,於是沒法全面致力於人權事業。若是一家公司不認可、不接受基於人權的AI原則帶來的經濟影響,那麼它聲稱的價值觀是毫無心義的。評論家將公正地審判這家公司,它將道德觀的呼籲做爲公關形象來作生意已經是常態。

可是谷歌仍值得讚揚。亞馬遜的股東最近舉行了強制投票,內容是關於公司不顧潛在的人權侵犯,將人臉識別技術賣給政府機構。儘管終止銷售的議案失敗了,但呼籲人權原則的股東應受到讚賞。假設亞馬遜已擁有完備的AI倫理委員會,且領導者能認真傾聽委員會的意見,那麼公司的戰略可能就會和谷歌的同樣:谷歌稱將人臉識別系統賣給政府還爲時過早。美國公民自由協會的尼科爾·奧澤讚揚了谷歌的道德標準。

圖片來源:pexels.com/@belle-co-99483

多樣化言論及人權

評論家將抗議,若是科技公司堅持對人權有更包容的解讀,那麼委員會表明多元觀點的能力會被削弱。從倫理上衡量AI的影響力時,尤爲在最邊緣化及受傷害的人羣中,多樣化是關鍵。然而委員會不該包括那些支持邊緣化的人。

有些人不一樣意人類的內在價值和平等,簡單地挑出這些局外人不是極端的排外。

致力於人權事業的人們已經表明了全面的觀點和經驗。他們在如何肯定優先事項、運用原則上有分歧。多樣化和人權是互補的,由於人權羣體並不是是統1、想法一致的。那些受影響的也並不只是人們的成見,而是有血有肉的人,或生活自己。有些人不一樣意人類的內在價值和平等,簡單地選出這些局外人並不是極端的排外。而要理解,偵查仇恨言論的需求等同於反對自由言論這一根本權利,這纔是極端的排外。

中和另外一種反對意見,堅持倫理委員會的成員不斷支持這些權利,徹底不會影響自由言論。企業言論畢竟不是政府言論,在政府管控以外有許多時候人們不能自由地發表意見,或至少是有懲罰性後果的。

企業的社會媒體政策經過禁止負面的品牌或員工滿意度表現,來控制員工的言論。運做正常的媒體將以倡導爲基礎的爭論(如這個產業導向性陳述)限制意見部分,並有相應準則以免在某些問題上出現虛假平衡,如氣候變化或疫苗安全等問題。人們廣泛認爲大學與政府同樣,有着相同的準則來保護言論。然而哪怕在大學,也不是全部言論都受到保護的。

事實上,選擇那些強烈推崇人權的個體有可能增強自由言論。緣由是許多人權原則明確地包含了對自由表達的保護。相反,不推崇人權的人會招致攻擊。

當評論家抱怨人權是壓制保守觀念的藉口時,他們是虛僞的。涉及AI領域的科技公司只有拒絕偏狹、拒絕對公司奉承迎合,才能成爲有擔當的全球角色。具體來講如拒絕把「思想上的多元化」這一願景變爲武器,這實際上容許倫理委員會減小或從新定義人人應受保護的根本人權。

對人權的根本承諾應帶來更好的倫理決策,以完善以AI爲基礎的系統。首先,這份承諾警告了公司,若是公司沒法強有力地證實它們的努力能與人權保護共存,它們就不該參與如下業務,如致命的自動化武器、政府評分系統以及政府的人臉識別系統。這份承諾還沒有開始解決AI在不顯眼的灰色地帶中創造的一系列不可預見的後果。在更多人被影響以前,人們都應獲得科技的保證,即它們會以保護根本權利和自由爲目的來開展AI服務。

留言 點贊 關注

咱們一塊兒分享AI學習與發展的乾貨

歡迎關注全平臺AI垂類自媒體 「讀芯術」

(添加小編微信:dxsxbb,加入讀者圈,一塊兒討論最新鮮的人工智能科技哦~)

相關文章
相關標籤/搜索