AI人工智能管理框架

權力意味着新的責任算法

過去人們會研究一個過程,它的輸入和輸出,而後編寫能夠自動化該過程的代碼。構建此類軟件是以數字形式獲取知識產權的一種形式,直到如今它一直是一種主要由人類驅動的認知任務。現在AI正在編寫本身的軟件,從噪聲中提取信號,本身搞清楚不少規則; 它正在承擔數字化編碼世界的認知任務。人工智能正在完全改變可自動化的內容以及能夠部署的規模。隨着新的領域出現,也帶來了新的責任那就是就是確保人工智能正在爲正確的目標服務。安全

現代的人工智能能夠找出對應的模式,而後對對象進行分類,作出決策並評估結果。它可使用反饋循環學習和適應新狀況。這是很是棒的軟件。不須要花一分錢去請人作分析,而後在花錢請人去作一個軟件,而後花錢請人去驗證你的結果,最後發現到它沒有達到你的預期,再返回去調整軟件。這整個週期在大型組織中可能須要數年時間,但由人工智能驅動的設計合理的流程能夠在幾天內完成。它能夠自我從新編碼,推演變化,並驗證它是否其實是朝着你想要的方向移動 - 全部這些都是以超出人類能力的準確性和速度進行的。這至關強大。但也至關具備威脅性。網絡

這種新方法正在之前所未有的規模向組織引入新的風險。編寫代碼的方式是顯示數據示例,而不是本身編寫或編輯系統。此時,對結果的監控很是少,由於當前的數據治理領域僅涉及數據自己的質量,完整性和安全性。另外一方面,人工智能管理更普遍地關注數據中的信號及其驅動的結果。架構

與人爲驅動流程的數據相比,人工智能的運營流程有時會比過去好10倍或更快,從而致使之前從未見過的場景。僅從價值的角度來看,這可能會有些問題。但若是在向特定的消費羣體銷售的方面會變得超級高效,雖然可能會將本身鎖在裏面,而忘記掉市場的其餘部分。因此你的模型是否關注到這些問題?框架

負責管理新資訊系統的機構主要有三個工做重點:工具

  1. 準肯定義代理要解決什麼問題和目標,以及應該尋求的結果。這包括正確的績效指標,以及應提取的IP(洞察力,世界模型等)以及用戶和供應商之間的全部權梯度。
  2. 協調驅動模型學習和改進的反饋循環,從原始集合到結果解釋以及與其餘智能系統洞察力的鏈接。
  3. 評估風險,找出代理系統可能出錯的全部點。模型將在流程的每一個階段如何進行自我評估?如何監控自動化系統以確保它作正確的事情的?

讓人工智能學習和執行汽車的基本功能同樣都是很是簡單的。挑戰在於它是否能夠在全部不一樣的背景下這樣作,例如不斷變化的道路條件,暴風雨的天氣,行人等。使用數據示例進行編碼能夠大大下降成本,但仍須要大量的人類的聰明才智來考慮如何應用它,管理人工智能系統的工做將更多地考慮人工智能是否正在處理全局。而管理價值創造和風險是治理框架的目的。性能

因此,我認爲對人工智能的管理從內到外都應該是可信的,而這裏有一我的工智能管理的框架:單元測試

自我管理的水平學習

0.分離測試

你的組織中有一些活動是人工智能所不知道的。你須要將這些考慮到你的風險評估中,甚至分離的活動最終也會如何鏈接起來。例如:人工智能系統能夠分析10年前製做的手寫筆記或舊的商店視頻片斷獲取相關信息。

1.觀察

觀察是人工智能的基本實現之一,它收集和分類信息以驅動其餘進程。它在觀察什麼,關注什麼或忽略的是什麼?它收集的信息鏈接到哪些進程?示例:有一種人工智能系統能夠觀看一場冰球比賽並記錄一些數據,包括人類沒法看到的統計數據,例如支票的力量。

2.指導

指導就是在人工智能不採起行動的狀況下提出建議。人工智能訓練仍然能夠發揮強大做用,必定程度上歸功於咱們對人類行爲的瞭解。舉個例子:假如我在作脫口秀,而攝像機在看着觀衆,人工智能就能夠分析他們的肢體語言以判斷他們是否感到無聊。它還能夠告訴我觀衆喜歡什麼和不喜歡什麼,何時我能夠嘗試講另外一個笑話。

3.合做

在這種狀況下,機器還不能徹底的自動化運行,但仍然能夠驅動大部分的場景。舉例:在保險索賠處理中,人工智能能夠進行60%或70%的自動化任務。這意味着許多任務都是由人工智能完成的,而人類則處於任務中進行處理和分析其餘30%的任務。

4.自主

當一我的工智能代理徹底進行自我管理時,事情就會進行的特別快了,以致於人類沒法參與到這裏面來。人工智能將會調整系統、監控結果和提供反饋。示例:這就比如是今天網絡安全或高頻機器人交易的大部份內容,機器以超出任何人類監督的速度自行制定大量的策略。

對不一樣的組織來講,對這些自我管理的水平進行分類也會有所不一樣,但這體現了它的普遍範圍。

工業中的AI治理框架

如下是我對每一個類別的含義解釋。每一個組織都須要爲每一個部分考慮本身通常的原則,但也要將它們單獨應用於每一個代理,針對特定狀況制定具體規則。出於我的考慮,我將添加代理的角色、部署的需求、要注意的風險,對抗性治理模型的參數,以及它如何與更普遍的、現有的公司治理相關聯(尤爲是圍繞數據和道德)。

性能

人工智能須要按照說明書的說法去作。也就是說,它須要正常運行並知足指望。只有可以以可預測和準確的方式執行的人工智能纔可以得到對其提供的實際結果的信任。

準確性

準確性是指人工智能的信心和能力,正確的將一個或多個數據點分類爲正確類別的能力,以及基於這些數據點和分類作出正確預測,給出建議或決策的能力。準確性是相對的。您但願肯定在給定的上下文中對你的業務或產品有多大程度的準確度。若是你預測呼叫中心的每分鐘的呼叫,70%準確率就已經不錯了,但若是你試圖預測雜貨店本週的銷售狀況,70%那可能就有點糟糕了

誤差

誤差在系統中存在的方式有不少種,並且永遠都沒法徹底消除。全部數據都是經過某種偏見,意圖或對重要事物的世界觀來收集的。在許多狀況下,能夠在收集階段消除不須要的誤差。鑑於數據老是帶有某種誤差,這也是一個在模型中對其進行覈算和控制的問題。重要的是要確保誤差不足以將結果影響到對業務有害的結果。根據應用程序和環境的不一樣,有幾種方法能夠抵消AI中的誤差,包括添加更多不一樣的數據集和輸入,以及確保正確描述目標的子目標。

完整性

完整性的概念與「平衡」密切相關,儘管它沒有包含太多有害的結果,而是缺乏一些有用的信息。不完整的人工智能會丟失一些數據的輸入,而這些數據的輸入會阻止它有效的執行任務。例如,一個交通應用程序預測擁堵模式,但缺不考慮天氣的影響。是一個特定的關注領域,須要適當的自我管理水平。

安全性

爲了保護性能,人工智能須要確保過程、數據和結果的安全性。令人工智能不會受到敵對的數據、不可預見的場景、外部影響以及可能對其決策能力產生負面影響的操做的影響。

適應性

這是人工智能處理不斷變化的狀況的能力。若是我要推出新產品和對手競爭,那麼預測產品的可靠性以及調整人員配置的決策有多可靠?一個適當能夠適應條件的人工智能能夠在新的狀況下用於相同的案例。肯定閾值的有效措施多是在部署以前就能夠看到的狀況的數量和多樣性。足夠多的的邊緣案例將代表該模型將隨着時間的推移而擴展,而且應該按期添加到訓練方案中。

對抗性強

一種特定類型的適應性是針對試圖破壞模型的代理(人或人工)。這基本上是網絡安全的重點。經過將人工智能暴露給具備惡意或甚至是目標不一致的各類狀況或代理,組織能夠在部署後遇到這些狀況和代理以前作好準備。

隱私

在用戶交互的全部時刻都須要保證隱私。這包括用戶輸入的全部信息,以及在與人工智能交互過程當中生成的有關用戶的全部信息。

IP獲取

知識產權是許多人工智能開發組織商業模式的核心。IP獲取的參數須要與他們驅動的業務價值掛鉤,以確保獲取了正確的東西,但他們還須要肯定誰擁有什麼。須要在供應商,員工,組織和最終用戶之間明肯定義這些知識產權。什麼構成「正確」的權利分配取決於具體的環境,並意味着就數據的控制和全部權概念達成一致,而目前尚未對此達成一致。在GDPR世界中,這些決定也須要愈來愈多地被披露。

受影響的用戶

經過定義這些IP的權利,任何支持人工智能的組織都須要注意不一樣信息的使用方式,以及影響不一樣級別的用戶。跟蹤數據流(即數據的來源和去向)及其在組織內外的使用數據流對於保證隱私相當重要。須要有適當的機制容許用戶將數據帶到別處(可移植性)或刪除他們的數據(被遺忘的權利)。

透明度

只有在正確溝通的狀況下,才能創建對系統的信任。若是沒有關於價值觀、流程和結果的透明度,那麼信任的建設將會是有限的。

可解釋性

關於可解釋性,咱們目標不該該是暴露咱們用於得到某種結果的算法的精確內部技術工做。相反,咱們的目標應該是揭示爲何知足或不知足當前應用程序的某些標準。例如:自動駕駛汽車沒有看到一個小路標而撞上了它。這是爲何?由於它配備的特定傳感器不能處理路標上塗料的反射塗層。在這種狀況下,自動駕駛人工智能如何精確處理數據並不重要。重要的是事故是如何發生的,以後能夠由用戶在事情發生的時候進行調整,而後由系統的管理員進行過後調整。

目的

從事人工智能工做的組織應記錄其目的,並使用某些理想價值標準(如人權,透明度和避免傷害)來限制它們。這不只強制進行有意識的設計過程,並且聲明的意圖也確保用戶(不管是內部仍是外部)瞭解應該如何應用該工具。誤用該工具可能會破壞此框架中的全部其餘注意事項。

這裏有一些最後值得思考的東西

若是你想大規模推廣人工智能,治理絕對不能是過後諸葛亮。它必須是戰略的一部分而且有詳細的記錄。就我我的而言,我認爲這將經過執行不一樣的項目來實現。在問題/解決方案定義期間,須要與公司中的業務部門協做制定規則來治理。然而,不管誰負責組織中的網絡系統,它都是最終的責任,他們須要爲每一個人清楚地定義它。

問責制

即便付出了最大的努力,事情也不免會出錯。良好的人工智能治理應包括問責機制,根據目標的不一樣,能夠有不少選擇。機制能夠包括貨幣補償(無過錯保險),故障發現和無貨幣補償的和解。問責機制的選擇還可能取決於活動的性質和權重,以及發揮自主權的程度。系統誤讀藥品索賠並錯誤地決定不賠償的狀況能夠經過金錢來補償。然而,在涉嫌歧視的狀況下,解釋和道歉可能至少一樣重要。

道德與公司治理

合做的一個關鍵領域是與更普遍的公司治理結構進行合做,這是組織的道德指導來源。由於使用人工智能,組織有能力採起行動,而這些行動很難或不可能僱用人員去作。你可使用一個很是人性化的、友好的機器人給你的每一位客戶打電話,並在不告訴他們這是一個機器人的狀況下,提供更多的建議。你會這樣作嗎?這是一項神奇的工程技術,但它也帶來了一些道德問題。關鍵是,技術團隊不能肯定支撐治理框架的道德規範,由於這是一個主觀問題。最有可能的是,治理委員會須要本身的道德委員會(若是尚未委員會)來回答這些問題。

加強治理

我不認爲人工智能治理可以在沒有人工智能加強的狀況下工做。治理可能須要本身的一羣對手,它們的角色是用來測試和挑戰基礎架構和系統。我認爲這將會是下一代的監管系統,用於監控全部治理考慮因素的穩健性。他們將可以積極的、強制的對決策進行解釋,獨立的衡量誤差和評估的完整性,也可能與公司治理和外部審計師進行不一樣的迭代。這些將是單元測試和持續的壓力測試,將跨組織推廣甚至強制執行問責制。

固然,首先須要實現框架。將這些注意事項歸入到代理的開發過程當中,並開始在整個組織和用戶之間共享結果的作法。收益不只僅是更強大的模型,而是避免了監管陷阱,以及還讓全部用戶對系統擁有了更多信任。

本文做者認爲隨着人工智能的發展必然會令人工智能擁有一部分人類的權利,而人工智能擁有了這些權利那麼必然的也會要承擔一部分責任,人類是否須要讓人工智能擁有自我管理的能力,這一點是毋庸置疑的,人工智能確定會擁有這個能力,而人類要作的是若是讓人工智能擁有了自我管理的能力後,能夠作出對人類有益的事情,而不是將事情想壞的一面發展,而做者分析了人工智能自我管理水平的發展路線,首先是並無使用人工智能,而後是觀察、指導、合做、自我管理這五個步驟,而這五個步驟中,前三個是以人類爲主導地位的,後兩個是以人工智能爲主導地位,而人類對於人工智能的管理絕對是不能夠等到以人工智能爲核心的時候再去指定一套詳細的規則,那時候未免就有點晚了,因此做者探討了從性能、安全、隱私、透明度這四個方向中討論了應該若是去指定針對人工智能的管理框架,而且人們還應該在組織內部中創建問責制度、道德管理以及增強治理的政策來使組織積極的應對人工智能的發展,令人工智能在將來成爲能夠幫助人類走向更好的工具,而不不是可能會成爲人類災難的工具。

相關文章
相關標籤/搜索