個人業務要不要用人工智能?引入AI前你須要評估的(四)

這是一個系列文章,從各個角度來評估一個問題:「個人業務要不要用 AI ?能不能用 AI?」

本期評估角度——黑箱html

黑箱是人工智能的缺點

並不是全部人工智能都是黑箱的,你們說的黑箱主要指當下最熱門、效果也最好的「深度學習」。算法

在我以前寫的《一文看懂深度學習》中,舉過一個水龍頭的例子,從那個例子就能夠看出:深度學習的工做原理不是講邏輯(基於規則),而是大力出奇跡(基於統計)segmentfault

大力出奇跡會致使幾個結果:iphone

  1. 深度學習只能告訴你「是什麼」,可是不能告訴你「爲何」
  2. 沒人能預知在什麼狀況下會出現錯誤

下面的圖片就會展現一些人工智能所犯下的「低級錯誤」。學習

而最可怕的是:當咱們發現問題時,並不能針對具體問題來對症下藥。優化

咱們過去的計算機科學大部分是基於規則的,很像一臺汽車,咱們很清楚的知道這臺車是如何組裝起來的,因此發現螺絲鬆了就檸緊,哪一個零件老化了就換一個。徹底能夠作到對症下藥。人工智能

而深度學習則徹底不同,當咱們發現問題時,不能作到對症下藥,只能全局優化(好比灌更多的數據)。spa

擴展閱讀:翻譯

深度 | Nature:咱們能打開人工智能的「黑箱」嗎?3d

打破人工智能算法黑箱

哪些問題不適合「依賴」 AI ?

因爲深度學習的黑箱特性,並不是全部問題都適合用深度學習來解決。

咱們評估哪些問題適合,哪些問題不適合的時候,能夠從2個角度來評估:

  1. 是否須要解釋
  2. 錯誤容忍度

咱們先從這2個角度來看看普及率較高的AI應用:

案例 是否須要解釋 錯誤容忍度
語音識別 用戶只關心效果好很差,並不關心背後的原理是什麼 偶爾出現一些錯誤並不影響對整句話的理解。少許出錯是能夠接受的。
人臉識別 同上 相比語音識別,用戶對出錯的容忍度要低一些,由於須要從新刷臉。
機器翻譯 同上 跟語音識別相似,只要大面上準確,並不影響總體的理解。

咱們再看一些 AI 和人力結合的具體應用:

案例 是否須要解釋 錯誤容忍度
智能客服 用戶不關心是人工服務仍是機器服務,只要能解決個人問題就行 若是機器客服不能理解個人意圖,沒法幫我解決問題,用戶會很不滿意。因此當機器搞不定 的時候須要人工來補位
內容審覈 對於審覈不經過的內容,須要解釋緣由。經過的內容不須要解釋爲何。 有一種職業叫「鑑黃師」,目前正在逐步被機器替代,可是並無徹底替代,由於有時候機器會拿不許,這個時候人工來複審

最後看一些不適合AI落地的場景:

案例 是否須要解釋 錯誤容忍度
推導定理 科學是絕對嚴謹的,必定是從邏輯上推導出來的,而不是統計出來的。 若是有例外就不能稱做定理,必定是絕對正確沒有錯誤的。
寫論文 人工智能已經能夠寫小說,詩歌,散文。可是論文這種文體要求很是嚴謹的上下文邏輯。 論文裏是不容許有錯誤的,全文的邏輯要很是清晰,哪怕一個細節出現了邏輯問題,也會形成整篇論文沒有價值。

若是咱們把上面提到的案例所有放在象限中,大體以下:

案例在2個評估象限中的位置

因此,在評估的時候有3條原則:

  1. 解決方案越須要解釋背後的緣由,越不適合用深度學習
  2. 對錯誤的容忍度越低,越不適合使用深度學習
  3. 上面2條並不是絕對判斷標準,還須要看商業價值和性價比,自動駕駛和醫療就是反例。

案例分析:醫療

人工智能在醫療行業的應用被你們普遍看好,由於醫療行業有不少痛點:

  1. 醫療資源不足,尤爲是優質的醫生
  2. 醫療資源的分配極度不均衡,中國不少疾病只有北京能治
  3. 其實醫生的誤診率也很高(惡性腫瘤誤診率40%,器官異位誤診率60%)

目前的人工智能已經能夠幫助人類作診斷並提供治療手段。

奇怪的是:不管是從可解釋性仍是從錯誤的容忍度上來說,醫療診斷都不適合用人工智能。

但當咱們將人工智能做爲一種輔助,最終仍是靠人類來作判斷和下決定時。人類和機器能夠造成很好的互補。

工廠的發展也是相似的路徑:

  • 一開始機器只作輔助,人力是最重要的
  • 機械化和自動化的程度愈來愈高,機器的做用愈來愈大
  • 最終實現無人工廠(已經實現)

因此從「可解釋性」和「錯誤容忍度」上能夠評估出來哪些問題不適合「徹底依賴人工智能」。

但只要商業價值足夠大,仍是有解決方案的——人類和機器相互配合,共同解決問題。而且隨着技術的進步,不斷減小對人力的需求。

擴展閱讀:

人工智能輔助醫生「閱片」:診斷準確率已超過95%

人工智能可以幫助快速診斷疾病  但卻沒法取代臨牀醫生

2019中國人工智能醫療白皮書發佈(附下載)
本文首發自 產品經理的 AI 學習庫 easyai.tech

相關文章
相關標籤/搜索