這是一個系列文章,從各個角度來評估一個問題:「個人業務要不要用 AI ?能不能用 AI?」本期評估角度——黑箱html
並不是全部人工智能都是黑箱的,你們說的黑箱主要指當下最熱門、效果也最好的「深度學習」。算法
在我以前寫的《一文看懂深度學習》中,舉過一個水龍頭的例子,從那個例子就能夠看出:深度學習的工做原理不是講邏輯(基於規則),而是大力出奇跡(基於統計)。segmentfault
大力出奇跡會致使幾個結果:iphone
下面的圖片就會展現一些人工智能所犯下的「低級錯誤」。學習
而最可怕的是:當咱們發現問題時,並不能針對具體問題來對症下藥。優化
咱們過去的計算機科學大部分是基於規則的,很像一臺汽車,咱們很清楚的知道這臺車是如何組裝起來的,因此發現螺絲鬆了就檸緊,哪一個零件老化了就換一個。徹底能夠作到對症下藥。人工智能
而深度學習則徹底不同,當咱們發現問題時,不能作到對症下藥,只能全局優化(好比灌更多的數據)。spa
擴展閱讀:翻譯
《深度 | Nature:咱們能打開人工智能的「黑箱」嗎?》3d
因爲深度學習的黑箱特性,並不是全部問題都適合用深度學習來解決。
咱們評估哪些問題適合,哪些問題不適合的時候,能夠從2個角度來評估:
咱們先從這2個角度來看看普及率較高的AI應用:
案例 | 是否須要解釋 | 錯誤容忍度 |
---|---|---|
語音識別 | 用戶只關心效果好很差,並不關心背後的原理是什麼 | 偶爾出現一些錯誤並不影響對整句話的理解。少許出錯是能夠接受的。 |
人臉識別 | 同上 | 相比語音識別,用戶對出錯的容忍度要低一些,由於須要從新刷臉。 |
機器翻譯 | 同上 | 跟語音識別相似,只要大面上準確,並不影響總體的理解。 |
咱們再看一些 AI 和人力結合的具體應用:
案例 | 是否須要解釋 | 錯誤容忍度 |
---|---|---|
智能客服 | 用戶不關心是人工服務仍是機器服務,只要能解決個人問題就行 | 若是機器客服不能理解個人意圖,沒法幫我解決問題,用戶會很不滿意。因此當機器搞不定 的時候須要人工來補位 |
內容審覈 | 對於審覈不經過的內容,須要解釋緣由。經過的內容不須要解釋爲何。 | 有一種職業叫「鑑黃師」,目前正在逐步被機器替代,可是並無徹底替代,由於有時候機器會拿不許,這個時候人工來複審 |
最後看一些不適合AI落地的場景:
案例 | 是否須要解釋 | 錯誤容忍度 |
---|---|---|
推導定理 | 科學是絕對嚴謹的,必定是從邏輯上推導出來的,而不是統計出來的。 | 若是有例外就不能稱做定理,必定是絕對正確沒有錯誤的。 |
寫論文 | 人工智能已經能夠寫小說,詩歌,散文。可是論文這種文體要求很是嚴謹的上下文邏輯。 | 論文裏是不容許有錯誤的,全文的邏輯要很是清晰,哪怕一個細節出現了邏輯問題,也會形成整篇論文沒有價值。 |
若是咱們把上面提到的案例所有放在象限中,大體以下:
因此,在評估的時候有3條原則:
人工智能在醫療行業的應用被你們普遍看好,由於醫療行業有不少痛點:
目前的人工智能已經能夠幫助人類作診斷並提供治療手段。
奇怪的是:不管是從可解釋性仍是從錯誤的容忍度上來說,醫療診斷都不適合用人工智能。
但當咱們將人工智能做爲一種輔助,最終仍是靠人類來作判斷和下決定時。人類和機器能夠造成很好的互補。
工廠的發展也是相似的路徑:
因此從「可解釋性」和「錯誤容忍度」上能夠評估出來哪些問題不適合「徹底依賴人工智能」。
但只要商業價值足夠大,仍是有解決方案的——人類和機器相互配合,共同解決問題。而且隨着技術的進步,不斷減小對人力的需求。
擴展閱讀: