懼怕了嗎?6成AI開發人員都會懼怕產品會危害世界

英國政府委派的一份調查報告指出,59% 的 AI 相關工做人員,擔憂本身開發的產品可能對社會形成不良影響,而且每 6 個 AI 工程師就有一個爲了道德因素而離職。人工智能將會改變人類的將來,這個潘多拉的盒子已經沒法再蓋上,當咱們享用着 AI 從方方面面帶給咱們的好處時,許多人更擔憂的是 AI 可能帶來的壞處,更使人驚訝的是,這些不是其餘人,而是催生人工智能持續進化的開發者們。英國政府的調查報告指出,在 1,010 位科技領域員工裏,AI 開發者中,高達 59% 認爲他們正在開發的產品,可能會對社會有害,在其餘科技業工做者中,這個比例只有 28%。而且在交叉分析後得知,有 16% 的 AI 工做者,由於良心不安而離職。前端

在受訪者的迴應中,最主要的憂慮包括:算法

  • 對於人羣過分的監控
  • 缺少安全機制
  • 太着重科技而忽略人與人的溝通
  • 自動化形成的失業衝擊
  • 這項科技會讓社會更加分裂
  • 商業與財務考慮遠勝於道德爭議

 

有趣的是,當這些高科技工做者碰到潛在有爭議性的問題時,39% 是依據本身心裏的道德標準,38% 會上網搜尋相關問題,35% 選擇與同事討論,會參考公司政策與產業規範的,都不到三成。這一部分可歸因於產品很是前端,公司政策與業界標準還沒有跟上,然而更大的多是,公司政策徹底沒有在相關議題上,提出明確立場。所以有高達 78% 的工做者指望可以有一套相關的行爲準則,甚至願意參加工做坊來幫助他們面對這些問題,同時也期待有一套關於創新科技的框架,讓他們參考。安全

 

對於全部科技公司而言,最值得注意的是,在由於擔憂不良後果而離職的員工中,有半數認爲,公司政策與行爲規範是最可以幫助他們面對這些潛在問題的解方。框架

換句話說,想要留住這些頂尖人才的其中一個重點,是公司自身要對創新科技的價值、行爲規範提出一套明確的說法,讓開發者在面臨道德困境時,有所依靠。科技工做者如同通常勞工,他們固然在乎薪資、工時與工做環境,然而當 AI 與更多創新科技足以對社會產生巨大影響時,這些開發者毫不但願本身成爲科幻電影中的大反派,或至少不要成幫兇。科技公司或許能夠透過樹立完整的道德政策,來闡述理念並以此吸引人才,各國政府也是同樣。加拿大政府已經提出一套「算法衝擊評估準則」( Algorithmic Impact Assessment, AIA),讓企業、工程師與社會大衆可以用來評估一項新的 AI 的可能影響。其中包含一系列問題,例如:人工智能

 

  • 對於機器作出的決策,是否有人爲監控機制?
  • 當產生爭議時,是否有修正方案?
  • 在產生決策的過程當中是否有可能產生任何類型的歧視?
  • 這套系統是否會用到我的資料?
  • 誰負責管理全部數據?
  • 系統是否使用非結構化的數據來產出決策?

在完成全部問題後,這套系統將會得到一個風險評估分數,讓政府單位、企業內部與社會大衆都可以快速瞭解這項新科技可能產生的社會衝擊有多大。儘管這項評估沒有任何法律效力,然而倒是企圖在人工智能人才爭奪戰中,各國政府與企業能夠借鏡的一項準則。相關內文來源:仲博流浪收容所 http://hungtu.com.tw/spa

目前包括歐盟、美國、新加坡,都已經針對「Trusable AI」(可信任的人工智能)提出框架,併成立相關權責機構推進監管與立法,目前只有國家發展委員會委託進行了一份調查報告,政府部門還在喊着 AI 發大財的「願景」;中國則是發佈了一項「人工智能北京共識」,提出了 AI 開發的方針與規範,然而當此大戰之際,按照中國政府一向的思惟,確定不會在這時候提出太過強硬的監管方案,而是繼續野蠻成長,究竟這對於全球 AI 人才的爭奪是好是壞,只能讓開發者們用腳投票來揭曉勝負了。blog

相關文章
相關標籤/搜索