【卷首語】創建AI規則很是重要 但充分對話更重要安全
2016年,谷歌CEO Sundar Pichai宣佈谷歌戰略從Mobile First(移動優先)轉向AI First(人工智能優先),在此以後,谷歌不只在AI領域持續投入,更把谷歌雲的主要競爭優點押注在AI領域。網絡
但在2018年,谷歌的AI First戰略受到了極大的打擊:9月,谷歌首席AI科學家同時也是谷歌雲AI負責人李飛飛宣佈離開谷歌;11月,李飛飛的得意門生,谷歌AI中國中心總裁李佳宣佈去職谷歌;與此同時,谷歌雲Diane Greene宣佈將於2019年1月離開,接替她的是擁有豐富商業化經驗的甲骨文前高管Thomas Kurian。工具
更使人感到意外的是,谷歌CEO Sundar Pichai在12月中旬接受媒體採訪時公開表示:對人工智能技術被濫用的擔心是「很是合理的」,還特別強調:「我認爲科技公司必須意識到不能先創造人工智能工具,而後再去完善它,我認爲這樣是行不通的。」雖然Sundar Pichai在採訪時還補充說:「應該相信科技行業可以負責任地規範好該技術的使用。」但他的這一番發言,仍是在美國科技界引發了不小的波瀾。學習
認可AI構成的潛在威脅,這是很是關鍵的一個舉動。這位出生於印度的工程師極爲推崇自動化系統的世界形態,他甚至表示這些系統能夠在沒有人爲控制的狀況下學習和作出決策。測試
人們不由要問:谷歌要改變AI First戰略了?谷歌雲的AI戰略在今年一系列的有關AI倫理道德討論後,終於要向強監管和商業利益(特別是美國國防部的商業合做)妥協了?人工智能
如今來看,下這樣的結論還爲時尚早:首先,從微軟、谷歌與美國國防部的合做,到諸多「反人格AI」的社會測試,這一輪AI浪潮有關AI倫理道德的討論在2018年進入了最高峯,也促使谷歌等科技巨頭更加深刻地反思AI法律監管、倫理道德等方面的問題;blog
其次,隨着AI技術的普及,愈來愈多的居心叵測者開始利用AI知足私慾,對社會安全、網絡安全、數據安全、我的隱私都形成了必定的挑戰,強化對AI技術在倫理道德方面的監管未必是一件壞事。網絡安全
原文連接get