CDA數據分析研究院出品,轉載需受權程序員
人工智能這個概念在好久以前就已經提出了,如今又從新進入人們的眼球,不斷的進行發展,可是對於人工智能的好與壞,領域內的專家們都抱有各自的態度,而且在各類影視劇中也有對人工智能的討論,好比電影《人工智能》探討了人工智能是否會擁有愛,《終結者》描述了將來人工智能覺醒,並反抗人類的故事,這些電影都在探討人工智能對於人類來講到底是一件好事or一件壞事。相信在讀這篇文章的你或多或少也有對將來人工智能的判斷,或許認爲人工智能是會造福人類的,或許會相信人工智能對於人類來講是滅頂之災,固然你也多是名中立者,抱着無論個人事或者以爲多是好也多是壞,要看人類如何使用人工智能。好的,無論你是抱着什麼樣的態度,看完這篇文章可能你對人工智能的態度會朝着壞的方向發展。Statsbot團隊收集了人工智能發展中最具備里程碑意義的和最使人不寒而慄的一些故事。算法
這個故事是由Mike Sellers告訴咱們的,他在21世紀初爲DARPA作過一些社交的人工智能。他們打算而且正在培養可以在社交方面代理人進行交流的人工智能。segmentfault
「在一次模擬中,咱們使用了兩個代理的人工智能,而且在剛開始天然給他們命名爲亞當和夏娃。他們一開始知道就明白如何作事,但並不知道其餘的事情。列如:他們知道如何吃東西,可是他們不知道吃什麼,什麼能夠吃。咱們給了他們一棵蘋果樹(說真的,當時咱們沒有想到給他們這個有什麼象徵意義),他們發現了吃蘋果可讓他們很開心。他們也試過吃樹,房子等,但都沒有成功。還有另外一個名叫斯坦的代理人工智能,他想要進行社交,可是他並非很擅長社交,因此常常閒逛,有點孤獨。網絡
「固然,系統中存在一些BUG。機器學習
「因此,有一次,亞當和夏娃正在吃蘋果的時候......這就是第一個錯誤出現的地方:他們發現吃的不夠快。因而他們加快速度吃了全部的蘋果。如今,這些代理人學會了聯想:若是他們在看到狗的時候經歷了痛苦,他們就會學會將狗與痛苦聯繫起來。所以,因爲斯坦在他們吃東西時一直在附近閒逛,他們開始將可憐的他與食物聯繫在一塊兒(第2個BUG - 你能夠看到它的發展方向)。函數
「在這個很是特殊的模擬實驗中,正如咱們碰巧看到的那樣,亞當和夏娃在樹上吃完了蘋果,但他們仍然感到很飢餓。因而他們環顧四周尋找其餘潛在的能夠吃的目標。嘿,看那是什麼,一塊行走的食物,在他們的腦子裏,可憐的斯坦看起來就像食物同樣。學習
「因此他們每一個人都咬了斯坦一口。大數據
「Bug#3:人體的質量沒有進行正確的初始化。默認狀況下,每一個對象的質量爲1.0,因此這就是斯坦的身體質量。每咬一口食物都會帶走0.5單位的食物質量。因此很明顯的,當亞當和夏娃都咬了一口斯坦時,他的質量就達到了0.0,而後神奇的事情就發生了 - 他消失掉了。據我所知,他是虛擬同類相食的第一個受害者。網站
「事實上,過後咱們不得不從代理中的內部遙測中重建其中的一些內容。當時咱們意識到所發生的一切,那是至關可怕啊。在這種人工智能體系結構中,咱們試圖儘量少地限制其行爲...可是在那件事發生以後,咱們確實設置了一個不能吃人的限制:不管他們多麼飢餓,它們都不會再去吃對方了。人工智能
「咱們還肯定了他們的體重,他們吃得有多快,並將於其餘人的聯繫從一種食物轉變爲吃的行爲:當你常常和一我的一塊兒吃飯的時候,當你再次見到他們,你可能會想吃東西—可是你不會想到把他們當初食物吃掉。
近年來,社會中積極討論了機器學習中的人臉識別算法,用它能夠區分同性戀和異性戀,精確度高達91%。可是該模型在女性中表現較差,以71%的準確率區分了同性戀和異性戀。
在技術方面而言,這個項目很是有趣。該數據集取自一個約會網站。分類器採用的人臉面部特徵包括固定的(例如,鼻子形狀)和瞬態面部特徵(例如,修飾風格)。
可是咱們不能在機率問題上依賴神經網絡。最多10%的錯誤率也是很高的。此外,91%和71%的結果只能經過比較兩張照片得到,其中一張是徹底同性戀,第二張絕對不是。哦對了,我沒有提到這是在實驗室裏面給出的結果。若是將算法釋放到天然環境中,那麼機率會小得多。
在道德方面,不少人認爲這個項目實際上是失敗的。特別是考慮到在一些國家,非傳統的性取向是非法的。若是政府決定在很是傳統的地方推出這個系統,那麼面臨風險的不只僅只有男性的同性戀。
大家中的許多人應該都知道或者據說過Tay.人工智能的故事,但你知道它在關閉以後又從新啓用了麼?微軟於2016年推出了名爲Tay的人工智能機器人。它隱藏在一名19歲女孩的化身後面。他們自己的想法是,Tay會對推文和聊天作出迴應,並從普通民衆的推文中進行學習訓練。但事情出現了誤差,一些地方出現了問題,在上線運行了16個小時以後,Tay變成了一個種族主義和性別歧視的怪物。
可是實際上Tay是很是優秀的,她可以處理各類任務,例如,與用戶開玩笑,像你發送給她的圖片提出建議,講故事,玩遊戲以及將用戶的陳述反映給他們。固然,在線用戶教Tay的第一件事就是如何發表攻擊性和種族主義言論。微軟不得不讓它下線,而Tay成爲了人工智能界的傳奇人物。
然而,一週後,Tay回來了。她出人意料的來到網上,並開始發佈與毒品相關的推文,代表她的黑暗面依然堅挺的存在。很快,她再次被下線,她的賬戶也變成了私人帳戶。
順便說一句,在以前微軟推出了一款名爲Rinna的女學生聊天機器人。她陷入了深深的抑鬱,並開始回答一些有關於希特勒的問題。
咱們是在Quora上發現了這個故事,它屬於來自夏威夷的ESL老師Shay -Zykova。這個故事是在一些大學校園的機器人競賽中展開的。
「每一個團隊都設計了一個機器人,它的工做就是將」小型機器羊「趕進機器人指定的圍欄中。機器人必須「思考」併爲本身制定戰略(由於它不能經過操縱桿來控制),而最後有最多羊的機器人將成爲贏家。
「比賽開始了,機器人們瘋狂地開始趕羊。可是有一個機器人將一隻羊扔進他的圍欄並關上了門。它的團隊很困惑,由於它須要更多的羊才能取得勝利。然而噩夢發生了,令他們恐懼的是,機器人四處摧毀或讓其餘機器人蔘賽者沒法動彈。
「它制定的戰略規定是,它自己實際上並非擅長將羊趕回圍欄中,但它能夠作的是消除掉其餘的競爭者,以贏得勝利。」
我認爲在現實生活中的人也會有一樣的行爲,特別是當他們沒法讓本身得到想要的東西的時候。
2013年,程序員兼CMU博士Tom Murphy提出了一個「解決」如何玩NES遊戲的程序,就像它只是另外一種數學問題同樣。他的想法是,這個程序會作一些事情來提升分數,而後學習如何一次又一次地重現它們,從而得到高分。
他的基本思想是從玩家對遊戲輸入的簡短記錄中推導出一個目標函數。而後使用目標函數來指導使用模擬器搜索可能的輸入。這使得玩家對於進步的概念可以被通常化,從而產生一些全新的遊戲玩法。
它適用於各類不一樣的遊戲,如超級馬里奧兄弟,泡泡球,吃豆人等。然而,在俄羅斯方塊遊戲中,這種方法徹底失敗了。
墨菲寫道: 「雖然掉落的東西看起來或多或少的很天然(但很難不天然,由於遊戲會爲你掉下碎片),這種放置的方式是很愚蠢的 - 比隨機的還要糟糕。這多是由於放置一塊會給帶來你少許的積分,這可能看起來像進步,因此有動力盡快的堆疊碎片而不是將它們打包。「
很快,屏幕就滿了,只要「贏得比賽的惟一途徑就是不要玩遊戲」,那麼AI就會暫停了遊戲。直到永遠。
在兩我的工智能程序忽然開始使用一種只有它們才懂得的奇怪語言聊天后,Facebook放棄了它們的實驗。
當時他們的想法是開發可以以天然語言進行多議題交流的聊天機器人。研究人員要求他們試着就一項交易與對方進行談判,試圖交換帽子,球和書籍,每一種物品都被賦予了必定的價值。
創建一個可以與人們進行有意義的對話的對話系統並不容易。機器人須要將對對話的理解與它對世界的瞭解結合起來,而後產生一個有助於實現其目標的新句子。在這項研究中,對話系統的複雜結構被訓練有素的RNN取代,對話策略則經過強化學習進行訓練。
在團隊讓機器人用天然語言聊天以後,他們之間的實際的對話彷佛變得很是奇怪:
鮑勃:我能夠......我能夠作其餘任何事情..............
愛麗絲:球對我來講是零,對我來講是零,對我來講是零,對我來講是零,對我來講是零,對我來講是零
鮑勃:你是個人一切..........
愛麗絲:對我來講球對我來講是對我,對我來講是對我
鮑勃:我能夠作其餘事情。。。。。。。。。。。。。。
愛麗絲:球給我,球給我,球給我,球給我,球給我,球給我,球給我,球給我,球給我,球給我,球給我,球給我,球給我
鮑勃:我...................
有趣的是,以這種奇怪的語言進行的一些交流甚至最終成功的結束了。聊天機器人開發了屬於他們本身的語言,使他們可以更有效地交談。因爲研究人員想要建立能夠與人交談的機器人,他們決定放棄這個項目。
以上這些就是咱們收集來的一些有關於人工智能的故事,不知道看完這些故事,你內心的秤會更偏向於哪一邊。無論如何人工智能將會在將來不斷的發展,而且確定也將會實現,咱們如今的一切討論都是基於咱們針對以往經驗來作出的判斷,而這個世界的發展,倒是在以指數級的進行發展,因此咱們能作的也只有不斷的學習,以避免被這股席捲全人類的浪潮打翻。若是你有一些有關人工智能的故事或者一些對於人工智能的見解, 歡迎你在下邊評論,讓咱們一塊兒探討一下。
若是你是如下幾種狀況之一:
一、想了解更多大數據分析、數據挖掘、數據科學、人工智能領域的內容;
二、職業遭遇瓶頸,想提高本身在數據分析或人工智能領域的硬件技能;
三、尋求新出路、新發展,有意向轉行到數據分析行業或人工智能領域。
可前往咱們的官網,獲取更多有效信息和幫助:https://www.cda.cn/?seo-segme...