你有沒有哼着一首歌卻怎麼也想不起歌名的狀況?Google 發佈了一些搜索功能的更新,其中就有一個「聽歌識曲」功能,如今用戶能夠經過哼唱 10 到 15 秒匹配到想找的歌曲了。算法
Google 稱,其已經經過人工智能和機器學習來改善用戶體驗,除了聽歌識曲還更新了拼寫和搜索查詢功能。segmentfault
Google 表示,聽歌識曲功能目前在 iOS 上以英語提供,在 Android 上以大約 20 種語言提供,未來在兩種平臺上都會提供更多語言支持。安全
如今,用戶能夠經過點擊 mic 圖標並說:「這是什麼歌」,對着手機向 Google 哼歌,機器學習算法將提供匹配的歌曲。網絡
除了聽歌識曲,谷歌更新的 AI 功能還涵蓋了拼寫和常規的搜索查詢。包括使用深度神經網絡的新拼寫算法,Google 稱該算法大大提升了其查詢拼寫錯誤的能力。機器學習
新的拼寫算法能夠幫助理解拼寫錯誤的單詞的上下文,在 3 秒內找到正確的結果。同時,搜索如今將爲頁面中的各個段落創建索引,以容許定位所搜索文本塊的特定位置。學習
神經網絡也已被用於理解圍繞興趣的子主題,Google 表示,當用戶進行普遍搜索時,這將有助於提供更大的內容多樣性。測試
舉例來講,若是用戶搜索「家庭健身器材」,Google 會經過了解相關的副主題,好比器材的價格、品質或者佔用空間等,在搜索結果頁面上顯示更多內容,這項功能將在今年年末開始推出。搜索引擎
2018 年 Google 啓動了 Data Commons Project,從美國人口普查局、勞工統計局和世界銀行等機構收集數據,將這些數據投入使用,經過搜索使信息更容易獲取和使用。人工智能
好比,當你查詢「芝加哥有多少人工做」這樣的問題時,天然語言處理會將搜索映射到 Data Commons 數十億個數據點中的一個特定集合,以一種可視化、易於理解的方式提供正確的數據。spa
Google 還指出,它的 BERT 語言理解系統如今已經被用於幾乎全部的英語查詢,這有助於用戶獲得更高質量的問題結果。經過使用人工智能,它如今能夠理解視頻的深層語義,並自動識別關鍵點。不過,這個功能目前正在測試中,它將在視頻中標記時刻。
Google 還宣佈了在學習和購物時使用 Google Lens 和加強現實的新方法。
經過拍攝照片或截圖進行搜索已經可行,如今用戶能夠在 Google 應用或者 Android 上的 Chrome 點擊並保存圖片,而 Lens 會找到相同或類似的項目,並提出設計方法。該功能即將在 iOS 上的 Google 應用中推出。
Google Lens 如今能夠識別 150 億種事物,幫助識別植物、動物和地標,它還能夠翻譯 100 多種語言。
Google 還宣佈了其處理冠狀病毒相關查詢的方式的一些改進,幫助用戶更容易的保持社交距離。Google 還在 Live View 中添加了一個新功能,能夠得到企業的基本信息,幫助用戶瞭解公司是否有戴口罩的要求,是否須要提早約或者是否有其餘安全措施,好比提問檢查等。