WWDC第一天內容彙總,keynote+各平臺總體狀態介紹

keynote

keynote部分在上午,總時長兩個小時。庫克船長剛開始就說了,「today is all about software」。因此,這是一次純軟件的升級演示。ios

我挑一些印象深入的點,和你們說一說。git

  1. ARkit2,看起來這是一次很是了不得的升級,從演示的measure應用和樂高遊戲也能大概看出來一些,特別棒的是樂高遊戲,其效果和交互讓人有很大的想象空間。爲了讓AR有更好的可用性和更多的場景,蘋果還聯合皮克斯開發了一種新的model數據格式而且支持和常見格式(好比.obj)的轉換。不少流行的建模軟件也將會支持該格式。
  2. iOS12多了幾個強大的應用,我認爲最強的應該是整合後的workflow。workflow曾經得到過蘋果的創意設計獎,深受用戶(特別是開發者)的喜好。蘋果收購了 workflow,現在將它整合到iOS,而且和siri無縫集成,爲用戶提供很是棒的工做流自定義體驗,能夠用於提升你的平常工做效率。
  3. 增長了幾個新的animoji,而且還支持本身定義本身的memoji,這個有點像不少遊戲裏面的捏臉系統,但它人臉部分的動做不少,蘋果在軟件層面應該作了不少工做來完成這一點。animoji還能夠和人臉識別相結合,應用在了imessage和facetime中,其實時捕捉臉部用animoji替換的效果很是贊。能夠說是一個極具創新性的設計和實現了。
  4. facetime最多可支持32人同時視頻,其中不少細節設計的很是人性化,很精巧。這個idea不是首創性的,微信也早就支持,但這種產品的體驗和細節很是的重要,蘋果在不少地方都是跟隨者,但最後是它把體驗作到了極致。對於視頻通話來講,效果是最重要的。從演示來看很是不錯。
  5. apple tv全新升級,支持一種杜比的音效,現場體驗效果很是爆炸,還有片源的質量升級等;還簡化了一個驗證步驟。最主要是介紹的小姐姐顏值和聲音都圈粉,這裏就不上圖了,你們能夠去看一下video。
  6. 發佈了watchOS5,增長了一些功能(好比按住說話)。
  7. iOS12 能夠支持全部的設備,只要你的機器能夠運行iOS11。因此這是一個老用戶的福音,而且性能方面獲得了全面提高。個人iphone6已經第一時間升級,大部分應用運行都沒有問題,且性能獲得了必定的提高。根據蘋果的說法,性能的優化主要得益於machine learning技術,其對cpu時間的使用更具備效率、更智能。
  8. machine learning獲得了大大強化,推出新的工具幫助咱們直接在mac上建模,使用swift語言。而不須要先從諸如tensorflow之類的工具生成在轉換了。還推出了一些新的ml相關的api。

最後,那個給開發者的小短片真的燃到我了,那個瞬間,我熱淚盈眶。github

平臺狀態彙總(platform state union)介紹

這個是下午的內容,也是對開發者來講可能比keynote更重要的東西。由於全部的展現基本上都附有代碼和demo,讓開發者很容易理解其中的含義和價值,而且對後面幾天的全部session做了交代,讓你們能夠去選擇。小程序

從上面這個圖來看,是分爲5大部分:xcode10,swift4.2, new ml, metal, arkit2。 但實際上還介紹了新的mac dev部分和siriShortcuts開發的內容。 按照presentation的順序我來聊一聊這七個部分。swift

  1. mac dev。 mac 這一部分的更新絕對是爆炸性的。蘋果承諾將在2019年對外開放這部分的能力(基於UIKit的mac應用UI構建),這意味着屆時許多ipad應用能夠經過改動較少的代碼移植到mac上運行,蘋果已經eat his own dogfood,在mac上有兩三個應用就是基於ios移植而來。 這將極大豐富mac的軟件生態,開發者也能夠從中獲益。
    此外,還演示了dark mode的使用和開發的體驗,很nice。
    整體來講,mac開發者對這一波應該評價比較正面(一塊兒同行的mac開發者表示很滿意)。
  2. xcode10 。從現場給出的數據看,xcode10對swift項目編譯的提高簡直是爆炸性的。速度廣泛提高兩倍或者以上,其緣由是整個xcode10編譯器部分所有使用swift從新編寫和優化了。
    xcode10的 playground 也獲得了大大強化,它將再也不僅僅是一個初學者的玩具,而是進化成一個生產力工具,諸如ml任務、簡單的idea驗證工做、甚至是framework的readme和demo均可以經過它來完成。它支持外部框架引入,它還能夠展現UI, 它比寫一個腳手架demo更快速、更強大、更高效、更優雅。
  3. swift 4.2。swift並非個人主力開發語言,但它應該是iOS開發的將來。swift 4.2 的改進體如今不少方面,它合併了不少社區提交的內容。而且swift 5也將在之後和咱們見面, 最終蘋果將解決兼容的問題,而且會將swift集成在系統中,這樣會減小包的大小。
    具體的技術改進包括編譯器支持、語法更新、性能優化等等,蘋果但願社區在beta階段能夠積極的提供反饋和提交,其核心團隊最終決定社區的提交是否被合併進來。也就是說,swift的某一個特性將來如何,多是你說了算。
  4. new ML。蘋果提供了create ml工具,用於直接在mac上建模;在最新的ml上,蘋果還能夠將特定模型的大小大幅度減少(好像是基於遷移學習來實現的,不知道我有沒有get正確這個點)。蘋果提供了新的特定領域的api用於圖片分類檢測、天然語言理解、好像還有一個點(抱歉凌晨三點的我實在想不起來了)。new ML對蘋果來講意義重大,on-device ml讓蘋果能夠在保護用戶數據隱私安全的狀況下,也從ml中受益,iOS12的相冊優化就基於該技術。
  5. metal。 一樣的,這也是一個底層的技術,蘋果旨在經過高度集成化、定製化的優點讓metal能夠在iOS設備上能夠在圖形圖像以及gpu相關計算領域得到爆炸的性能。他們的目標是最終替代opengl/opencl等。metal支持的設備很是老,這體現了蘋果的野心。
    從現場給出的benchmark數據來看,metal作到了它想要作到的,它支持多個平臺,還能夠從擴展gpu中獲得很大的性能提高。
  6. Sirishortcuts。 這裏主要是給你們展現了一遍整個流程,建立shortcuts須要開發者作什麼之類的,從演示的代碼來看應該不難,具體的坑什麼的可能要在開發過程當中才能夠體會。在微信小程序的一個新功能(大概是3月份左右的一個發佈,具體名字不記得了)中,我感覺到了和這個相似的流程設計,不一樣之處是一個經過搜索,一個經過語音。
  7. Arkit2。 從keynote的演示裏,應該全部人已經對它印象深入了。這裏主要介紹了他們是怎麼作到這一點的,有哪些新的概念和api更新等等。值得一提的是,keynote演示中的facetime實時animoji頭像就得益於arkit2的加強臉部捕捉技術。 關於arkit2後面有具體的session,推薦你們觀看。

這一篇花了我兩個小時,在凌晨3點的聖何塞。真的是有些累了,因此後面比較潦草。原本還想把今天的內容做一個總結來的,參加了6個session和1個lab,但實在寫不動了,只能拖做業了。 感謝你們閱讀個人文章~ 我會繼續更新的微信小程序

github: https://github.com/dustturtle 歡迎follow,但願能夠一塊兒交流技術問題。api

相關文章
相關標籤/搜索