爲什麼我們需要Apache Spark

擁有大量數據,我們需要一種工具來快速消化它 Greg Rakozy在Unsplash上拍攝的照片 數據無處不在。 IDC估計,2013年「數字宇宙」的大小爲4.4 ZB(1萬億千兆字節)。目前,數字宇宙每年以40%的速度增長,而IDC預計到2020年,它的大小將達到44 ZB,相當於物理宇宙中每個恆星的單個數據。 我們有很多數據,但我們並沒有擺脫任何數據。 我們需要一種方法來大規模存儲越來越多的數
相關文章
相關標籤/搜索