案例分析 | 由Decimal操作計算引發的Spark數據丟失問題

供稿 | Hadoop Team 編輯 | 顧欣怡 本文3058字,預計閱讀時間10分鐘 導讀 eBay的Hadoop集羣上面每天運行着大量Spark計算任務。對於數據計算任務,其計算性能十分重要,數據質量也不可忽視,特別是對於金融數據,數據發生損壞將會產生嚴重後果。本文分享一次數據質量相關的問題以及我們排查該問題的過程和解決方案。 一、症狀 一天,金融分析團隊的同事報告了一個問題,他們發現在兩個
相關文章
相關標籤/搜索