多維分析(BI)系統後臺數據經常可能來自多個數據庫,這時就會出現跨庫取數計算的問題。前端
例如:從性能和成本考慮,每每會限制生產庫的容量,同時將歷史數據分庫存放,由ETL按期把生產庫中新產生的數據同步到歷史庫中,同步週期根據數據的生成量,多是1天、一週或者一個月。若是多維分析系統僅僅連上歷史庫取數,那麼用戶就只能對歷史數據作分析,也就是實現T+一、T+七、T+30的多維分析。若是想要實現T+0的實時分析,就要從生產庫和歷史庫分別取得數據進行計算並最終合併結果。不少時候,生產庫和歷史庫仍是異構的數據庫,很難直接作跨庫混合運算。java
即便不是T+0場景,歷史數據量很大時也可能分紅多個數據庫存儲,並且也會是是異構數據庫的狀況。這時,多維分析系統也須要從多個不一樣數據倉庫中取數、計算、合併結果展示。mysql
做爲數據計算中間件(DCM),構建數據前置層是集算器的重要應用模式。集算器具有可編程網關機制,能夠同時連上多個數據庫取數,並將結果合併提交給前臺展示。linux
在下面的案例中,多維分析系統要針對訂單數據作自助分析。爲了簡化起見,咱們採用瞭如下模擬環境:web
l 多維分析系統前臺用tomcat服務器中的jdbc.jsp進行模擬。Tomcat安裝在windows操做系統的C:\tomcat6。sql
l 集算器JDBC集成在多維分析應用中。jdbc.jsp模仿多維分析應用系統,產生符合集算器規範的SQL,經過集算器JDBC提交給集算器SPL腳本處理。數據庫
l 多維分析系統的數據一部分來自於生產數據庫(Oracle數據庫) demo中的ORDERS表,另外一部分來自歷史庫(Mysql數據庫)test。當天數據鏈接生產庫取數,實現實時分析。編程
l ETL過程天天將當天的最新數據同步到歷史庫中。日期以訂購日期ORDERDATE爲準,假設當前的日期是2015-07-18。ORDERDATE的開始和結束日期是多方位分析的必選條件。windows
案例中包含生產庫和1個歷史庫,實際上集算器也支持一個生產庫和同時多個歷史庫,或者沒有生產庫但有多個歷史庫的狀況。瀏覽器
用下面的sql文件在ORACLE數據庫中完成ORDERS表的建表和數據初始化。
![]()ordersOracle
數據截止到2017年7月18日。
用下面的sql文件在MYSQL數據庫中完成ORDERS表的建表和數據初始化。
![]()ordersMysql
數據截止到2017年7月17日。
一、 將下面壓縮文件中的 CrossDB 目錄複製到 tomcat 的應用目錄。
![]()CrossDB
目錄結構以下圖:
配置文件在 classes 中,在官網上獲取的受權文件也要放在 classes 目錄中。集算器的 Jar 包要放在 lib 目錄中(須要哪些 jar 請參照集算器教程)。
修改 raqsoftConfig.xml 中的主目錄配置:
<mainPath>C:\tomcat6\webapps\CrossDB\WEB-INF\dfx</mainPath>
<JDBC>
<load>Runtime,Server</load>
<gateway> CrossDB.dfx</gateway>
</JDBC>
二、 編輯 CrossDB 目錄中的 jdbc.jsp,模擬前臺界面提交 sql 展示結果。
<%@ page language="java" import="java.util.*" pageEncoding="utf-8"%>
<%@ page import="java.sql.*" %>
<body>
<%
String driver = "com.esproc.jdbc.InternalDriver";
String url = "jdbc:esproc:local://";
try {
Class.forName(driver);
Connection conn = DriverManager.getConnection(url);
Statement statement = conn.createStatement();
String sql =" select top 10 ORDERID,CUSTOMERID,EMPLOYEEID,ORDERDATE,AMOUNT from ORDERS where ORDERDATE between date('2011-07-18') and date('2015-07-18') and AMOUNT>100 ";
out.println("Test page v1<br><br><br><pre>");
out.println("訂單 ID"+"\t"+" 客戶 ID"+"\t"+" 僱員 ID"+"\t"+" 訂購日期 "+"\t"+" 訂單金額 "+"
");
ResultSet rs = statement.executeQuery(sql);
int f1,f6;
String f2,f3,f4;
float f5;
while (rs.next()) {
f1 = rs.getInt("ORDERID");
f2 = rs.getString("CUSTOMERID");
f3 = rs.getString("EMPLOYEEID");
f4 = rs.getString("ORDERDATE");
f5 = rs.getFloat("AMOUNT");
out.println(f1+"\t"+f2+"\t"+f3+"\t"+f4+"\t"+f5+"\t"+"
");
}
out.println("</pre>");
rs.close();
conn.close();
} catch (ClassNotFoundException e) {
System.out.println("Sorry,can`t find the Driver!");
e.printStackTrace();
} catch (SQLException e) {
e.printStackTrace();
} catch (Exception e) {
e.printStackTrace();
}
%>
</body>
在 jsp 中,先鏈接集算器的 JDBC,而後提交執行 SQL。步驟和通常的數據庫徹底同樣,具備很高的兼容性和通用性。對於多維分析工具來講,雖然是界面操做來鏈接 JDBC 和提交 SQL,可是基本原理和 jsp 徹底同樣。
三、 打開 dfx 目錄中的 CrossDB.dfx,觀察理解 SPL 代碼。
傳入參數是 sql 例如:
select top 10 ORDERID,CUSTOMERID,EMPLOYEEID,ORDERDATE,AMOUNT from ORDERS where ORDERDATE between date('2011-07-18') and date('2015-07-18') and AMOUNT>100。
SPL腳本以下:
A | B | C | |
---|---|---|---|
1 | =sql.sqlparse@aw() | =A1.pselect("ORDERDATE between*") | |
2 | =substr(A1(B1),"date(") | =substr(A1(B1+1),"date(") | |
3 | =mid(A2,2,10) | =mid(B2,2,10) | |
4 | if between(date(now()),date(A3):date(B3)) | ||
5 | =connect("orcl") | =B5.cursor@dx("select ORDERID,CUSTOMERID,EMPLOYEEID,ORDERDATE,AMOUNT from orders where orderdate=?",date(now())) | |
6 | =connect("mysql") | =B6.cursor@x("select ORDERID,CUSTOMERID,EMPLOYEEID,ORDERDATE,AMOUNT from orders") | |
7 | =mcs=[C5,C6].mcursor() | =connect().cursor@x("with orders as(mcs)"+sql) | |
8 | return C7 | ||
9 | else | =connect("mysql") | =B9.cursor@x(sql.sqltranslate("MYSQL")) |
10 | return C9 |
說明:
A1:解析 SQL,獲取 where 子句,並用空格來拆分紅序列。
B1,A2-B3:在 A1 序列找到必選條件訂購日期,獲取開始和結束日期值。
A4:判斷查詢範圍是否包含當前日期。
B5-C6:若是包含當前日期,就鏈接生產庫和歷史庫,創建取數遊標。
B7:用生產庫和歷史庫遊標創建多路遊標。
C七、B8:對多路遊標進行 sql 查詢並返回結果。
A9-C10:若是不包含當前日期,就只鏈接歷史數據庫。將 SQL 翻譯成符合 MYSQL 數據庫規範的 SQL, 執行 SQL 獲得遊標並返回。
實際業務中,生產庫通常都有必要保持一些歷史數據,這樣生產庫和歷史庫會有重複數據,因此代碼中須要給生產庫再加上日期條件。若是是多個歷史庫分庫的狀況,通常來說,這些庫之間就沒有重複的數據,代碼可以簡化一些。好比,假設例中的 ORACLE 和 MYSQL 沒有重複數據,則 CrossDB.dfx 的代碼能夠簡化以下:
A | B | |
---|---|---|
1 | =connect("orcl") | =A1.cursor@dx("select ORDERID,CUSTOMERID,EMPLOYEEID,ORDERDATE,AMOUNT from orders") |
2 | =connect("mysql") | =A2.cursor@x("select ORDERID,CUSTOMERID,EMPLOYEEID,ORDERDATE,AMOUNT from orders") |
3 | =mcs=[B1,B2].mcursor() | =connect().cursor@x("with orders as(mcs)"+sql) |
4 | return B3 |
四、 啓動 tomcat,在瀏覽器中訪問http://localhost:8080/CrossDB/jdbc.jsp,查看結果。
結果中訂購日期格式略有不一樣,這隻須要在多維分析前端設置一下顯示格式便可。
咱們還能夠繼續測試以下狀況:
一、 僅僅查詢歷史庫
sql ="select top 10 ORDERID,CUSTOMERID,EMPLOYEEID,ORDERDATE,AMOUNT from ORDERS where ORDERDATE between date('2011-07-18') and date('2015-07-18') and AMOUNT>100";
二、 分組查詢
sql ="select CUSTOMERID,EMPLOYEEID,sum(AMOUNT) S,count(1) C from ORDERS where ORDERDATE between date('2011-07-18') and date('2015-07-18') group by CUSTOMERID,EMPLOYEEID"
在這個案例中,集算器SPL腳本還能夠承擔ETL的工做。
多維分析系統上線以後,要天天晚上定時同步當天最新的數據。咱們假設當天日期是2015-07-18。
SPL語言腳本etl.dfx將當天數據增量補充到歷史庫中,具體腳本以下:
A | |
---|---|
1 | =connect("orcl") |
2 | =A1.cursor@xd("select ORDERDATE,CUSTOMERID,EMPLOYEEID,ORDERID,AMOUNT from ORDERS where ORDERDATE=?",etlDate) |
3 | =connect("mysql") |
4 | =A3.update@i(B2, ORDERS,ORDERDATE,CUSTOMERID,EMPLOYEEID,ORDERID,AMOUNT) |
5 | >A3.close() |
etl.dfx的輸入參數是etlDate,也就是須要新增的當天日期。
etl.dfx腳本能夠用windows或者linux命令行的方式執行,結合定時任務,能夠定時執行。也能夠用ETL工具來定時調用。
windows命令行的調用方式是:
C:\Program Files\raqsoft\esProc\bin>esprocx.exe C: \etl.dfx 2015-07-18
linux命令是:
/raqsoft/esProc/bin/esprocx.sh /esproc/ etl.dfx 2015-07-18
做爲數據計算中間件(DCM),由集算器提供的後臺數據源能夠支持各類前端應用,不只限於前端是多維分析的狀況,還能夠包括例如大屏展現、管理駕駛艙、實時報表、大數據量清單報表、報表批量訂閱等等場景。
另外,集算器造成的後臺數據源也能夠將數據緩存計算。這時,採用集算器實現的數據計算網關和路由,就能夠在集算器緩存數據和數據倉庫之間智能切換,從而解決數據倉庫沒法知足的性能要求問題,例如常見的冷熱數據分開計算的場景。(具體作法參見《集算器實現計算路由優化BI後臺性能》)。
在另外一些應用中,集算器也能夠徹底脫離數據庫,起到輕量級多維分析後臺的做用,這時的集算器就至關於獨立的中小型數據倉庫或者數據集市了。(具體作法參見《集算器實現輕量級多維分析後臺》。)