redis緩存隊列+MySQL +php任務腳本定時批量入庫

原文地址:http://blog.jobbole.com/99567/php

需求背景:有個調用統計日誌存儲和統計需求,要求存儲到mysql中;存儲數據高峯能達到日均千萬,瓶頸在於直接入庫併發過高,可能會把mysql幹垮。mysql

問題分析

思考:應用網站架構的衍化過程當中,應用最新的框架和工具技術當然是最優選擇;可是,若是能在現有的框架的基礎上提出簡單可依賴的解決方案,何嘗不是一種提高自個人嘗試。解決:redis

  • 問題一:要求日誌最好入庫;可是,直接入庫mysql確實扛不住,批量入庫沒有問題,done。【批量入庫和直接入庫性能差別參考文章】
  • 問題二:批量入庫就須要有高併發的消息隊列,決定採用redis list 仿真實現,並且方便回滾。
  • 問題三:日誌量畢竟大,保存最近30條足矣,決定用php寫個離線統計和清理腳本。

done,下面是小拽的簡單實現過程sql

一:設計數據庫表和存儲

  • 考慮到log系統對數據庫的性能更多一些,穩定性和安全性沒有那麼高, 存儲引擎天然是隻支持select insert 沒有索引的archive 。若是確實有update需求,也能夠採用myISAM。
  • 考慮到log是實時記錄的全部數據,數量可能巨大, 主鍵採用bigint,自增便可
  • 考慮到log系統 以寫爲主,統計採用離線計算,字段均不要出現索引 ,由於一方面可能會影響插入數據效率,另外讀時候會形成死鎖,影響寫數據。

二:redis存儲數據造成消息隊列

因爲高併發,儘量簡單,直接,上代碼。數據庫

connect('xx', 6379);
$redis->auth("password");

// 加上時間戳存入隊列
$now_time = date("Y-m-d H:i:s");
$redis->rPush("call_log", $interface_info . "%" . $now_time);
$redis->close();


/* vim: set ts=4 sw=4 sts=4 tw=100 */
?>

三:數據定時批量入庫。

定時讀取redis消息隊列裏面的數據,批量入庫。json

connect('ip', port);
$redis_xx->auth("password");

// 獲取現有消息隊列的長度
$count = 0;
$max = $redis_xx->lLen("call_log");

// 獲取消息隊列的內容,拼接sql
$insert_sql = "insert into fb_call_log (`interface_name`, `createtime`) values ";

// 回滾數組
$roll_back_arr = array();

while ($count lPop("call_log");
    $roll_back_arr = $log_info;
    if ($log_info == 'nil' || !isset($log_info)) {
        $insert_sql .= ";";
        break;
    }

    // 切割出時間和info
    $log_info_arr = explode("%",$log_info);
    $insert_sql .= " ('".$log_info_arr[0]."','".$log_info_arr[1]."'),";
    $count++;
}

// 斷定存在數據,批量入庫
if ($count != 0) {
    $link_2004 = mysql_connect('ip:port', 'user', 'password');
    if (!$link_2004) {
        die("Could not connect:" . mysql_error());
    }

    $crowd_db = mysql_select_db('fb_log', $link_2004);
    $insert_sql = rtrim($insert_sql,",").";";
    $res = mysql_query($insert_sql);

    // 輸出入庫log和入庫結果;
    echo date("Y-m-d H:i:s")."insert ".$count." log info result:";
    echo json_encode($res);
    echo "n";

    // 數據庫插入失敗回滾
    if(!$res){
       foreach($roll_back_arr as $k){
           $redis_xx->rPush("call_log", $k);
       }
    }

    // 釋放鏈接
    mysql_free_result($res);
    mysql_close($link_2004);
}

// 釋放redis
$redis_cq01->close();
?>
View Code

四:離線天級統計和清理數據腳本

?php
/**
* static log :天天離線統計代碼日誌和刪除五天前的日誌
*
* @Author:cuihuan@baidu.com
* 2015-11-06
* */

// 離線統計
$link_2004 = mysql_connect('ip:port', 'user', 'pwd');
if (!$link_2004) {
    die("Could not connect:" . mysql_error());
}

$crowd_db = mysql_select_db('fb_log', $link_2004);

// 統計昨天的數據
$day_time = date("Y-m-d", time() - 60 * 60 * 24 * 1);
$static_sql = "get sql";

$res = mysql_query($static_sql, $link_2004);

// 獲取結果入庫略

// 清理15天以前的數據
$before_15_day = date("Y-m-d", time() - 60 * 60 * 24 * 15);
$delete_sql = "delete from xxx where createtime

五:代碼部署

主要是部署,批量入庫腳本的調用和天級統計腳本,crontab例行運行。vim

# 批量入庫腳本
*/2 * * * * /home/cuihuan/xxx/lamp/php5/bin/php /home/cuihuan/xxx/batchLog.php >>/home/cuihuan/xxx/batchlog.log

# 天級統計腳本
0 5 * * * /home/cuihuan/xxx/php5/bin/php /home/cuihuan/xxx/staticLog.php >>/home/cuihuan/xxx/staticLog.log

總結:相對於其餘複雜的方式處理高併發,這個解決方案簡單有效:經過redis緩存抗壓,mysql批量入庫解決數據庫瓶頸,離線計算解決統計數據,經過按期清理保證庫的大小。數組

相關文章
相關標籤/搜索