思考:應用網站架構的衍化過程當中,應用最新的框架和工具技術當然是最優選擇;可是,若是能在現有的框架的基礎上提出簡單可依賴的解決方案
,何嘗不是一種提高自個人嘗試。php
解決:mysql
問題一:要求日誌最好入庫;可是,直接入庫mysql確實扛不住,批量入庫沒有問題,done。【批量入庫和直接入庫性能差別參考文章】redis
問題二:批量入庫就須要有高併發的消息隊列,決定採用redis list 仿真實現,並且方便回滾。sql
問題三:日誌量畢竟大,保存最近30條足矣,決定用php寫個離線統計和清理腳本。數據庫
done,下面是小拽的簡單實現過程json
考慮到log系統對數據庫的性能更多一些,穩定性和安全性沒有那麼高,存儲引擎天然是隻支持select insert 沒有索引的archive
。若是確實有update需求,也能夠採用myISAM。vim
考慮到log是實時記錄的全部數據,數量可能巨大,主鍵採用bigint,自增便可
。數組
考慮到log系統以寫爲主,統計採用離線計算,字段均不要出現索引
,由於一方面可能會影響插入數據效率,另外讀時候會形成死鎖,影響寫數據。緩存
因爲高併發,儘量簡單,直接,上代碼。安全
<?php /*************************************************************************** * * 獲取到的調用日誌,存入redis的隊列中. * $Id$ * **************************************************************************/ /** * @file saveLog.php * @date 2015/11/06 20:47:13 * @author:cuihuan * @version $Revision$ * @brief * **/ // 獲取info $interface_info = $_GET['info']; // 存入redis隊列 $redis = new Redis(); $redis->connect('xx', 6379); $redis->auth("password"); // 加上時間戳存入隊列 $now_time = date("Y-m-d H:i:s"); $redis->rPush("call_log", $interface_info . "%" . $now_time); $redis->close(); /* vim: set ts=4 sw=4 sts=4 tw=100 */ ?>
定時讀取redis消息隊列裏面的數據,批量入庫。
<?php /** * 獲取redis消息隊列中的腳本,拼接sql,批量入庫。 * @update 2015-11-07 添加失敗消息隊列回滾機制 * * @Author:cuihuan * 2015-11-06 * */ // init redis $redis_xx = new Redis(); $redis_xx->connect('ip', port); $redis_xx->auth("password"); // 獲取現有消息隊列的長度 $count = 0; $max = $redis_xx->lLen("call_log"); // 獲取消息隊列的內容,拼接sql $insert_sql = "insert into fb_call_log (`interface_name`, `createtime`) values "; // 回滾數組 $roll_back_arr = array(); while ($count < $max) { $log_info = $redis_cq01->lPop("call_log"); $roll_back_arr = $log_info; if ($log_info == 'nil' || !isset($log_info)) { $insert_sql .= ";"; break; } // 切割出時間和info $log_info_arr = explode("%",$log_info); $insert_sql .= " ('".$log_info_arr[0]."','".$log_info_arr[1]."'),"; $count++; } // 斷定存在數據,批量入庫 if ($count != 0) { $link_2004 = mysql_connect('ip:port', 'user', 'password'); if (!$link_2004) { die("Could not connect:" . mysql_error()); } $crowd_db = mysql_select_db('fb_log', $link_2004); $insert_sql = rtrim($insert_sql,",").";"; $res = mysql_query($insert_sql); // 輸出入庫log和入庫結果; echo date("Y-m-d H:i:s")."insert ".$count." log info result:"; echo json_encode($res); echo "</br>\n"; // 數據庫插入失敗回滾 if(!$res){ foreach($roll_back_arr as $k){ $redis_xx->rPush("call_log", $k); } } // 釋放鏈接 mysql_free_result($res); mysql_close($link_2004); } // 釋放redis $redis_cq01->close(); ?>
?php /** * static log :天天離線統計代碼日誌和刪除五天前的日誌 * * @Author:cuihuan * 2015-11-06 * */ // 離線統計 $link_2004 = mysql_connect('ip:port', 'user', 'pwd'); if (!$link_2004) { die("Could not connect:" . mysql_error()); } $crowd_db = mysql_select_db('fb_log', $link_2004); // 統計昨天的數據 $day_time = date("Y-m-d", time() - 60 * 60 * 24 * 1); $static_sql = "get sql"; $res = mysql_query($static_sql, $link_2004); // 獲取結果入庫略 // 清理15天以前的數據 $before_15_day = date("Y-m-d", time() - 60 * 60 * 24 * 15); $delete_sql = "delete from xxx where createtime < '" . $before_15_day . "'"; try { $res = mysql_query($delete_sql); }catch(Exception $e){ echo json_encode($e)."\n"; echo "delete result:".json_encode($res)."\n"; } mysql_close($link_2004); ?>
主要是部署,批量入庫腳本的調用和天級統計腳本,crontab例行運行。
# 批量入庫腳本 */2 * * * * /home/cuihuan/xxx/lamp/php5/bin/php /home/cuihuan/xxx/batchLog.php >>/home/cuihuan/xxx/batchlog.log # 天級統計腳本 0 5 * * * /home/cuihuan/xxx/php5/bin/php /home/cuihuan/xxx/staticLog.php >>/home/cuihuan/xxx/staticLog.log
總結:相對於其餘複雜的方式處理高併發,這個解決方案簡單有效:經過redis緩存抗壓,mysql批量入庫解決數據庫瓶頸,離線計算解決統計數據,經過按期清理保證庫的大小。