Snoopy是一個php類,用來模擬瀏覽器的功能,能夠獲取網頁內容,發送表單。
Snoopy的一些特色:
1抓取網頁的內容 fetch
2 抓取網頁的文本內容 (去除HTML標籤) fetchtext
3抓取網頁的連接,表單 fetchlinks fetchform
4 支持代理主機
5支持基本的用戶名/密碼驗證
6 支持設置 user_agent, referer(來路), cookies 和 header content(頭文件)
7支持瀏覽器重定向,並能控制重定向深度
8能把網頁中的連接擴展成高質量的url(默認)
9提交數據而且獲取返回值
10 支持跟蹤HTML框架
11支持重定向的時候傳遞cookies
要求php4以上就能夠了 因爲自己是php一個類 無需擴支持 服務器不支持curl時候的最好選擇,
類方法:
fetch($URI)
———–
這是爲了抓取網頁的內容而使用的方法。
$URI參數是被抓取網頁的URL地址。
抓取的結果被存儲在 $this->results 中。
若是你正在抓取的是一個框架,Snoopy將會將每一個框架追蹤後存入數組中,而後存入 $this->results。
fetchtext($URI)
—————
本方法相似於fetch(),惟一不一樣的就是本方法會去除HTML標籤和其餘的無關數據,只返回網頁中的文字內容。
fetchform($URI)
—————
本方法相似於fetch(),惟一不一樣的就是本方法會去除HTML標籤和其餘的無關數據,只返回網頁中表單內容(form)。
fetchlinks($URI)
—————-
本方法相似於fetch(),惟一不一樣的就是本方法會去除HTML標籤和其餘的無關數據,只返回網頁中連接(link)。
默認狀況下,相對連接將自動補全,轉換成完整的URL。
submit($URI,$formvars)
———————-
本方法向$URL指定的連接地址發送確認表單。$formvars是一個存儲表單參數的數組。
submittext($URI,$formvars)
————————–
本方法相似於submit(),惟一不一樣的就是本方法會去除HTML標籤和其餘的無關數據,只返回登錄後網頁中的文字內容。
submitlinks($URI)
—————-
本方法相似於submit(),惟一不一樣的就是本方法會去除HTML標籤和其餘的無關數據,只返回網頁中連接(link)。
默認狀況下,相對連接將自動補全,轉換成完整的URL。
類屬性: (缺省值在括號裏)
$host 鏈接的主機
$port 鏈接的端口
$proxy_host 使用的代理主機,若是有的話
$proxy_port 使用的代理主機端口,若是有的話
$agent 用戶代理假裝 (Snoopy v0.1)
$referer 來路信息,若是有的話
$cookies cookies, 若是有的話
$rawheaders 其餘的頭信息, 若是有的話
$maxredirs 最大重定向次數, 0=不容許 (5)
$offsiteok whether or not to allow redirects off-site. (true)
$expandlinks 是否將連接都補全爲完整地址 (true)
$user 認證用戶名, 若是有的話
$pass 認證用戶名, 若是有的話
$accept http 接受類型 (image/gif, image/x-xbitmap, image/jpeg, image/pjpeg, */*)
$error 哪裏報錯, 若是有的話
$response_code 從服務器返回的響應代碼
$headers 從服務器返回的頭信息
$maxlength 最長返回數據長度
$read_timeout 讀取操做超時 (requires PHP 4 Beta 4+)
設置爲0爲沒有超時
$timed_out 若是一次讀取操做超時了,本屬性返回 true (requires PHP 4 Beta 4+)
$maxframes 容許追蹤的框架最大數量
$status 抓取的http的狀態
$temp_dir 網頁服務器可以寫入的臨時文件目錄 (/tmp)
$curl_path cURL binary 的目錄, 若是沒有cURL binary就設置爲 false php
如下是demo
include "Snoopy.class.php";
$snoopy = new Snoopy;
$snoopy->proxy_host = "http://www.jb51.net";
$snoopy->proxy_port = "80";
$snoopy->agent = "(compatible; MSIE 4.01; MSN 2.5; AOL 4.0; Windows 98)";
$snoopy->referer = "http://www.jb51.net";
$snoopy->cookies["SessionID"] = 238472834723489l;
$snoopy->cookies["favoriteColor"] = "RED";
$snoopy->rawheaders["Pragma"] = "no-cache";
$snoopy->maxredirs = 2;
$snoopy->offsiteok = false;
$snoopy->expandlinks = false;
$snoopy->user = "joe";
$snoopy->pass = "bloe";
if($snoopy->fetchtext("http://www.jb51.net"))
{
echo "".htmlspecialchars($snoopy->results)."\n";
}
else
echo "error fetching document: ".$snoopy->error."\n"; html
如下是一些代碼片斷:
一、獲取指定url內容
fetch($url); //獲取全部內容
echo $snoopy->results; //顯示結果
//可選如下
$snoopy->fetchtext //獲取文本內容(去掉html代碼)
$snoopy->fetchlinks //獲取連接
$snoopy->fetchform //獲取表單
?> 數組
2 表單提交
表單提交地址
$snoopy->submit($action,$formvars);//$formvars爲提交的數組
echo $snoopy->results; //獲取表單提交後的 返回的結果
//可選如下
$snoopy->submittext; //提交後只返回 去除html的 文本
$snoopy->submitlinks;//提交後只返回 連接
?>
既然已經提交的表單 那就能夠作不少事情 接下來咱們來假裝ip,假裝瀏覽器
3 假裝
cookies["PHPSESSID"] = 'fc106b1918bd522cc863f36890e6fff7'; //假裝sessionid
$snoopy->agent = "(compatible; MSIE 4.01; MSN 2.5; AOL 4.0; Windows 98)"; //假裝瀏覽器
$snoopy->referer = http://www.jb51.net; //假裝來源頁地址 http_referer
$snoopy->rawheaders["Pragma"] = "no-cache"; //cache 的http頭信息
$snoopy->rawheaders["X_FORWARDED_FOR"] = "127.0.0.101"; //假裝ip
$snoopy->submit($action,$formvars);
echo $snoopy->results;
?> 瀏覽器
原來咱們能夠假裝session 假裝瀏覽器 ,假裝ip, haha 能夠作不少事情了。
例如 帶驗證碼,驗證ip 投票, 能夠不停的投。
ps:這裏假裝ip ,實際上是假裝http頭, 因此通常的經過 REMOTE_ADDR 獲取的ip是假裝不了,
反而那些經過http頭來獲取ip的(能夠防止代理的那種) 就能夠本身來製造ip。
關於如何驗證碼 ,簡單說下:
首先用普通的瀏覽器, 查看頁面 , 找到驗證碼所對應的sessionid,
同時記下sessionid和驗證碼值,
接下來就用snoopy去僞造 。
原理:因爲是同一個sessionid 因此取得的驗證碼和第一次輸入的是同樣的。
4 有時咱們可能須要僞造更多的東西,snoopy徹底爲咱們想到了
proxy_host = "http://www.jb51.net";
$snoopy->proxy_port = "8080"; //使用代理
$snoopy->maxredirs = 2; //重定向次數
$snoopy->expandlinks = true; //是否補全連接 在採集的時候常常用到
// 例如連接爲 /images/taoav.gif 可改成它的全連接 http://www.jb51.net/images/taoav.gif
$snoopy->maxframes = 5 //容許的最大框架數
//注意抓取框架的時候 $snoopy->results 返回的是一個數組
$snoopy->error //返回報錯信息
?> 服務器
順便說下,通常來講有些網站採用的防採集手段,這時候 咱們本身在作才採集的時候不要用open來直接打開。 cookie