20189209 《網絡攻防技術》第四周做業

1、KaliSecurity視頻總結(11-15)

1.1 Kali漏洞分析之OpenVAS使用


以對Metasploitable2虛擬機的掃描爲例,介紹OpenVAS漏洞掃描器在實際中的應用與具體操做。
 
訪問本地 https://localhost:9392/ 登陸OpenVAS的WEB管理界面:

 
要完成一個基本的掃描過程,首先要建立掃描目標Target,做爲要掃描的目標:



 
建立掃描任務Task:


 
開始任務start:

查看掃描狀態細節python

查看掃描結果,包含漏洞詳細信息,也可導出PDF文件git

導出掃描結果報告文件web

快速掃描可以使用Quick Start:

算法

1.2 Kali漏洞分析之掃描工具


除了綜合漏洞掃描器OpenVAS,Kali下還有其餘一些漏洞分析掃描工具,包括WEB漏洞掃描器Golismero與Nikto,以及系統信息掃描收集工具Lynis與unix-privesc-check。sql

一、WEB掃描工具Golismero,是一款開源的Web掃描器,自帶一些安全測試工具,還可導入一些掃描工具的結果,如OpenVAS,Wfuzz,SQLmap,DNS recon等,並自動分析。它採用插件式的框架結構,有純python編寫,可運行在Windows,Linux,BSD,OS X等系統上,幾乎沒有系統依賴性。提供了一系列的接口,用戶能夠定義本身的插件。
根據插件的功能,可分爲四類:ImportPlugin(導入插件,用來加載其餘安全工具的掃描結果)、TestingPlugin(測試插件,測試或者滲透入侵的插件)、ReportPlugin(報表插件,對測試結果生成報表)、UIPlugin(界面插件,泳衣和用戶交互顯示當前系統的運行狀況)。在編寫自定義插件時,注意選擇好相應的插件類型。
查看插件列表命令golismero plugins
掃描虛擬機Metasploitable2 golismero scan http://222.28.136.37/
掃描過程截圖:

此工具備缺點:掃描過程當中的信息比較雜亂,可能調用了多個進程執行這個命令,對掃描報告的生成不是很好。數據庫

二、漏洞掃描器Nikto.pl
 
Nikto是一款開源的(GPL)網頁服務器掃描器,能夠對網頁服務器進行全面的多種掃描。
掃描參數如:簡單掃描:目標基本WEB基本配置信息,服務器,PHP解析器等版本信息。
掃描虛擬機Metasploitable2 nikto -h 222.28.136.37:

 
對多個端口進行掃描命令 nikto -h 222.28.136.37 -p 80,88,443:

 
更新插件和數據庫 nikto -h 222.28.136.37 -update:

 
三、Lynis系統信息收集整理工具
對Linux操做系統詳細配置等信息進行枚舉收集,生成易懂的報告文件。測試者可根據報告文件信息找到漏洞利用的exp。
通常使用中避免交互lynis --check-all -Q自動枚舉一些信息,默認枚舉當前系統的信息:


 
unix-privesc-check與Lynis相似,也是信息收集工具
使用命令./unix-privesc-check > log.txt
例如unix-privesc-check standard:
apache

1.3 漏洞分析之WEB爬行


針對web網站的掃描,每每須要對網站路徑&頁面&帳戶進行枚舉,這涉及到WEB安全中的爬行工具。
 
Kali下web爬行工具:

 
對網站路徑和頁面進行枚舉掃描,須要字典的幫助。Kali內置字典存放的位置:/文件系統/usr/share/wordlists

在命令行進入字典:api

$cd /usr/share/wordlists/
$ls
$ls -la


 
一、Apache-users用戶枚舉腳本:安全

apache-users -h 222.28.136.37 -l /usr/share/wordlists/dirbuster/
apache-users -h 222.28.136.37 -l /usr/share/wordlists/dirbuster/apache-user-enum-2.0.txt -p 80 -s 0 -e 403 -t 10  /* 判斷是否存在這個目錄,但會致使一些誤判 */

 
二、CutyCapt:網站截圖工具:
cutycapt --url=http://www.baidu.com/ --out=baidu.png

 
三、DIRB:強大的目錄掃描工具,有多重掃描功能:
dirb http://222.28.136.37/


 
四、Dirbuster:Kali下的圖形化目錄掃描器,擁有直觀的掃描結果:
dirbuster 輸入目標的網站地址http://222.28.136.37/ ,設置要掃描的字典

 
點start運行,能夠看到掃描信息、掃描結果、以樹形式列出的掃描結果、錯誤信息:

 
五、Vega:Kali下的WVS(相似Windows下的AWVS),使用簡單易懂
 
六、WebSlayer 由WFuzz發展出來的WEB爆破工具服務器

1.4 Kali漏洞分析之WEB漏洞掃描(一)


與web路徑爬行密切相關的,是web漏洞掃描工具。

 
一、Cadaver 是一個用來瀏覽和修改WebDAV共享的Unix命令行程序,它能夠以壓縮方式上傳和下載文件,也會檢驗屬性、拷貝、移動、鎖定和解鎖文件。
 
搭建webdav環境:

 
使用ssh遠程鏈接:

 
查看web目錄 其實自身已經搭建好了dav環境:

 
點WEBDAV:

 
點WEBDAV以後的目錄:

此處出現問題,沒有視頻中所說的DavTest文件。

二、DAVTest 測試支持WebDAV的服務器上傳文件等。
davtest -url http://222.28.136.37/dav/建立了一些目錄,上傳了一些文件:

 
能夠查看,多了一個目錄:


 
並且這步事後,對應的WebDAV的目錄也多了一個:

 
點擊多出來的目錄,有如下DavTest文件:

 
三、Deblaze 針對FLASH遠程調用等的枚舉:

 
四、Fimap是遠程和本地文件包含的掃描器 文件包含漏洞利用工具
 
五、Grabber是一個WEB應用漏洞掃描器,能夠指定掃描漏洞類型結合爬蟲對網站進行安全掃描。
掃描漏洞,若是須要爬蟲,加上-spider;要爬多深,接個數字;爬蟲爬到的url須要作哪些漏洞的檢測,後面能夠接好比-sql,後面再接url與目標地址:
grabber --spider 2 --sql --url http://222.28.136.37/

1.5 Kali漏洞分析之WEB漏洞掃描(二)


一、Joomla Scanner,相似於Wpscan的掃描器,針對特定CMS(Joomla)的漏洞掃描工具。
 
二、Skipfish,是Google出品的一款自動化的網絡安全掃描工具,它經過HTTP協議處理且佔用較低的CPU資源,所以運行速度比較快,能夠每秒鐘處理2000個請求。掃描方式:skipfish -o /tmp/1.report http://url/ /* -o是output即生成文件,後面跟生成的目錄*/
例:skipfish -o ~/report123 http://baidu.com/掃描百度,在home目錄下生成報告:

 
生成報告文件:


 
三、Uniscan WVS,簡單易用的web漏洞掃描器
能夠查看掃描結果
 
四、W3AF,是一個web應用程序攻擊和檢查框架,該項目已超過130個插件,其中包括檢查網站爬蟲,SQL注入(SQL Injection),跨站(XSS),本地文件包含(LFI),遠程文件包含(RFI)。該項目的目的是要創建一個框架,以尋找和開發web應用安全漏洞。
 
五、wapiti,工做方式與nikto相似,也採用黑盒的方式主動對被測web應用進行掃描,尋找其中潛在的安全缺陷,與nikto提供測試用例庫不一樣,它實現了內置的匹配算法:

 
六、webshag集成調用框架,調用Nmap,UScan,信息收集,爬蟲等功能,使掃描過程更容易:

 
七、websploit 是一個開源項目,主要用於遠程掃描和分析系統漏洞。使用它能夠很容易和快速發現系統中存在的問題,並用於深刻分析:

2、教材學習內容總結

一、網絡嗅探

  • 網絡嗅探(sniff)是一種黑客經常使用的竊聽技術,利用計算機的網絡接口截獲目的地爲其餘計算機的數據報文,以監聽數據流中所包含的用戶帳戶密碼或私密通訊等。實現網絡嗅探的工具稱爲網絡嗅探器(Sniffer),嗅探器捕獲的數據報文是通過封包處理以後的二進制數據,所以一般會結合網絡協議分析技術來解析嗅探到的網絡數據,這樣才能恢復出TCP/IP協議棧上各層網絡協議的內容,以及實際發送出的應用層信息。網絡嗅探技術是一把雙刃劍,一方面,它是攻擊者的入侵手段,另外一方面,它也是防護者必備的工具,網絡管理者能夠利用網絡嗅探來捕獲與分析網絡的流量信息。
     
  • 網絡嗅探的危害和做用:
  • 網絡嗅探做爲攻擊者常用的內網滲透技術,得到主機訪問權後,可以被動的、靜默嗅探網絡上傳輸的數據。
     
  • 網絡嗅探利用計算機的網絡接口截獲目的地爲其餘計算機的數據報文,以監聽數據流中所包含的用戶帳戶密碼或私密信息。
     
  • 在純交換網絡中能夠採用以下手段使不該到達本地數據包到達本地,從而實現嗅探:
    (1)MAC地址泛洪攻擊:經過填滿MAC地址表 (橋接表) 致使同一網段內設備之間通信沒法單播,只能經過未知單播泛洪來進行通信。從而達到竊聽信息的目的。
    (2)MAC欺騙:目的是假冒所要監聽的主機網卡,使交換機將本應發送給目標主機的數據包發送給攻擊者,從而達到數據嗅探的目的。
    (3)ARP欺騙:利用IP地址與MAC地址之間進行轉化時的協議漏洞,達到MAC地址欺騙,從而達到在交換式局域網中嗅探的目的。
     
  • 網絡嗅探軟件:
     
  • libpcap抓包開發庫:libpcap是一個網絡數據包捕獲函數庫,主要做用以下:
    (1)捕獲各類數據包,例如:網絡流量統計
    (2)過濾網絡數據包,例如:過濾掉本地上的一些數據,相似防火牆
    (3)分析網絡數據包,例如:分析網絡協議,數據的採集
    (4)存儲網絡數據包,例如:保存捕獲的數據覺得未來進行分析
     
  • tcpdump:用簡單的話來定義tcpdump,就是:dump the traffic on a network,根據使用者的定義對網絡上的數據包進行截獲的包分析工具。做爲互聯網上經典的的系統管理員必備工具,tcpdump以其強大的功能,靈活的截取策略,成爲每一個高級的系統管理員分析網絡,排查問題等所必備的工具之一。
    它的命令格式爲:

     
  • wireshark嗅探器軟件:wireshark是網絡包分析工具。主要做用是嘗試捕獲網絡包, 並嘗試顯示包的儘量詳細的狀況。網絡管理員使用Wireshark來檢測網絡問題,網絡安全工程師使用wireshark中文版來檢查資訊安全相關問題,開發者使用Wireshark來爲新的通信協定除錯,普通使用者使用Wireshark來學習網絡協定的相關知識。
    以下所示,將tcpdump抓到的100個包,保存在test.cap文件裏,而後用wireshark對抓到的包進行分析

  • 網絡嗅探的檢測與防範
     
  • 網絡嗅探的檢測:檢查網卡是否在混亂模式下,來發現正在監聽的嗅探器。
     
  • 網絡嗅探的防範措施:
    (1)採用安全的網絡拓撲,儘可能將共享式網絡升級爲交換式網絡。
    (2)用靜態ARP或者MAC-端口映射表代替動態機制。
    (3)重視網絡數據傳輸的集中位置點的安全防範。
    (4)避免使用明文傳輸口令或敏感信息的網絡協議。
    (5)採用安全的網絡拓撲,用靜態ARP或MAC端口映射表代替動態機制,重視網關、路由器和交換機的安全防範,避免明文傳輸敏感信息的網絡協議。

二、網絡協議分析

  • 網絡協議分析是網絡嗅探器進一步解析與理解捕獲數據包必須的技術手段,須要識別出各個網絡層次上所使用的網絡協議類型。技術原理是對網絡上傳輸的二進制數據包進行解析,以恢復出各層網絡協議信息以及傳輸內容的技術方法。
     
  • 網絡協議分析分析的典型步驟:
  • 網絡嗅探獲得的是原始數據鏈路層傳輸的二進制數據包,大多狀況下是以太網幀數據;
     
  • 對以太網進行幀結構分析,定位幀頭各字段結構,肯定網絡層協議類型,大多數是IP(0800)協議,並提取數據幀中包含的網絡層數據內容;
     
  • 進一步對IP數據包進行分析,根據IP協議頭中的Protocol字段,肯定傳輸類型;
     
  • 繼續根據TCP或UDP的目標端口肯定具體的應用層協議;
     
  • 根據相應的應用層協議對數據進行整合恢復,獲得實際傳輸的數據。
     
  • 網絡協議分析工具Wireshark
     
  • WireShark基本功能:
    (1)抓包(Capture):Capture Filter, BPF過濾器。
    (2)分析(Analyze):自動協議解碼,支持數百種協議,顯示各層包頭和內容字段。靈活選擇協議對網絡流進行解碼。
    (3)統計(Statistics):協議分類(Protocol Hierarchy)、會話列表(Conversations)、會話終端(EndPoints)、I/O Graph, 隨時間統計的流量曲線、會話重組(Follow TCP/UDP Stream)和會話圖(Flow Graph)。

三、wireshark的使用

  • 對抓包結果的說明
      wireshark的抓包結果整個窗口被分紅三部分:最上面爲數據包列表,用來顯示截獲的每一個數據包的總結性信息;中間爲協議樹,用來顯示選定的數據包所屬的協議信息;最下邊是以十六進制形式表示的數據包內容,用來顯示數據包在物理層上傳輸時的最終形式。
    使用wireshark能夠很方便地對截獲的數據包進行分析,包括該數據包的源地址、目的地址、所屬協議等。

      上圖的數據包列表中,第一列是編號,第二列是截取時間,第三列source是源地址,第四列destination是目的地址,第五列protocol是這個包使用的協議,第六列info是一些其它的信息,包括源端口號和目的端口號。
      中間部分協議樹,經過此協議樹能夠獲得被截獲數據包的更多信息,如主機的MAC地址(Ethernet II)、IP地址(Internet protocol)、UDP端口號(user datagram protocol)以及UDP協議的具體內容(data)。
      最下面是以十六進制顯示的數據包的具體內容,這是被截獲的數據包在物理媒體上傳輸時的最終形式,當在協議樹中選中某行時,與其對應的十六進制代碼一樣會被選中,這樣就能夠很方便的對各類協議的數據包進行分析。

3、《Python 黑帽子》第三章代碼

碼雲連接:BHP_CH3_Code

相關文章
相關標籤/搜索