WEB漏洞——robots.txt泄漏敏感信息

漏洞描述 搜索引擎能夠經過robots文件能夠獲知哪些頁面能夠爬取,哪些頁面不能夠爬取。Robots協議是網站國際互聯網界通行的道德規範,其目的是保護網站數據和敏感信息、確保用戶我的信息和隱私不被侵犯,若是robots.txt文件編輯的太過詳細,反而會泄露網站的敏感目錄或者文件,好比網站後臺路徑,從而得知其使用的系統類型,從而有針對性地進行利用。html 漏洞測試 檢測形式多樣,工具爬蟲掃描獲得敏
相關文章
相關標籤/搜索