作者:Gilberto Najera-Gutierrez
譯者:飛龍
協(xié)議:CC BY-NC-SA 4.0
簡(jiǎn)介
滲透測(cè)試可以通過(guò)多種途徑完成连茧,例如黑盒请祖、灰盒和白盒。黑盒測(cè)試在測(cè)試者沒有任何應(yīng)用的前置信息條件下執(zhí)行,除了服務(wù)器的 URL燕耿。白盒測(cè)試在測(cè)試者擁有目標(biāo)的全部信息的條件下執(zhí)行径缅,例如它的構(gòu)造掺栅、軟件版本、測(cè)試用戶纳猪、開發(fā)信息氧卧,以及其它∈系蹋灰盒測(cè)試是黑盒和白盒的混合沙绝。
對(duì)于黑盒和灰盒測(cè)試,偵查階段對(duì)測(cè)試者非常必然鼠锈,以便發(fā)現(xiàn)白盒測(cè)試中通常由應(yīng)用所有者提供的信息闪檬。
我們打算采取黑盒測(cè)試方式,因?yàn)樗婕暗酵獠抗粽哂糜讷@取足夠信息的所有步驟购笆,以便入侵應(yīng)用或服務(wù)器的特定功能粗悯。
作為每個(gè) Web 滲透測(cè)試中偵查階段的一部分,我們需要瀏覽器每個(gè)包含在網(wǎng)頁(yè)中的鏈接同欠,并跟蹤它展示的每個(gè)文件样傍。有一些工具能夠幫助我們自動(dòng)和以及加速完成這個(gè)任務(wù),它們叫做 Web 爬蟲或蜘蛛铺遂。這些工具通過(guò)跟隨所有到外部文件的鏈接和引用衫哥,有的時(shí)候會(huì)填充表單并將它們發(fā)送到服務(wù)器,保存所有請(qǐng)求和響應(yīng)來(lái)瀏覽網(wǎng)頁(yè)襟锐,從而提供給我們離線分析它們的機(jī)會(huì)撤逢。
這一章中,我們會(huì)涉及到一些包含在 Kali 中的爬蟲的使用,也會(huì)查看我們感興趣的文件和目錄笛质,來(lái)尋找常見的網(wǎng)頁(yè)泉沾。
3.1 使用 Wget 為離線分析下載網(wǎng)頁(yè)
Wget 是 GNU 項(xiàng)目的一部分,也包含在主流 linux 發(fā)行版中妇押,包括 Kali跷究。它能夠遞歸為離線瀏覽下載網(wǎng)頁(yè),包括鏈接轉(zhuǎn)換和下載非 HTML 文件敲霍。
這個(gè)秘籍中俊马,我們會(huì)使用 Wget 來(lái)下載和 vulnerable_vm 中的應(yīng)用相關(guān)的頁(yè)面。
準(zhǔn)備
這一章的所有秘籍都需要運(yùn)行 vulnerable_vm肩杈。在這本書的特定場(chǎng)景中柴我,它的 IP 地址為 192.168.56.102。
操作步驟
- 1.讓我們做第一次嘗試扩然,通過(guò)僅僅以一個(gè)參數(shù)調(diào)用 Wget 來(lái)下載頁(yè)面艘儒。做第一次嘗試,通過(guò)僅僅以一個(gè)參數(shù)調(diào)用 Wget 來(lái)下載夫偶。
1 wget http://192.168.56.102/bodgeit/
我們可以看到界睁,它僅僅下載了index.html
文件到當(dāng)前目錄,這是應(yīng)用的首頁(yè)兵拢。
- 2.我們需要使用一些選項(xiàng)翻斟,告訴 Wget 將所有下載的文件保存到特定目錄中,并且復(fù)制我們?cè)O(shè)為參數(shù)的 URL 中包含的所有文件说铃。讓我們首先創(chuàng)建目錄來(lái)保存這些文件:
1 mkdir bodgeit_offline
- 3.現(xiàn)在访惜,我們會(huì)遞歸下載應(yīng)用中所有文件并保存到相應(yīng)目錄中。
1 wget -r -P bodgeit_offline/ http://192.168.56.102/bodgeit/
工作原理
像之前提到的那樣腻扇,Wget 是個(gè)為下載 HTTP 內(nèi)容創(chuàng)建的工具债热。通過(guò)-r
參數(shù),我們可以使其遞歸下載衙解,這會(huì)按照它所下載的每個(gè)頁(yè)面的所有連接阳柔,并同樣下載它們。-P
選項(xiàng)允許我們?cè)O(shè)置目錄前綴蚓峦,這是 Wget 會(huì)開始保存下載內(nèi)容的目錄舌剂。默認(rèn)它設(shè)為當(dāng)前目錄。
更多
在我們使用 Wget 時(shí)暑椰,可以考慮一些其它的實(shí)用選項(xiàng):
-l
:在遞歸下載的時(shí)候霍转,規(guī)定 Wget 的遍歷深度可能很有必要。這個(gè)選項(xiàng)后面帶有我們想要遍歷的層級(jí)深度的數(shù)值一汽,讓我們規(guī)定這樣的界限避消。
-k
:在文件下載之后低滩,Wget 修改所有鏈接,使其指向相應(yīng)的本地文件岩喷,這會(huì)使站點(diǎn)能夠在本地瀏覽恕沫。
-p
:這個(gè)選項(xiàng)讓 Wget 下載頁(yè)面所需的所有圖像,即使它們位于其它站點(diǎn)纱意。
-w
:這個(gè)選項(xiàng)讓 Wget 在兩次下載之間等待指定的描述婶溯。當(dāng)服務(wù)器中存在防止自動(dòng)瀏覽的機(jī)制時(shí),這會(huì)非常有用偷霉。
3.2 使用 HTTrack 為離線分析下載頁(yè)面
就像 HTTrack 的官網(wǎng)所說(shuō)(http://www.httrack.com
):
它允許你從互聯(lián)網(wǎng)下載 WWW 站點(diǎn)到本地目錄中迄委,遞歸構(gòu)建所有目錄、從服務(wù)器獲得 HTML类少、圖像叙身,和其它文件到你的計(jì)算機(jī)中。
我們?cè)谶@個(gè)秘籍中會(huì)使用 HTTrack 來(lái)下載應(yīng)用站點(diǎn)的所有內(nèi)容硫狞。
準(zhǔn)備
HTTrack 沒有默認(rèn)在 Kali 中安裝信轿。所以我們需要安裝它。
1 apt-get update
2 apt-get install httrack
操作步驟
- 1.我們的第一步是創(chuàng)建目錄來(lái)儲(chǔ)存下載的站點(diǎn)妓忍,輸入:
1 mkdir bodgeit_httrack
2 cd bodgeit_httrack
- 2.使用 HTTrack 的最簡(jiǎn)單方式就是向命令中添加我們打算下載的 URL虏两。
1 httrack http://192.168.56.102/bodgeit/
設(shè)置最后的/
非常重要愧旦,如果遺漏了的話世剖,HTTrack 會(huì)返回 404 錯(cuò)誤,因?yàn)榉?wù)器根目錄沒有bodgeit
文件笤虫。
現(xiàn)在旁瘫,如果我們?cè)L問(wèn)文件file:///root/MyCookbook/test/bodgeit_httrack/index. html
(或者你在你的測(cè)試環(huán)境中選擇的目錄),我們會(huì)看到琼蚯,我們可以離線瀏覽整個(gè)站點(diǎn):
工作原理
HTTrack 創(chuàng)建站點(diǎn)的完整靜態(tài)副本酬凳,這意味著所有動(dòng)態(tài)內(nèi)容,例如用戶輸入的響應(yīng)遭庶,都不會(huì)有效宁仔。在我們下載站點(diǎn)的文件夾中,我們可以看到下列文件和目錄:
- 以服務(wù)器名稱或地址命名的目錄峦睡,包含所有下載的文件翎苫。
-
cookies.txt
文件,包含用于下載站點(diǎn)的 cookie 信息榨了。 -
hts-cache
目錄包含由爬蟲檢測(cè)到的文件列表煎谍,這是 httrack 所處理的文件列表。 -
hts-log.txt
文件包含錯(cuò)誤龙屉、警告和其它在爬取或下載站點(diǎn)期間的信息呐粘。 -
index.html
文件重定向到副本的原始主頁(yè),它位于名稱為服務(wù)器的目錄中。
更多
HTTrack 也擁有一些擴(kuò)展選項(xiàng)作岖,允許我們自定義它的行為來(lái)更好符合我們的需求唆垃。下面是一些值得考慮的實(shí)用修改器:
-rN
:將爬取的鏈接深度設(shè)置為 N。
-%eN
:設(shè)置外部鏈接的深度界限痘儡。
+[pattern]
:告訴 HTTrack 將匹配[pattern]
的 URL 加入白名單降盹,例如+*google.com/*
。
-[pattern]
:告訴 HTTrack 將匹配[pattern]
的 URL 加入黑名單谤辜。
-F [user-agent]
:允許我們定義用于下載站點(diǎn)的 UA(瀏覽器標(biāo)識(shí)符)蓄坏。
3.3 使用 ZAP 蜘蛛
在我們的計(jì)算機(jī)中將完整的站點(diǎn)下載到目錄給予我們信息的靜態(tài)副本,這意味著我們擁有了不同請(qǐng)求產(chǎn)生的輸出丑念,但是我們沒有服務(wù)器的請(qǐng)求或響應(yīng)狀態(tài)涡戳。為了擁有這種信息的記錄,我們需要使用蜘蛛脯倚,就像 OWASP ZAP 中集成的這個(gè)渔彰。
這個(gè)秘籍中,我們會(huì)使用 ZAP 的蜘蛛來(lái)爬取 vulnerable_vm 中的目錄推正,并檢查捕獲的信息恍涂。
準(zhǔn)備
對(duì)于這個(gè)秘籍,我們需要啟動(dòng) vulnerable_vm 和 OWASP ZAP植榕,瀏覽器需要配置來(lái)將 ZAP 用做代理再沧。這可以通過(guò)遵循上一章中“使用 ZAP 發(fā)現(xiàn)文件和文件夾”中的指南來(lái)完成。
操作步驟
- 1.為了讓 ZAP 啟動(dòng)并使瀏覽器將其用作代理尊残,瀏覽
http://192.168.56.102/bodgeit/
炒瘸。 - 2.在
Sites
標(biāo)簽頁(yè)中,打開對(duì)應(yīng)測(cè)試站點(diǎn)的文件夾(本書中是http://192.168.56.102
)寝衫。 - 3.右擊
GET:bodgeit
顷扩。 - 4.從下拉菜單中選擇
Attack → Spider…
。
- 5.在對(duì)話框中慰毅,保留所有選項(xiàng)為默認(rèn)并點(diǎn)擊
Start Scan
隘截。 - 6.結(jié)果會(huì)出現(xiàn)在
Spider
標(biāo)簽頁(yè)的底部面板中。
- 7.如果我們打算分析獨(dú)立文件的請(qǐng)求和響應(yīng)汹胃,我們?cè)L問(wèn)
Sites
標(biāo)簽并打開其中的site
文件夾和bodget
文件夾婶芭。讓我們看一看POST:contact.jsp(anticsrf,comments,null)
。
在右邊统台,我們可以看到完整的請(qǐng)求雕擂,包含所使用的參數(shù)(下半邊)。
- 8.現(xiàn)在贱勃,選擇右側(cè)部分的
Reponse
標(biāo)簽頁(yè)井赌。
在上半邊中谤逼,我們可以看到響應(yīng)頭,包括服務(wù)器標(biāo)識(shí)和會(huì)話 Cookie仇穗,在下版本我們擁有完整的 HTML 響應(yīng)流部。在之后的章節(jié)中,我們會(huì)了解從已授權(quán)的用戶獲取這種 cookie纹坐,如何用于劫持用戶會(huì)話以及執(zhí)行冒充它們的操作枝冀。
工作原理
就像任何其它爬蟲那樣,ZAP 的蜘蛛跟隨它找到的每個(gè)鏈接耘子,位于每個(gè)包含請(qǐng)求范圍以及其中的鏈接中的頁(yè)面上果漾。此外,蜘蛛會(huì)跟隨表單響應(yīng)谷誓、重定向和包含在robots.txt
和sitemap.xml
文件中的 URL绒障。之后它會(huì)為之后分析和使用儲(chǔ)存所有請(qǐng)求和響應(yīng)。
更多
在爬取站點(diǎn)或目錄之后捍歪,我們可能打算使用儲(chǔ)存的請(qǐng)求來(lái)執(zhí)行一些測(cè)試户辱。使用 ZAP 的功能,我們能夠執(zhí)行下列事情:
- 在修改一些數(shù)據(jù)之后重放請(qǐng)求
- 執(zhí)行主動(dòng)和被動(dòng)漏洞掃描
- 模糊測(cè)試輸入?yún)?shù)來(lái)尋找可能的攻擊向量
- 在瀏覽器中重放特定請(qǐng)求
3.4 使用 Burp Suite 爬取站點(diǎn)
Burp 幾乎是最廣泛用于應(yīng)用滲透測(cè)試的工具糙臼,因?yàn)樗鼡碛蓄愃?ZAP 的功能庐镐,并含有一些獨(dú)特的特性和易用的界面。Burp 不僅僅能夠用于爬取站點(diǎn)变逃,但是現(xiàn)在必逆,作為偵查階段的一部分,我們先涉及這個(gè)特性韧献。
準(zhǔn)備
通過(guò)訪問(wèn) Kali 的Applications
菜單末患,之后訪問(wèn)03 Web Application Analysis | Web Application Proxies | burpsuite
來(lái)啟動(dòng) Burp Suite,就像下面這樣:
之后配置瀏覽器將其用做代理锤窑,通過(guò) 8080 端口,就像我們之前使用 ZAP 的那樣嚷炉。
操作步驟
- 1.Burp 的代理默認(rèn)配置為攔截所有請(qǐng)求渊啰,我們需要禁用它來(lái)不帶攔截瀏覽。訪問(wèn)
Proxy
標(biāo)簽頁(yè)并點(diǎn)擊Intercept is on
按鈕申屹,它就會(huì)變?yōu)?code>Intercept is off绘证,像這樣:
2.現(xiàn)在,在瀏覽器中哗讥,訪問(wèn)
http://192.168.56.102/bodgeit/
嚷那。3.在 Burp 的窗口中,當(dāng)我們?cè)L問(wèn)
Target
的時(shí)候杆煞,我們會(huì)看到其中含有我們正在瀏覽器的站點(diǎn)信息魏宽,以及瀏覽器產(chǎn)生的請(qǐng)求腐泻。
- 4.現(xiàn)在,為了激活蜘蛛队询,我們右擊
bodgeit
文件夾派桩,并從菜單中選擇Spider this branch
。
5.Burp 會(huì)詢問(wèn)我們是否添加項(xiàng)目到這里蚌斩,我們點(diǎn)擊
Yes
铆惑。通常,Burp 的蜘蛛只爬取匹配定義在Target
標(biāo)簽頁(yè)中的Scope
標(biāo)簽頁(yè)中的模式的項(xiàng)目送膳。6.之后员魏,蜘蛛會(huì)開始運(yùn)行。當(dāng)它檢測(cè)到登錄表單之后叠聋,它會(huì)向我們?cè)儐?wèn)登錄憑據(jù)逆趋。我們可以忽略它,蜘蛛會(huì)繼續(xù)晒奕,或者我們可以提交一些測(cè)試值闻书,蜘蛛會(huì)填充這些值到表單中。讓我們將兩個(gè)字段脑慧,用戶名和密碼都填充為單詞
test
魄眉,并點(diǎn)擊Submit form
:
7.下面,我們會(huì)要求在注冊(cè)頁(yè)中填充用戶名和密碼闷袒。我們通過(guò)點(diǎn)擊
Ignore form
來(lái)忽略它坑律。8.我們可以在
Spider
標(biāo)簽頁(yè)中檢查蜘蛛的狀態(tài)。我們也可以通過(guò)點(diǎn)擊Spider is running
按鈕來(lái)停止它囊骤。讓我們現(xiàn)在停止它晃择,像這樣:
- 9.我們可以在
Site map
標(biāo)簽頁(yè)中檢查蜘蛛生成的結(jié)果,它在Target
中也物。讓我們查看我們之前填充的登錄請(qǐng)求:
工作原理
Burp 的蜘蛛遵循和其它蜘蛛相同的方式宫屠,但是它的行為有一些不同,我們可以讓它在我們?yōu)g覽站點(diǎn)的時(shí)候運(yùn)行滑蚯,它會(huì)添加我們跟隨(匹配范圍定義)的鏈接到爬取隊(duì)列中浪蹂。
就像 ZAP 那樣,我們可以使用 Burp 的爬取結(jié)果來(lái)執(zhí)行任何操作告材。我們可以執(zhí)行任何請(qǐng)求坤次,例如掃描(如果我們擁有付費(fèi)版)、重放斥赋、比較缰猴、模糊測(cè)試、在瀏覽器中查看疤剑,以及其它滑绒。
3.5 使用 Burp 重放器重放請(qǐng)求
在分析蜘蛛的結(jié)果以及測(cè)試可能的表單輸入時(shí)闷堡,發(fā)送相同請(qǐng)求的修改特定值的不同版本可能很實(shí)用。
這個(gè)秘籍中蹬挤,我們會(huì)學(xué)到如何使用 Burp 的重放器來(lái)多次發(fā)送帶有不同值的請(qǐng)求缚窿。
準(zhǔn)備
我們從前一個(gè)秘籍的地方開始這個(gè)秘籍。啟動(dòng) vulnerable_vm 虛擬機(jī)和 Burp 以及將瀏覽器合理配置來(lái)將 Burp 用做代理非常必要焰扳。
操作步驟
1.我們的第一步是訪問(wèn)
Target
標(biāo)簽倦零,之后訪問(wèn)蜘蛛所生成的登錄頁(yè)面請(qǐng)求(http://192.168.56.102/bodgeit/login.jsp
),帶有username=test&password=test
的那個(gè)吨悍。2.右擊請(qǐng)求并從菜單中選擇
Send to Repeater
扫茅,像這樣:
3.現(xiàn)在我們切換到
Repeater
標(biāo)簽頁(yè)。4.讓我們點(diǎn)擊
Go
來(lái)在右側(cè)查看服務(wù)器的響應(yīng)育瓜。
在Request
部分(圖像左側(cè))中葫隙,我們可以看到發(fā)給服務(wù)器的原始請(qǐng)求。第一行展示了所使用的方法:POST躏仇,被請(qǐng)求的 URL 和協(xié)議:HTTP 1.1恋脚。下面一行,一直到 Cookie焰手,都是協(xié)議頭參數(shù)糟描,在它們后面我們看到一個(gè)換行,之后是我們?cè)诒韱屋斎氲?POST 參數(shù)和值书妻。
- 5.在響應(yīng)部分我們看到了一些標(biāo)簽頁(yè):
Raw
船响、Headers
、Hex躲履、HTML
和Render
见间。這些以不同形式展示相同的響應(yīng)信息。讓我們點(diǎn)擊Render
來(lái)查看頁(yè)面工猜,就像在瀏覽器中那樣:
- 6.我們可以在請(qǐng)求端修改任何信息米诉。再次點(diǎn)擊
OK
并檢查新的響應(yīng)。對(duì)于測(cè)試目的域慷,讓我們將密碼值替換為一個(gè)單引號(hào)荒辕,并發(fā)送請(qǐng)求。
我們可以看到犹褒,我們通過(guò)修改輸入變量的值觸發(fā)了系統(tǒng)錯(cuò)誤。這可能表明應(yīng)用中存在漏洞弛针。在后面的章節(jié)中叠骑,我們會(huì)涉及到漏洞的測(cè)試和識(shí)別,并深入探索它削茁。
工作原理
Burp 的重放器允許我們手動(dòng)為相同的 HTTP 請(qǐng)求測(cè)試不同的輸入和場(chǎng)景宙枷,并且分析服務(wù)器提供的響應(yīng)掉房。這在測(cè)試漏洞的時(shí)候非常實(shí)用,因?yàn)闇y(cè)試者可以了解應(yīng)用如何對(duì)多種所提供的輸入反應(yīng)慰丛,以及從而識(shí)別或利用設(shè)計(jì)卓囚、編程或配置中的可能缺陷。
3.6 使用 WebScarab
WebScarab 是另一個(gè) Web 代理诅病,擁有讓滲透測(cè)試者感興趣的特性哪亿。這個(gè)秘籍中,我們會(huì)使用它來(lái)爬取網(wǎng)站贤笆。
準(zhǔn)備
作為默認(rèn)配置蝇棉,WebScarab 實(shí)用 8008 端口來(lái)捕獲 HTTP 請(qǐng)求。所以我們需要配置我們的瀏覽器來(lái)在 localhost 中使用這個(gè)端口作為代理芥永。你需要遵循與在瀏覽器中配置 OWASP ZAP篡殷、Burp Suite 的相似步驟。這里埋涧,端口必須是 8008板辽。
操作步驟
1.在
Kali 的Applications
菜單中,訪問(wèn)03 Web Application Analysis | webscarab
來(lái)打開WebScarab棘催。2.瀏覽vulnerable_vm 的 Bodgeit 應(yīng)用(
http://192.168.56.102/ bodgeit/
)劲弦。我們會(huì)看到它出現(xiàn)在 WebScarab 的Summary
標(biāo)簽頁(yè)中。-
3.現(xiàn)在巧鸭,右擊 bodgeit 文件夾并從菜單選擇
Spider tree
瓶您,像這樣:
-
4.在蜘蛛發(fā)現(xiàn)新文件過(guò)程中,所有請(qǐng)求會(huì)出現(xiàn)在概覽的下半部分纲仍,樹也會(huì)被填滿呀袱。
這個(gè)概覽也展示了一些關(guān)于每個(gè)特定文件的相關(guān)信息。例如郑叠,是否存在注入或者可能為注入的漏洞夜赵,是否設(shè)置了 cookie,包含表單乡革,或者是否表單含有隱藏字段寇僧。它也表明了代碼或文件上傳中存在注釋。
-
5.如果我們右擊任何下半部分的請(qǐng)求沸版,我們會(huì)看到可以對(duì)它們執(zhí)行的操作嘁傀。我們分析請(qǐng)求,找到路徑
/bodgeit/search.jsp
视粮,右擊它细办,并選擇Show conversation
。新的窗口會(huì)彈出蕾殴,并以多種格式展示響應(yīng)和請(qǐng)求笑撞,就像下面這樣:
-
6.現(xiàn)在點(diǎn)擊
Spider
標(biāo)簽頁(yè)岛啸。
這個(gè)標(biāo)簽頁(yè)中,我們可以在Allowed Domains
和 Forbidden Domains
中茴肥,使用正則表達(dá)式來(lái)調(diào)整蜘蛛抓取的內(nèi)容坚踩。我們也可以使用Fetch Tree
來(lái)刷新結(jié)果。我們也可以通過(guò)點(diǎn)擊Stop
按鈕來(lái)停止蜘蛛瓤狐。
工作原理
WebScarab 的蜘蛛類似于 ZAP 或者 Burp Suite瞬铸,對(duì)發(fā)現(xiàn)網(wǎng)站中所有被引用文件或目錄,而無(wú)需手動(dòng)瀏覽器所有可能的鏈接芬首,以及深度分析發(fā)給服務(wù)器的請(qǐng)求赴捞,并使用它們執(zhí)行更多復(fù)雜的測(cè)試非常實(shí)用。
3.7 從爬取結(jié)果中識(shí)別相關(guān)文件和目錄
我們已經(jīng)爬取了應(yīng)用的完整目錄郁稍,并且擁有了被引用文件和目錄的完整列表赦政。下一步地然是識(shí)別這些文件哪個(gè)包含相關(guān)信息,或者是更可能發(fā)現(xiàn)漏洞的機(jī)會(huì)耀怜。
這篇不僅僅是個(gè)秘籍恢着,更是用于文件和目錄的常見名稱、前后綴的總結(jié)财破,它們通常給滲透測(cè)試者提供有價(jià)值的信息掰派,或者是可能導(dǎo)致整個(gè)系統(tǒng)淪陷的漏洞利用。
操作步驟
1.首先左痢,我們打算尋找登錄和注冊(cè)頁(yè)面靡羡,它們可以給我們機(jī)會(huì)來(lái)成為應(yīng)用的正常用戶,或者通過(guò)猜測(cè)用戶名和密碼來(lái)冒充它們俊性。一些名稱和部分名稱的例子是:
Account
Auth
Login
Logon
Registration
Register
Signup
Signin
2.另一個(gè)常見的用戶名略步、密碼來(lái)源和與之相關(guān)的漏洞是密碼恢復(fù)頁(yè)面:
Change
Forgot
lost-password
Password
Recover
Reset
3.下面,我們需要識(shí)別是否存在應(yīng)用的管理員部分定页,這里有一組功能可能允許我們執(zhí)行高權(quán)限的操作趟薄,例如:
Admin
Config
Manager
Root
4.其它有趣的目錄是內(nèi)容管理系統(tǒng)(CMS)的管理員、數(shù)據(jù)庫(kù)或應(yīng)用服務(wù)器之一典徊,例如:
Admin-console
Adminer
Administrator
Couch
Manager
Mylittleadmin
PhpMyAdmin
SqlWebAdmin
Wp-admin
5.應(yīng)用的測(cè)試和開發(fā)版通常沒有保護(hù)杭煎,并且比最終發(fā)行版更容易存在漏洞,所以它們?cè)谖覀兯阉魅毕莸臅r(shí)候是個(gè)很好的目標(biāo)卒落。這些目錄的名稱包含:
Alpha
Beta
Dev
Development
QA
Test
6.Web 服務(wù)器的信息和配置文件如下:
config.xml
info
phpinfo
server-status
web.config
7.此外羡铲,所有在
robots.txt
中標(biāo)記為Disallow
的目錄和文件可能非常實(shí)用。
工作原理
一些前面列出的名稱和它們的語(yǔ)言變體允許我們?cè)L問(wèn)站點(diǎn)的首先部分儡毕,這是滲透測(cè)試中非常重要的步驟犀勒。它們中的一些能夠提供給我們服務(wù)器,它的配置以及所使用的開發(fā)框架信息妥曲。其它的贾费,例如 Tomcat 管理器和 JBoss 的登錄頁(yè)面,如果配置不當(dāng)?shù)脑掗苊耍瑫?huì)讓我們(或惡意攻擊者)獲得服務(wù)器的控制褂萧。
版權(quán)聲明:本文轉(zhuǎn)載自wizardforcel的專欄,如有侵權(quán)葵萎,請(qǐng)與本人聯(lián)系导犹。
專欄鏈接:http://blog.csdn.net/wizardforcel
原文鏈接:http://blog.csdn.net/wizardforcel/article/details/52818774