20個(gè)快速爬蟲(chóng)售淡,獲取網(wǎng)站數(shù)據(jù)斤葱,資源,價(jià)格揖闸,評(píng)論的數(shù)據(jù)采集必備工具

網(wǎng)絡(luò)爬蟲(chóng)已廣泛應(yīng)用于許多領(lǐng)域揍堕。使用自動(dòng)化的爬蟲(chóng)工具可讓你在短時(shí)間內(nèi)快速收集網(wǎng)站中的各類(lèi)數(shù)據(jù),比如社媒評(píng)論汤纸,電商競(jìng)價(jià)衩茸,股票漲勢(shì),體育競(jìng)賽等等數(shù)據(jù)贮泞,沒(méi)有爬蟲(chóng)工具抓取不到的數(shù)據(jù)楞慈。通常數(shù)據(jù)抓取需要編寫(xiě)Python,但是以下工具不需要隙畜,編程小白也能快速上岸抖部!

點(diǎn)擊查看原文章:https://www.octoparse.es/blog/las-20-mejores-herramientas-de-web-scraping


使用網(wǎng)絡(luò)抓取工具有什么好處说贝??

從重復(fù)的復(fù)制和粘貼工作中解放您的雙手议惰。

將提取的數(shù)據(jù)以結(jié)構(gòu)良好的格式放置,其中包括Excel乡恕,HTML和CSV言询。

通過(guò)聘請(qǐng)專(zhuān)業(yè)的數(shù)據(jù)分析師,可以節(jié)省您的時(shí)間和金錢(qián)傲宜。

這是營(yíng)銷(xiāo)人員运杭,營(yíng)銷(xiāo)人員,記者函卒,YouTube使用者辆憔,研究人員和許多其他缺乏技術(shù)技能的人的利器。?


1.? Octoparse



Octoparse?是一個(gè)網(wǎng)站爬網(wǎng)程序,可提取您在網(wǎng)站上所需的幾乎所有數(shù)據(jù)虱咧。您可以使用Octoparse提取具有廣泛功能的網(wǎng)站熊榛。它具有兩種類(lèi)型的操作模式助手模式高級(jí)模式,因此非程序員可以快速學(xué)習(xí)腕巡。簡(jiǎn)單的點(diǎn)擊式界面可以指導(dǎo)您完成整個(gè)提取過(guò)程玄坦。因此,您可以輕松地從網(wǎng)站中提取內(nèi)容绘沉,并在短時(shí)間內(nèi)將其保存為EXCEL煎楣,TXT,HTML或其數(shù)據(jù)庫(kù)等結(jié)構(gòu)化格式车伞。

此外择懂,它提供了計(jì)劃的云提取,使您可以實(shí)時(shí)提取動(dòng)態(tài)數(shù)據(jù)并跟蹤網(wǎng)站更新另玖。?

您還可以通過(guò)使用內(nèi)置的Regex和XPath設(shè)置來(lái)精確定位項(xiàng)目休蟹,從而提取結(jié)構(gòu)復(fù)雜的復(fù)雜網(wǎng)站。您不再需要擔(dān)心IP阻塞日矫。Octoparse提供IP代理服務(wù)器赂弓,該服務(wù)器將自動(dòng)輪換IP,并且不會(huì)被反追蹤網(wǎng)站發(fā)現(xiàn)哪轿。

總之盈魁,Octoparse無(wú)需任何編碼技能就能滿(mǎn)足用戶(hù)的基本和高級(jí)跟蹤需求。


2.?Cyotek WebCopy

WebCopy是一個(gè)免費(fèi)的網(wǎng)站爬網(wǎng)程序窃诉,可讓您將部分或完整的網(wǎng)站本地復(fù)制到硬盤(pán)驅(qū)動(dòng)器中以供離線(xiàn)參考杨耙。

您可以更改設(shè)置以告訴機(jī)器人您要如何跟蹤。除此之外飘痛,您還可以配置域別名珊膜,用戶(hù)代理鏈,默認(rèn)文檔等宣脉。

但是车柠,WebCopy不包括虛擬DOM或任何形式的JavaScript解析。如果網(wǎng)站大量使用JavaScript進(jìn)行操作塑猖,則WebCopy很可能無(wú)法制作真實(shí)的副本竹祷。由于大量使用JavaScript,您可能無(wú)法正確處理動(dòng)態(tài)網(wǎng)站布局


3.?HTTrack

作為免費(fèi)的網(wǎng)站爬網(wǎng)程序羊苟,HTTrack?提供了非常給力的功能塑陵,用于將完整的網(wǎng)站下載到您的PC上。它具有適用于Windows蜡励,Linux令花,Sun Solaris和其他Unix系統(tǒng)的版本阻桅,覆蓋了大多數(shù)用戶(hù)。有趣的是兼都,HTTrack可以鏡像一個(gè)站點(diǎn)鳍刷,或?qū)⒍鄠€(gè)站點(diǎn)鏡像在一起(使用共享鏈接)。您可以在“設(shè)置選項(xiàng)”中下載網(wǎng)頁(yè)時(shí)決定同時(shí)打開(kāi)的連接數(shù)俯抖。您可以獲取重復(fù)網(wǎng)站的照片输瓜,文件,HTML代碼芬萍,并恢復(fù)中斷的下載尤揣。

此外,HTTrack內(nèi)還提供了代理支持柬祠,可最大程度地提高速度北戏。

HTTrack可作為命令行程序使用,也可作為私人(捕獲)或?qū)I(yè)用途(在線(xiàn)網(wǎng)絡(luò)鏡像)使用漫蛔。就是說(shuō)嗜愈,HTTrack應(yīng)該是具有高級(jí)編程技能的人員的首選。


4.?Getleft

Getleft是一個(gè)免費(fèi)且易于使用的網(wǎng)站抓取工具莽龟。允許您下載整個(gè)網(wǎng)站或任何單個(gè)網(wǎng)站蠕嫁。啟動(dòng)Getleft后,您可以輸入U(xiǎn)RL并選擇要下載的文件毯盈,然后再開(kāi)始下載剃毒。進(jìn)行時(shí),更改所有鏈接以進(jìn)行本地導(dǎo)航搂赋。此外赘阀,它還提供多語(yǔ)言支持。Getleft現(xiàn)在支持14種語(yǔ)言脑奠!但是基公,它僅提供有限的Ftp支持,它將下載文件宋欺,但不會(huì)歸類(lèi)順序下載轰豆。

通常,Getleft應(yīng)該能夠滿(mǎn)足用戶(hù)的基本抓取需求迄靠,而無(wú)需更復(fù)雜的技能秒咨。


5.?Scraper

Scraper是Chrome擴(kuò)展程序喇辽,具有有限的數(shù)據(jù)提取功能掌挚,但對(duì)于進(jìn)行在線(xiàn)研究非常有用。它還允許將數(shù)據(jù)導(dǎo)出到Google電子表格菩咨。您可以使用OAuth輕松將數(shù)據(jù)復(fù)制到剪貼板或?qū)⑵浯鎯?chǔ)在電子表格中吠式。抓取工具可以自動(dòng)生成XPath陡厘,以定義要抓取的URL。它不提供包羅萬(wàn)象的抓取服務(wù)特占,但可以滿(mǎn)足大多數(shù)人的數(shù)據(jù)提取需求糙置。



6.?OutWit Hub

OutWit Hub是Firefox的附加組件,具有數(shù)十種數(shù)據(jù)提取功能是目,可簡(jiǎn)化您的網(wǎng)絡(luò)搜索谤饭。該網(wǎng)絡(luò)抓取工具可以導(dǎo)航頁(yè)面并以合適的格式存儲(chǔ)提取的信息。

OutWit Hub提供了一個(gè)界面懊纳,可根據(jù)需要提取少量或大量數(shù)據(jù)揉抵。OutWit Hub允許您從瀏覽器中刪除任何網(wǎng)頁(yè)。您甚至可以創(chuàng)建自動(dòng)代理以提取數(shù)據(jù)嗤疯。

它是最簡(jiǎn)單冤今,免費(fèi)的Web抓取工具之一,可為您提供無(wú)需編寫(xiě)代碼即可提取Web數(shù)據(jù)的便利茂缚。


7.?ParseHub

Parsehub是一款出色的網(wǎng)絡(luò)抓取工具戏罢,支持從使用AJAX技術(shù),JavaScript脚囊,Cookie等的網(wǎng)站收集數(shù)據(jù)龟糕。它的機(jī)器學(xué)習(xí)技術(shù)可以讀取,分析然后將Web文檔轉(zhuǎn)換為相關(guān)數(shù)據(jù)悔耘。

Parsehub的桌面應(yīng)用程序與Windows翩蘸,Mac OS X和Linux等系統(tǒng)兼容。您甚至可以使用瀏覽器中內(nèi)置的Web應(yīng)用程序淮逊。

作為免費(fèi)程序催首,您不能在Parsehub上配置五個(gè)以上的公共項(xiàng)目。付費(fèi)訂閱計(jì)劃使您可以創(chuàng)建至少20個(gè)私人項(xiàng)目來(lái)抓取網(wǎng)站泄鹏。?


8.Visual Scraper

VisualScraper是另一個(gè)出色的免費(fèi)且未經(jīng)編碼的Web刮板程序郎任,具有簡(jiǎn)單的點(diǎn)擊界面。您可以從各種網(wǎng)頁(yè)獲取實(shí)時(shí)數(shù)據(jù)备籽,并將提取的數(shù)據(jù)導(dǎo)出為CSV舶治,XML,JSON或SQL?文件?车猬。除了SaaS霉猛,VisualScraper還提供Web抓取服務(wù),例如數(shù)據(jù)傳遞服務(wù)和軟件提取服務(wù)的創(chuàng)建珠闰。

Visual Scraper允許用戶(hù)安排項(xiàng)目在特定時(shí)間運(yùn)行惜浅,或每分鐘,每天伏嗜,每周坛悉,每月或每年重復(fù)一次序列伐厌。用戶(hù)可以使用它來(lái)頻繁提取新聞,論壇裸影。


9.?Scrapinghub

Scrapinghub是基于云的數(shù)據(jù)提取工具?挣轨,可幫助成千上萬(wàn)的開(kāi)發(fā)人員獲取有價(jià)值的數(shù)據(jù)。它的開(kāi)源視覺(jué)抓取工具允許用戶(hù)在沒(méi)有任何編程知識(shí)的情況下抓取網(wǎng)站轩猩。

Scrapinghub使用了Crawlera(智能代理旋轉(zhuǎn)器)卷扮,該代理旋轉(zhuǎn)器支持繞過(guò)機(jī)器人的對(duì)策,可輕松跟蹤龐大或受機(jī)器人保護(hù)的站點(diǎn)均践。它允許用戶(hù)從多個(gè)IP地址和位置進(jìn)行跟蹤画饥,而無(wú)需通過(guò)簡(jiǎn)單的HTTP API進(jìn)行代理管理。

Scrapinghub將整個(gè)網(wǎng)頁(yè)轉(zhuǎn)換為有組織的內(nèi)容浊猾。萬(wàn)一您的抓取生成器無(wú)法滿(mǎn)足您的要求抖甘,您的專(zhuān)家團(tuán)隊(duì)將為您提供幫助


10.?Dexi.io

作為基于瀏覽器的Web爬網(wǎng)程序,?Dexi.io允許您從任何網(wǎng)站基于瀏覽器抓取數(shù)據(jù)葫慎,并提供三種類(lèi)型的機(jī)械手來(lái)創(chuàng)建抓取任務(wù)-提取器衔彻,爬網(wǎng)程序和管道。該免費(fèi)軟件為您的Web抓取提供了匿名Web代理服務(wù)器偷办,您提取的數(shù)據(jù)將在數(shù)據(jù)存檔之前在Dexi.io的服務(wù)器上托管兩周艰额,或者您可以將提取的數(shù)據(jù)直接導(dǎo)出到JSON或CSV文件。它提供付費(fèi)服務(wù)椒涯,以滿(mǎn)足您獲取實(shí)時(shí)數(shù)據(jù)的需求柄沮。

作為基于瀏覽器的網(wǎng)絡(luò)抓取,Dexi.io允許您從任何網(wǎng)站抓取基于瀏覽器的數(shù)據(jù)废岂,并提供三種類(lèi)型的機(jī)械手祖搓,因此您可以創(chuàng)建抓取任務(wù):提取器,跟蹤器和管道湖苞。該免費(fèi)軟件為您的Web抓取提供了匿名Web代理服務(wù)器拯欧,您提取的數(shù)據(jù)將在數(shù)據(jù)存檔之前在Dexi.io的服務(wù)器上托管兩周,或者您可以將提取的數(shù)據(jù)直接導(dǎo)出到JSON或CSV文件财骨。它提供付費(fèi)服務(wù)镐作,以滿(mǎn)足您實(shí)時(shí)獲取數(shù)據(jù)的需求。

11.?Webhose.io

Webhose.io使用戶(hù)能夠從世界各地以有序的格式獲取在線(xiàn)資源隆箩,并從他們那里獲取實(shí)時(shí)數(shù)據(jù)该贾。使用此網(wǎng)絡(luò)爬蟲(chóng),您可以使用覆蓋多種來(lái)源的多個(gè)過(guò)濾器來(lái)跟蹤數(shù)據(jù)并提取多種不同語(yǔ)言的關(guān)鍵字捌臊。

您可以將抓取的數(shù)據(jù)保存為XML杨蛋,JSON和RSS格式。用戶(hù)可以從其存檔訪(fǎng)問(wèn)歷史數(shù)據(jù)。此外六荒,webhose.io的數(shù)據(jù)搜尋結(jié)果最多支持80種語(yǔ)言护姆。用戶(hù)可以輕松地索引和搜索Webhose.io跟蹤的結(jié)構(gòu)化數(shù)據(jù)矾端。

通常掏击,Webhose.io可以滿(mǎn)足用戶(hù)的基本抓取要求。


12.?Import. io

用戶(hù)只需通過(guò)從特定網(wǎng)頁(yè)導(dǎo)入數(shù)據(jù)并將數(shù)據(jù)導(dǎo)出為CSV即可形成自己的數(shù)據(jù)集秩铆。

您可以在幾分鐘內(nèi)輕松地抓取數(shù)千個(gè)網(wǎng)頁(yè)砚亭,而無(wú)需編寫(xiě)任何代碼,并根據(jù)您的要求創(chuàng)建1000多個(gè)API殴玛。公共API提供了強(qiáng)大而靈活的功能捅膘,以編程方式控制Import.io以自動(dòng)訪(fǎng)問(wèn)數(shù)據(jù),Import.io只需單擊幾下即可將Web數(shù)據(jù)集成到您自己的應(yīng)用程序或網(wǎng)站中滚粟,從而使跟蹤更加容易寻仗。

為了更好地滿(mǎn)足用戶(hù)的跟蹤要求,它還提供了一個(gè)免費(fèi)的Windows凡壤,Mac OS X和Linux應(yīng)用程序署尤,用于構(gòu)建數(shù)據(jù)提取器和跟蹤器,下載數(shù)據(jù)并將其同步到您的在線(xiàn)帳戶(hù)亚侠。此外曹体,用戶(hù)可以每周,每天或每小時(shí)安排跟蹤任務(wù)硝烂。


13.?80legs

80legs是功能強(qiáng)大的Web爬網(wǎng)工具箕别,可以根據(jù)自定義要求進(jìn)行配置。支持獲取大量數(shù)據(jù)滞谢,并可以選擇立即下載提取的數(shù)據(jù)串稀。80legs提供了一種高性能的Web爬網(wǎng)程序,該爬網(wǎng)程序可以快速運(yùn)行并在幾秒鐘內(nèi)獲取所需的數(shù)據(jù)狮杨。


14. Spinn3r

Spinn3r允許您從博客厨诸,新聞和社交網(wǎng)站以及RSS和ATOM獲取完整的數(shù)據(jù)。Spinn3r附帶了Firehouse API禾酱,可處理95%的索引工作微酬。它提供了高級(jí)垃圾郵件防護(hù),可消除垃圾郵件和不當(dāng)使用語(yǔ)言颤陶,從而提高數(shù)據(jù)安全性颗管。

Spinn3r將類(lèi)似于Google的內(nèi)容編入索引,并將提取的數(shù)據(jù)保存在JSON文件中滓走。網(wǎng)絡(luò)抓取工具會(huì)不斷掃描網(wǎng)絡(luò)垦江,并從多個(gè)來(lái)源查找更新以獲取實(shí)時(shí)帖子。它的管理控制臺(tái)使您可以控制抓取搅方,而全文本搜索則允許對(duì)原始數(shù)據(jù)進(jìn)行復(fù)雜的查詢(xún)比吭。



15. Content Grabber

Content Grabber是針對(duì)公司的網(wǎng)絡(luò)爬蟲(chóng)軟件绽族。允許您創(chuàng)建獨(dú)立的Web爬網(wǎng)代理。您可以從幾乎任何網(wǎng)站提取內(nèi)容衩藤,并將其保存為您選擇的格式的結(jié)構(gòu)化數(shù)據(jù)吧慢,包括來(lái)自Excel,XML赏表,CSV和大多數(shù)數(shù)據(jù)庫(kù)的報(bào)告检诗。

它最適合具有高級(jí)編程技能的人,因?yàn)樗鼮樾枰娜颂峁┝嗽S多強(qiáng)大的腳本編輯和界面調(diào)試功能瓢剿。用戶(hù)可以使用C7昊牛或VB.NET調(diào)試或編寫(xiě)腳本來(lái)控制抓取過(guò)程的計(jì)劃。例如间狂,Content Grabber可以與Visual Studio 2013集成在一起攻泼,以根據(jù)用戶(hù)的特定需求,對(duì)高級(jí)和離散的自定義搜尋器進(jìn)行最強(qiáng)大的腳本編輯鉴象,調(diào)試和單元測(cè)試忙菠。


16.?Helium Scraper

Helium Scraper是可視化Web抓取數(shù)據(jù)軟件,當(dāng)元素之間的關(guān)聯(lián)較小時(shí)炼列,它可以很好地工作只搁。它不是編碼,不是配置俭尖。用戶(hù)可以根據(jù)各種抓取需求訪(fǎng)問(wèn)在線(xiàn)模板氢惋。

基本上,它可以基本滿(mǎn)足用戶(hù)的抓取需求稽犁。



17.?UiPath

UiPath是一種機(jī)器人過(guò)程自動(dòng)化軟件焰望,可自動(dòng)捕獲Web。它可以自動(dòng)從大多數(shù)第三方應(yīng)用程序捕獲Web和桌面數(shù)據(jù)已亥。如果在Windows上運(yùn)行它熊赖,則可以安裝過(guò)程自動(dòng)化軟件。Uipath可以在多個(gè)網(wǎng)頁(yè)上提取表和?基于模式的數(shù)據(jù)虑椎。

Uipath提供了內(nèi)置工具震鹉,可進(jìn)行更大程度的Web抓取。對(duì)于復(fù)雜的用戶(hù)界面捆姜,此方法非常有效传趾。屏幕抓取工具可以處理單個(gè)文本元素,文本組和文本塊泥技,例如表格格式的數(shù)據(jù)提取浆兰。

同樣,無(wú)需編程即可創(chuàng)建智能Web代理,但是您內(nèi)部的.NET黑客將完全控制數(shù)據(jù)簸呈。


18.?Scrape.it

Scrape.it是一個(gè)網(wǎng)絡(luò)抓取node.js軟件榕订。它是基于云的?Web數(shù)據(jù)提取工具。它是為具有高級(jí)編程技能的人而設(shè)計(jì)的蜕便,因?yàn)樗峁┝斯埠退接熊浖鼇?lái)與世界各地?cái)?shù)百萬(wàn)的開(kāi)發(fā)人員一起發(fā)現(xiàn)劫恒,重用,更新和共享代碼玩裙。它強(qiáng)大的集成功能將幫助您根據(jù)需要?jiǎng)?chuàng)建自定義跟蹤器兼贸。


19.?WebHarvy

WebHarvy是點(diǎn)擊式Web抓取軟件段直。它是為非程序員設(shè)計(jì)的吃溅。WebHarvy可以自動(dòng)從網(wǎng)站上抓取文本,圖像鸯檬,URL和電子郵件决侈,并以各種格式保存抓取的內(nèi)容。它還提供了內(nèi)置的計(jì)劃程序和代理支持喧务,允許匿名爬網(wǎng)并防止Web爬網(wǎng)程序軟件被Web服務(wù)器阻止赖歌,您可以選擇通過(guò)代理服務(wù)器或VPN訪(fǎng)問(wèn)目標(biāo)網(wǎng)站。

用戶(hù)可以以多種格式保存從網(wǎng)頁(yè)提取的數(shù)據(jù)功茴。當(dāng)前版本的WebHarvy Web抓取工具允許您將抓取的數(shù)據(jù)導(dǎo)出為XML庐冯,CSV,JSON或TSV文件坎穿。用戶(hù)還可以將抓取的數(shù)據(jù)導(dǎo)出到SQL數(shù)據(jù)庫(kù)展父。


20.?Connote

Connotate是專(zhuān)為企業(yè)級(jí)Web內(nèi)容提取而設(shè)計(jì)的自動(dòng)化Web刮板程序,需要企業(yè)級(jí)解決方案玲昧。商業(yè)用戶(hù)只需幾分鐘即可輕松創(chuàng)建提取代理栖茉,而無(wú)需進(jìn)行任何編程。用戶(hù)只需指向并單擊即可輕松創(chuàng)建提取代理孵延。


標(biāo)簽: 數(shù)據(jù)抓取吕漂,網(wǎng)絡(luò)爬蟲(chóng),數(shù)據(jù)爬蟲(chóng)尘应,數(shù)據(jù)采集惶凝,webscraping,大數(shù)據(jù)犬钢,數(shù)據(jù)科學(xué)苍鲜,bigdata,python娜饵,網(wǎng)頁(yè)采集坡贺,datascience堤尾,網(wǎng)站數(shù)據(jù)赋焕,數(shù)據(jù)可視化

?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
  • 序言:七十年代末,一起剝皮案震驚了整個(gè)濱河市,隨后出現(xiàn)的幾起案子蔬崩,更是在濱河造成了極大的恐慌,老刑警劉巖趟咆,帶你破解...
    沈念sama閱讀 217,185評(píng)論 6 503
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件呵扛,死亡現(xiàn)場(chǎng)離奇詭異,居然都是意外死亡隔节,警方通過(guò)查閱死者的電腦和手機(jī)鹅经,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 92,652評(píng)論 3 393
  • 文/潘曉璐 我一進(jìn)店門(mén),熙熙樓的掌柜王于貴愁眉苦臉地迎上來(lái)怎诫,“玉大人瘾晃,你說(shuō)我怎么就攤上這事』眉耍” “怎么了蹦误?”我有些...
    開(kāi)封第一講書(shū)人閱讀 163,524評(píng)論 0 353
  • 文/不壞的土叔 我叫張陵,是天一觀(guān)的道長(zhǎng)肉津。 經(jīng)常有香客問(wèn)我强胰,道長(zhǎng),這世上最難降的妖魔是什么妹沙? 我笑而不...
    開(kāi)封第一講書(shū)人閱讀 58,339評(píng)論 1 293
  • 正文 為了忘掉前任偶洋,我火速辦了婚禮,結(jié)果婚禮上距糖,老公的妹妹穿的比我還像新娘玄窝。我一直安慰自己,他們只是感情好肾筐,可當(dāng)我...
    茶點(diǎn)故事閱讀 67,387評(píng)論 6 391
  • 文/花漫 我一把揭開(kāi)白布哆料。 她就那樣靜靜地躺著,像睡著了一般吗铐。 火紅的嫁衣襯著肌膚如雪东亦。 梳的紋絲不亂的頭發(fā)上,一...
    開(kāi)封第一講書(shū)人閱讀 51,287評(píng)論 1 301
  • 那天唬渗,我揣著相機(jī)與錄音典阵,去河邊找鬼。 笑死镊逝,一個(gè)胖子當(dāng)著我的面吹牛壮啊,可吹牛的內(nèi)容都是我干的。 我是一名探鬼主播撑蒜,決...
    沈念sama閱讀 40,130評(píng)論 3 418
  • 文/蒼蘭香墨 我猛地睜開(kāi)眼歹啼,長(zhǎng)吁一口氣:“原來(lái)是場(chǎng)噩夢(mèng)啊……” “哼玄渗!你這毒婦竟也來(lái)了?” 一聲冷哼從身側(cè)響起狸眼,我...
    開(kāi)封第一講書(shū)人閱讀 38,985評(píng)論 0 275
  • 序言:老撾萬(wàn)榮一對(duì)情侶失蹤藤树,失蹤者是張志新(化名)和其女友劉穎,沒(méi)想到半個(gè)月后拓萌,有當(dāng)?shù)厝嗽跇?shù)林里發(fā)現(xiàn)了一具尸體岁钓,經(jīng)...
    沈念sama閱讀 45,420評(píng)論 1 313
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡,尸身上長(zhǎng)有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 37,617評(píng)論 3 334
  • 正文 我和宋清朗相戀三年微王,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了屡限。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片。...
    茶點(diǎn)故事閱讀 39,779評(píng)論 1 348
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡炕倘,死狀恐怖钧大,靈堂內(nèi)的尸體忽然破棺而出,到底是詐尸還是另有隱情激才,我是刑警寧澤拓型,帶...
    沈念sama閱讀 35,477評(píng)論 5 345
  • 正文 年R本政府宣布额嘿,位于F島的核電站瘸恼,受9級(jí)特大地震影響,放射性物質(zhì)發(fā)生泄漏册养。R本人自食惡果不足惜东帅,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 41,088評(píng)論 3 328
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望球拦。 院中可真熱鬧靠闭,春花似錦、人聲如沸坎炼。這莊子的主人今日做“春日...
    開(kāi)封第一講書(shū)人閱讀 31,716評(píng)論 0 22
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽(yáng)谣光。三九已至檩淋,卻和暖如春,著一層夾襖步出監(jiān)牢的瞬間萄金,已是汗流浹背蟀悦。 一陣腳步聲響...
    開(kāi)封第一講書(shū)人閱讀 32,857評(píng)論 1 269
  • 我被黑心中介騙來(lái)泰國(guó)打工, 沒(méi)想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留氧敢,地道東北人日戈。 一個(gè)月前我還...
    沈念sama閱讀 47,876評(píng)論 2 370
  • 正文 我出身青樓,卻偏偏與公主長(zhǎng)得像孙乖,于是被迫代替她去往敵國(guó)和親浙炼。 傳聞我的和親對(duì)象是個(gè)殘疾皇子份氧,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 44,700評(píng)論 2 354