scrapy 爬取百度相關(guān)搜索

簡(jiǎn)介

scrapy做簡(jiǎn)單的大量數(shù)據(jù)的爬蟲太方便了摊崭,一般就三個(gè)文件 setting.py操骡,item.py 宗苍,xxx_spider.py,代碼量很少佃却。存json的時(shí)候最高爬取過600多MB的文本者吁。去年存入postgresql的時(shí)候最多的一次大概一次性爬取了1000多萬的關(guān)鍵詞(key,[related1,related2],key,related對(duì)調(diào)的時(shí)候靠用redis放內(nèi)存中分批計(jì)算才成功饲帅,把老化的機(jī)械硬盤換成固態(tài)硬盤之后复凳,就不用redis了)。

代碼部分

spider 代碼灶泵,從本地muci.txt中獲取關(guān)鍵詞育八,setting控制爬取深度(DEEP_LIMIT = 1就是只爬取當(dāng)前關(guān)鍵詞的相關(guān)搜索詞)
# -*- coding:utf8 -*-

from scrapy.spiders import CrawlSpider
from scrapy import Request

from mbaidu.items import baiduItemtj
import os
from scrapy.conf import settings

settings.overrides['RESULT_JSONFILE'] = 'mbaidutj.json'

class MbaiduSpider(CrawlSpider):

    name = 'mbaidu_xg'
    allowed_domains = ['m.baidu.com']
    def start_requests(self):
        mucifile = open(os.path.join(os.path.dirname(os.path.dirname(os.path.dirname(os.path.abspath(__file__)))), "muci.txt"), 'r')
        for key in mucifile.readlines():
            nextword = key.strip("\n").strip()
            if nextword != "":
                yield Request('https://m.baidu.com/s?word=' + nextword, self.parse)

    def parse(self, response):
        related = response.css('#reword .rw-list a::text').extract()
        if related:
            for rw in related:
                item = baiduItemtj()
                item['keyword'],item['description'] = [rw,'']
                yield item
        rwlink = response.css('#reword .rw-list a::attr(href)').extract()
        if rwlink:
            for link in rwlink:
                yield Request(link,self.parse)
        tj = response.css('.wa-sigma-celebrity-rela-entity.c-scroll-element-gap a')
        if tj:
            for i in tj:
                item = baiduItemtj()
                item['keyword'],item['description'] = i.css('p::text').extract()
                yield item
            tjlink = response.css('.wa-sigma-celebrity-rela-entity.c-scroll-element-gap a::attr(href)').extract()
            if tjlink:
                for link in tjlink:
                    yield Request(link,self.parse)
處理json編碼的代碼 piplines.py中,本地存儲(chǔ)python亂碼是使用(加入setting.py中)赦邻,估計(jì)是python2的鍋髓棋,python3不一定要
class JsonWriterPipeline(object):
    def __init__(self):
        self.file = codecs.open(settings.get('RESULT_JSONFILE','default.json'), 'w', encoding='utf-8')

    def process_item(self, item, spider):
        line = json.dumps(dict(item)) + "\n"
        self.file.write(line.decode('unicode_escape'))
        # item = {"haha": "hehe"}
        # return {"log": "可以不需要return數(shù)據(jù)了,返回的數(shù)據(jù)會(huì)再次轉(zhuǎn)成Unicode,交給系統(tǒng)自帶的輸出"}
        # return item
item.py
class baiduItemtj(scrapy.Item):
    # 右側(cè)推薦有description 底部相關(guān)搜索沒有 為空
    keyword = scrapy.Field()
    description = scrapy.Field()
最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
  • 序言:七十年代末,一起剝皮案震驚了整個(gè)濱河市,隨后出現(xiàn)的幾起案子按声,更是在濱河造成了極大的恐慌膳犹,老刑警劉巖,帶你破解...
    沈念sama閱讀 216,496評(píng)論 6 501
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件儒喊,死亡現(xiàn)場(chǎng)離奇詭異镣奋,居然都是意外死亡,警方通過查閱死者的電腦和手機(jī)怀愧,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 92,407評(píng)論 3 392
  • 文/潘曉璐 我一進(jìn)店門侨颈,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人芯义,你說我怎么就攤上這事哈垢。” “怎么了扛拨?”我有些...
    開封第一講書人閱讀 162,632評(píng)論 0 353
  • 文/不壞的土叔 我叫張陵耘分,是天一觀的道長(zhǎng)。 經(jīng)常有香客問我绑警,道長(zhǎng)求泰,這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 58,180評(píng)論 1 292
  • 正文 為了忘掉前任计盒,我火速辦了婚禮渴频,結(jié)果婚禮上,老公的妹妹穿的比我還像新娘北启。我一直安慰自己卜朗,他們只是感情好,可當(dāng)我...
    茶點(diǎn)故事閱讀 67,198評(píng)論 6 388
  • 文/花漫 我一把揭開白布咕村。 她就那樣靜靜地躺著场钉,像睡著了一般。 火紅的嫁衣襯著肌膚如雪懈涛。 梳的紋絲不亂的頭發(fā)上逛万,一...
    開封第一講書人閱讀 51,165評(píng)論 1 299
  • 那天,我揣著相機(jī)與錄音批钠,去河邊找鬼宇植。 笑死,一個(gè)胖子當(dāng)著我的面吹牛价匠,可吹牛的內(nèi)容都是我干的。 我是一名探鬼主播呛每,決...
    沈念sama閱讀 40,052評(píng)論 3 418
  • 文/蒼蘭香墨 我猛地睜開眼踩窖,長(zhǎng)吁一口氣:“原來是場(chǎng)噩夢(mèng)啊……” “哼!你這毒婦竟也來了晨横?” 一聲冷哼從身側(cè)響起洋腮,我...
    開封第一講書人閱讀 38,910評(píng)論 0 274
  • 序言:老撾萬榮一對(duì)情侶失蹤箫柳,失蹤者是張志新(化名)和其女友劉穎,沒想到半個(gè)月后啥供,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體悯恍,經(jīng)...
    沈念sama閱讀 45,324評(píng)論 1 310
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡,尸身上長(zhǎng)有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 37,542評(píng)論 2 332
  • 正文 我和宋清朗相戀三年伙狐,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了涮毫。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片。...
    茶點(diǎn)故事閱讀 39,711評(píng)論 1 348
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡贷屎,死狀恐怖罢防,靈堂內(nèi)的尸體忽然破棺而出,到底是詐尸還是另有隱情唉侄,我是刑警寧澤咒吐,帶...
    沈念sama閱讀 35,424評(píng)論 5 343
  • 正文 年R本政府宣布,位于F島的核電站属划,受9級(jí)特大地震影響恬叹,放射性物質(zhì)發(fā)生泄漏。R本人自食惡果不足惜同眯,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 41,017評(píng)論 3 326
  • 文/蒙蒙 一绽昼、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧嗽测,春花似錦绪励、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 31,668評(píng)論 0 22
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽。三九已至晤愧,卻和暖如春大莫,著一層夾襖步出監(jiān)牢的瞬間,已是汗流浹背官份。 一陣腳步聲響...
    開封第一講書人閱讀 32,823評(píng)論 1 269
  • 我被黑心中介騙來泰國(guó)打工只厘, 沒想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留,地道東北人舅巷。 一個(gè)月前我還...
    沈念sama閱讀 47,722評(píng)論 2 368
  • 正文 我出身青樓羔味,卻偏偏與公主長(zhǎng)得像,于是被迫代替她去往敵國(guó)和親钠右。 傳聞我的和親對(duì)象是個(gè)殘疾皇子赋元,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 44,611評(píng)論 2 353

推薦閱讀更多精彩內(nèi)容

  • scrapy學(xué)習(xí)筆記(有示例版) 我的博客 scrapy學(xué)習(xí)筆記1.使用scrapy1.1創(chuàng)建工程1.2創(chuàng)建爬蟲模...
    陳思煜閱讀 12,696評(píng)論 4 46
  • 這兩天摸索了下scrapy,剛看文檔的時(shí)候覺得有點(diǎn)生無可戀,scrapy框架個(gè)人還是覺得比較難懂的搁凸,需要學(xué)習(xí)的地方...
    Treehl閱讀 5,631評(píng)論 7 10
  • 引言 在上篇使用Scrapy爬取知乎用戶信息我們編寫了一個(gè)單機(jī)的爬蟲媚值,這篇記錄了使用Scrapy-Redis將其重...
    朱曉飛閱讀 6,698評(píng)論 1 24
  • 他真的很喜歡你 像風(fēng)走了八千里 他真的很喜歡你 像陣雨下到了南極 他真的很想念你 像珊瑚沉在海底 他真的很喜歡你 ...
    冬冬小眠閱讀 1,003評(píng)論 0 1
  • STL里面有一個(gè)重要的算法copy,進(jìn)行的是復(fù)制操作护糖,而在上篇文章中褥芒,已經(jīng)提到了對(duì)于POD元素類型來說,是可以直接...
    wayyyy閱讀 431評(píng)論 0 0