Scrapy爬取豆瓣圖書數(shù)據(jù)并寫入MySQL

項(xiàng)目地址 BookSpider

介紹


本篇涉及的內(nèi)容主要是獲取分類下的所有圖書數(shù)據(jù)悯姊,并寫入MySQL

準(zhǔn)備


Python3.6卖毁、Scrapy揖曾、Twisted、MySQLdb等

演示


1.png

代碼


一亥啦、創(chuàng)建項(xiàng)目
scrapy startproject BookSpider  #創(chuàng)建項(xiàng)目
scrapy genspider douban book.douban.com #創(chuàng)建豆瓣爬蟲
二炭剪、創(chuàng)建測試類(main.py)
from scrapy.cmdline import execute
execute(['scrapy', 'crawl', 'douban'])
三、修改配置(spiders/settings.py)
USER_AGENT = 'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/76.0.3809.100 Safari/537.36' #瀏覽器
ROBOTSTXT_OBEY = False #不遵循豆瓣網(wǎng)站的爬蟲協(xié)議
四翔脱、設(shè)置爬取的分類(spiders/douban.py)
start_urls = ['https://book.douban.com/tag/神經(jīng)網(wǎng)絡(luò)'] # 只測試爬取神經(jīng)網(wǎng)絡(luò)
五奴拦、獲取分類列表頁圖書數(shù)據(jù)
2.png
from scrapy.http import Request
from urllib.parse import urljoin

def parse(self, response):
    
    get_nodes = response.xpath('//div[@id="subject_list"]/ul/li/div[@class="pic"]/a')
    for node in get_nodes:
        url = node.xpath("@href").get()
        img_url = node.xpath('img/@src').get()
        yield Request(url=url, meta={"img_url": img_url}, callback=self.parse_book)  # 傳遞img_url值 放在meta里面, parse_book回調(diào)函數(shù)碍侦,獲取的詳情再分析
        
    next_url = response.xpath('//div[@class="paginator"]/span[@class="next"]/a/@href').get() # 獲取下一頁地址
    if(next_url):
        yield Request(url=urljoin(response.url, next_url), callback=self.parse) # 獲取下一頁內(nèi)容 
六粱坤、定義數(shù)據(jù)模型(spiders/items.py)
class BookspiderItem(scrapy.Item):
    # define the fields for your item here like:
    # name = scrapy.Field()
    name = scrapy.Field()
    author = scrapy.Field()
    publish = scrapy.Field()
    page_num = scrapy.Field()
    isbm = scrapy.Field()
    binding = scrapy.Field()
    publish_date = scrapy.Field()
    price = scrapy.Field()
    rate = scrapy.Field()
    img_url = scrapy.Field()
    image_path = scrapy.Field()
七、獲取圖書詳情數(shù)據(jù)
3.png
import re
from BookSpider.items import BookspiderItem

def parse_book(self, response):
    BookItem = BookspiderItem()
    BookItem['name']     = response.xpath('//span[@property="v:itemreviewed"]/text()').get("").strip()
    BookItem['author']   = response.xpath('//span[contains(text(), "作者")]/following-sibling::a[1]/text()').get("").split()[-1]
    BookItem['publish']  = response.xpath('//span[contains(text(), "出版社")]/following-sibling::text()').get("").strip()
    
    page_num = response.xpath('//span[contains(text(), "頁數(shù)")]/following-sibling::text()').get("").strip()
    BookItem['page_num'] = 0 if(page_num == '') else page_num

    BookItem['isbm']     = response.xpath('//span[contains(text(), "ISBN")]/following-sibling::text()').get("").strip()
    BookItem['binding']  = response.xpath('//span[contains(text(), "裝幀")]/following-sibling::text()').get("").strip()
    BookItem['publish_date'] = response.xpath('//span[contains(text(), "出版年")]/following-sibling::text()').get("").strip()

    price    = response.xpath('//span[contains(text(), "定價(jià)")]/following-sibling::text()').get("").strip()
    BookItem['price']    = '' if(len(price) == 0) else re.findall(r'\d+\.?\d*', price)[0]

    BookItem['rate'] = response.xpath('//div[contains(@class, "rating_self ")]/strong/text()').get("").strip()

    BookItem['img_url'] = [response.meta.get('img_url')]  #圖片是列表
    
    yield BookItem
八瓷产、下載圖片

1站玄、創(chuàng)建images文件加
2、配置spiders/settings.py

ITEM_PIPELINES = {
    'BookSpider.pipelines.ImageStorePipeline': 1,  #后面的數(shù)據(jù)是優(yōu)先級
}
IMAGES_URLS_FIELD = "image_url"
IMAGES_STORE = os.path.join(os.path.abspath(os.path.dirname(__file__)), 'images')

3濒旦、創(chuàng)建ImageStorePipeline類(spiders/pipelines.py)

from scrapy.pipelines.images import ImagesPipeline
from scrapy.exceptions import DropItem
from scrapy.http import Request

class ImageStorePipeline(ImagesPipeline):

    default_headers = {
        'accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,image/apng,*/*;q=0.8,application/signed-exchange;v=b3',
        'accept-encoding': 'gzip, deflate, br',
        'accept-language': 'zh-CN,zh;q=0.9',
        'user-agent': 'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/76.0.3809.100 Safari/537.36', #這個(gè)一定要
    }

    def get_media_requests(self, item, info):
        for image_url in item['img_url']:
            self.default_headers['referer'] = image_url
            yield Request(image_url, headers=self.default_headers)

    def item_completed(self, results, item, info):
        image_path = [x['path'] for ok, x in results if ok]
        if not image_path:
            raise DropItem("Item contains no images")
        item['image_path'] = image_path
        return item
八株旷、寫入數(shù)據(jù)庫

1、配置spiders/settings.py

#設(shè)置數(shù)據(jù)庫
MYSQL_HOST   = ""
MYSQL_DBNAME = ""
MYSQL_USER   = ""
MYSQL_PASSWORD = ""
ITEM_PIPELINES = {
    'BookSpider.pipelines.ImageStorePipeline': 1,
    'BookSpider.pipelines.MysqlTwistedPipeline': 30,  
}

2、創(chuàng)建MysqlTwistedPipeline類(spiders/pipelines.py)

import MySQLdb.cursors
from twisted.enterprise import adbapi

class MysqlTwistedPipeline(object):
    def __init__(self, dbpool):
        self.dbpool = dbpool

    @classmethod #靜態(tài)方法晾剖,會(huì)優(yōu)先執(zhí)行from_settings锉矢, 這樣self.dbpool就有值了
    def from_settings(cls, settings):

        dbpool = adbapi.ConnectionPool("MySQLdb", host=settings['MYSQL_HOST'], db = settings['MYSQL_DBNAME'], user = settings['MYSQL_USER'], passwd = settings['MYSQL_PASSWORD'], charset = 'utf8', cursorclass = MySQLdb.cursors.DictCursor, use_unicode = True)

        return cls(dbpool)

    def process_item(self, item, spider):
        query = self.dbpool.runInteraction(self.do_insert, item)
        query.addErrback(self.handle_error,item,spider)
    
    def do_insert(self, cursor, item):
        insert_sql = """
            insert into douban(name, author, publish, page_num, isbm, binding, publish_date, price, rate, img_url, image_path)
            values (%s, %s, %s, %s, %s, %s, %s, %s, %s, %s, %s)
        """

        cursor.execute(insert_sql, (item['name'], item['author'], item['publish'], item['page_num'], item['isbm'], item['binding'], item['publish_date'], item['price'], item['rate'], item['img_url'], item['image_path']))

    def handle_error(self, failure, item, spider):
        print(failure)
九、測試

1齿尽、執(zhí)行main.py文件

?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
  • 序言:七十年代末沽损,一起剝皮案震驚了整個(gè)濱河市,隨后出現(xiàn)的幾起案子循头,更是在濱河造成了極大的恐慌绵估,老刑警劉巖,帶你破解...
    沈念sama閱讀 216,651評論 6 501
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件卡骂,死亡現(xiàn)場離奇詭異国裳,居然都是意外死亡,警方通過查閱死者的電腦和手機(jī)全跨,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 92,468評論 3 392
  • 文/潘曉璐 我一進(jìn)店門缝左,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人浓若,你說我怎么就攤上這事渺杉。” “怎么了挪钓?”我有些...
    開封第一講書人閱讀 162,931評論 0 353
  • 文/不壞的土叔 我叫張陵少办,是天一觀的道長。 經(jīng)常有香客問我诵原,道長,這世上最難降的妖魔是什么挽放? 我笑而不...
    開封第一講書人閱讀 58,218評論 1 292
  • 正文 為了忘掉前任绍赛,我火速辦了婚禮,結(jié)果婚禮上辑畦,老公的妹妹穿的比我還像新娘吗蚌。我一直安慰自己,他們只是感情好纯出,可當(dāng)我...
    茶點(diǎn)故事閱讀 67,234評論 6 388
  • 文/花漫 我一把揭開白布蚯妇。 她就那樣靜靜地躺著,像睡著了一般暂筝。 火紅的嫁衣襯著肌膚如雪箩言。 梳的紋絲不亂的頭發(fā)上,一...
    開封第一講書人閱讀 51,198評論 1 299
  • 那天焕襟,我揣著相機(jī)與錄音陨收,去河邊找鬼。 笑死,一個(gè)胖子當(dāng)著我的面吹牛务漩,可吹牛的內(nèi)容都是我干的拄衰。 我是一名探鬼主播,決...
    沈念sama閱讀 40,084評論 3 418
  • 文/蒼蘭香墨 我猛地睜開眼饵骨,長吁一口氣:“原來是場噩夢啊……” “哼翘悉!你這毒婦竟也來了?” 一聲冷哼從身側(cè)響起居触,我...
    開封第一講書人閱讀 38,926評論 0 274
  • 序言:老撾萬榮一對情侶失蹤妖混,失蹤者是張志新(化名)和其女友劉穎,沒想到半個(gè)月后饼煞,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體源葫,經(jīng)...
    沈念sama閱讀 45,341評論 1 311
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 37,563評論 2 333
  • 正文 我和宋清朗相戀三年砖瞧,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了息堂。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片。...
    茶點(diǎn)故事閱讀 39,731評論 1 348
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡块促,死狀恐怖荣堰,靈堂內(nèi)的尸體忽然破棺而出,到底是詐尸還是另有隱情竭翠,我是刑警寧澤振坚,帶...
    沈念sama閱讀 35,430評論 5 343
  • 正文 年R本政府宣布,位于F島的核電站斋扰,受9級特大地震影響渡八,放射性物質(zhì)發(fā)生泄漏。R本人自食惡果不足惜传货,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 41,036評論 3 326
  • 文/蒙蒙 一屎鳍、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧问裕,春花似錦逮壁、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 31,676評論 0 22
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽。三九已至巍杈,卻和暖如春忧饭,著一層夾襖步出監(jiān)牢的瞬間,已是汗流浹背秉氧。 一陣腳步聲響...
    開封第一講書人閱讀 32,829評論 1 269
  • 我被黑心中介騙來泰國打工眷昆, 沒想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留,地道東北人。 一個(gè)月前我還...
    沈念sama閱讀 47,743評論 2 368
  • 正文 我出身青樓亚斋,卻偏偏與公主長得像作媚,于是被迫代替她去往敵國和親。 傳聞我的和親對象是個(gè)殘疾皇子帅刊,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 44,629評論 2 354

推薦閱讀更多精彩內(nèi)容