Python自定義豆瓣電影種類,排行洒宝,點評的爬取與存儲(初級)

Python 2.7
IDE Pycharm 5.0.3

具體Selenium和PhantomJS配置及使用請看調(diào)用PhantomJS.exe自動續(xù)借圖書館書籍


網(wǎng)上一溜豆瓣TOP250---有意思么购公?

起因

就是想寫個豆瓣電影的爬取,給我電影荒的同學雁歌。宏浩。。靠瞎。當然自己也練手啦


目的

1.根據(jù)用戶輸入绘闷,列出豆瓣高分TOP(用戶自定義)的電影,鏈接较坛,及熱評若干。
2.制作不需要Python環(huán)境可運行的exe扒最,但由于bug未修復丑勤,需要火狐瀏覽器支持


方案

使用PhantomJS+Selenium+Firefox實現(xiàn)


實現(xiàn)過程

1.get到首頁后,根據(jù)選擇吧趣,點擊種類法竞,然后根據(jù)輸入需求,進行排序
2.抓取每個電影及超鏈接强挫,進入超鏈接后岔霸,抓取當前電影的熱評及長評
3.當用戶所要求TOP數(shù)目大于第一頁的20個時候,點擊加載更多俯渤,再出現(xiàn)20個電影呆细,重復2操作。


以豆瓣高分八匠,然后按評分排序的點擊過程(其余操作一致絮爷,先種類后排序選擇趴酣,再爬)

過程

實現(xiàn)代碼

# -*- coding: utf-8 -*-
#Author:哈士奇說喵
#爬豆瓣高分電影及hot影評

from selenium import webdriver
import selenium.webdriver.support.ui as ui
import time


print "---------------system loading...please wait...---------------"
SUMRESOURCES = 0 #全局變量
driver_detail = webdriver.PhantomJS(executable_path="phantomjs.exe")
#driver_item=webdriver.PhantomJS(executable_path="phantomjs.exe")
driver_item=webdriver.Firefox()
url="https://movie.douban.com/"
#等待頁面加載方法
wait = ui.WebDriverWait(driver_item,15)
wait1 = ui.WebDriverWait(driver_detail,15)


#獲取URL和文章標題

def getURL_Title():
    global SUMRESOURCES

##############################################################################
#需要鍵入想要獲取的信息,比如種類坑夯,排序方式岖寞,想看多少內(nèi)容
##############################################################################

    print "please select:"
    kind=input("1-Hot\n2-Newest\n3-Classics\n4-Playable\n5-High Scores\n6-Wonderful but not popular\n7-Chinese film\n8-Hollywood\n9-Korea\n10-Japan\n11-Action movies\n12-Comedy\n13-Love story\n14-Science fiction\n15-Thriller\n16-Horror film\n17-Cartoon\nplease select:")
    print "--------------------------------------------------------------------------"
    sort=input("1-Sort by hot\n2-Sort by time\n3-Sort by score\nplease select:")
    print "--------------------------------------------------------------------------"
    number = input("TOP ?:")
    print "--------------------------------------------------------------------------"
    ask_long=input("don't need long-comments,enter 0,i like long-comments enter 1:")
    print "--------------------------------------------------------------------------"
    global save_name
    save_name=raw_input("save_name (xx.txt):")
    print "---------------------crawling...---------------------"

    driver_item.get(url)

##############################################################################
#進行網(wǎng)頁get后,先進行電影種類選擇的模擬點擊操作柜蜈,然后再是排序方式的選擇
#最后等待一會仗谆,元素都加載完了,才能開始爬電影淑履,不然元素隱藏起來隶垮,不能被獲取
#wait.until是等待元素加載完成!
##############################################################################

    wait.until(lambda driver: driver.find_element_by_xpath("http://div[@class='fliter-wp']/div/form/div/div/label[%s]"%kind))
    driver_item.find_element_by_xpath("http://div[@class='fliter-wp']/div/form/div/div/label[%s]"%kind).click()
    wait.until(lambda driver: driver.find_element_by_xpath("http://div[@class='fliter-wp']/div/form/div[3]/div/label[%s]"%sort))
    driver_item.find_element_by_xpath("http://div[@class='fliter-wp']/div/form/div[3]/div/label[%s]"%sort).click()

    num=number+1#比如輸入想看的TOP22鳖谈,那需要+1在進行操作岁疼,細節(jié)問題
    time.sleep(2)

    #打開幾次“加載更多”
    num_time = num/20+1
    wait.until(lambda driver: driver.find_element_by_xpath("http://div[@class='list-wp']/a[@class='more']"))

    for times in range(1,num_time):
        time.sleep(1)
        driver_item.find_element_by_xpath("http://div[@class='list-wp']/a[@class='more']").click()
        time.sleep(1)
        wait.until(lambda driver: driver.find_element_by_xpath("http://div[@class='list']/a[%d]"%num))
        #print '點擊\'加載更多\'一次'

    #使用wait.until使元素全部加載好能定位之后再操作,相當于try/except再套個while把

    for i in range(1,num):
        wait.until(lambda driver: driver.find_element_by_xpath("http://div[@class='list']/a[%d]"%num))
        list_title=driver_item.find_element_by_xpath("http://div[@class='list']/a[%d]"%i)
        print '----------------------------------------------'+'NO' + str(SUMRESOURCES +1)+'----------------------------------------------'
        print u'電影名: ' + list_title.text
        print u'鏈接: ' + list_title.get_attribute('href')
        #print unicode碼自動轉(zhuǎn)換為utf-8的


        #寫入txt中部分1
        list_title_wr=list_title.text.encode('utf-8')#unicode碼缆娃,需要重新編碼再寫入txt
        list_title_url_wr=list_title.get_attribute('href')

        Write_txt('\n----------------------------------------------'+'NO' + str(SUMRESOURCES +1)+'----------------------------------------------','',save_name)
        Write_txt(list_title_wr,list_title_url_wr,save_name)

        SUMRESOURCES = SUMRESOURCES +1

        try:#獲取具體內(nèi)容和評論捷绒。href是每個超鏈接也就是資源單獨的url
            getDetails(str(list_title.get_attribute('href')),ask_long)
        except:
            print 'can not get the details!'


##############################################################################
#當選擇一部電影后,進入這部電影的超鏈接贯要,然后才能獲取
#同時別忽視元素加載的問題
#在加載長評論的時候暖侨,注意模擬點擊一次小三角,不然可能會使內(nèi)容隱藏
##############################################################################
def getDetails(url,ask_long):

    driver_detail.get(url)
    wait1.until(lambda driver: driver.find_element_by_xpath("http://div[@id='link-report']/span"))
    drama = driver_detail.find_element_by_xpath("http://div[@id='link-report']/span")
    print u"劇情簡介:"+drama.text
    drama_wr=drama.text.encode('utf-8')
    Write_txt(drama_wr,'',save_name)
    print "--------------------------------------------Hot comments TOP----------------------------------------------"
    for i in range(1,5):#四個短評
        try:
            comments_hot = driver_detail.find_element_by_xpath("http://div[@id='hot-comments']/div[%s]/div/p"%i)
            print u"最新熱評:"+comments_hot.text
            comments_hot_wr=comments_hot.text.encode('utf-8')
            Write_txt("--------------------------------------------Hot comments TOP%d----------------------------------------------"%i,'',save_name)
            Write_txt(comments_hot_wr,'',save_name)
        except:
            print 'can not caught the comments!'


    #加載長評
    if ask_long==1:
        try:
            driver_detail.find_element_by_xpath("http://img[@class='bn-arrow']").click()
            #wait.until(lambda driver: driver.find_element_by_xpath("http://div[@class='review-bd']/div[2]/div/div"))
            time.sleep(1)
            #解決加載長評會提示劇透問題導致無法加載
            comments_get = driver_detail.find_element_by_xpath("http://div[@class='review-bd']/div[2]/div")
            if comments_get.text.encode('utf-8')=='提示: 這篇影評可能有劇透':
                comments_deep=driver_detail.find_element_by_xpath("http://div[@class='review-bd']/div[2]/div[2]")
            else:
                comments_deep = comments_get
            print "--------------------------------------------long-comments---------------------------------------------"
            print u"深度長評:"+comments_deep.text
            comments_deep_wr=comments_deep.text.encode('utf-8')
            Write_txt("--------------------------------------------long-comments---------------------------------------------\n",'',save_name)
            Write_txt(comments_deep_wr,'',save_name)
        except:
            print 'can not caught the deep_comments!'


##############################################################################
#將print輸出的寫入txt中查看崇渗,也可以在cmd中查看字逗,換行符是為了美觀
##############################################################################
def Write_txt(text1='',text2='',title='douban.txt'):

        with open(title,"a") as f:
            for i in text1:
                f.write(i)
            f.write("\n")
            for j in text2:
                f.write(j)
            f.write("\n")

def main():

    getURL_Title()
    driver_item.quit()

main()

上面的代碼是可以實現(xiàn)的,但需要Firefox的配合宅广,因為我其中一個引擎調(diào)用了Firefox葫掉,另一個抓評論的用了PhantomJS。


實現(xiàn)效果

這里直接上傳打包成exe后的形式跟狱,如何打包exe請看將python打包成exe

打包后實現(xiàn)形式

存入的txt文件


存入txt樣式

因為打包成exe必須是中文的鍵入俭厚,所以沒辦法,我改成英文來著驶臊,不然會出現(xiàn)這種情況挪挤。。关翎。


中文亂碼

輸出內(nèi)容是沒有問題的扛门。。纵寝。论寨。。。


問題及解決方案

1.使用PhantomJS和Firefox出現(xiàn)不同效果的問題政基,第21個回到起點贞铣。
1.解決方案,暫且我也沒有找到沮明,只有調(diào)用Firefox然后完事后再關(guān)閉辕坝,分析請見偽解決Selenium中調(diào)用PhantomJS無法模擬點擊(click)操作


2.在對unicode輸出在txt出現(xiàn)的問題,但是在print可以直接中文輸出的荐健。
2.解決方案:詳見Python輸出(print)內(nèi)容寫入txt中保存


Pay Attention

這里和上篇 偽解決Selenium中調(diào)用PhantomJS無法模擬點擊(click)操作

這里解決的問題和昨天的Pay Attention是一樣的酱畅,本來程序也是增強性補充而已,所以重復了江场。

1.元素無法定位問題
1.解決方案纺酸,首先查看是不是隱藏元素,其次再看自己的規(guī)則有沒有寫錯址否,還有就是是不是頁面加載未完成餐蔬,詳見解決網(wǎng)頁元素無法定位(NoSuchElementException: Unable to locate element)的幾種方法


2.只采集自己需要的數(shù)據(jù),剔除無用數(shù)據(jù)佑附,比如說樊诺,剛開始我用

driver_detail.find_elements_by_xpath

然后寫個取出list中元素的方法,但是這樣的話音同,一個便簽下內(nèi)容未必太多词爬,并不是我想要的如圖:

篩選有用內(nèi)容

比如說,我只想要紅色的部分权均,那么顿膨,采取elements就不太好處理。

2.解決方案叽赊,我采用的方法是格式化字符串恋沃!這個方法我在Selenium+PhantomJS自動續(xù)借圖書館書籍(下)也用過,根據(jù)元素的特性必指,可以發(fā)現(xiàn)囊咏,每個熱評的正文標簽不一樣的,其余標簽一樣取劫,只要格式化正文標簽即可,像這樣

for i in range(1,5):#取了前四條熱評
        try:
            comments = driver_detail.find_element_by_xpath("http://div[@id='hot-comments']/div[%s]/div/p"%i)
            print u"最新熱評:"+comments.text
        except:
            print 'can not caught comments!'

3.一個引擎干有個事研侣!我現(xiàn)在沒辦法谱邪,只有將第一個需要處理的頁面用Firefox來處理,之后評論用PhantomJS來抓取庶诡,之后可以用quit來關(guān)閉瀏覽器惦银,但是啟動瀏覽器還是會耗費好多資源,而且挺慢,雖然PhantomJS也很慢扯俱,我12G內(nèi)存都跑完了书蚪。。迅栅。殊校。。读存∥鳎看樣子是給我買8x2 16G雙通道的借口啊。


4.備注不標準也會導致程序出錯让簿,這個是我沒想到的敬察,我一直以為在'''備注'''之間的都可以隨便來,結(jié)果影響程序運行了尔当,之后分模塊測試才注意到這個問題莲祸,也是以前沒有遇到過的,切記椭迎!需要規(guī)范自己代碼锐帜,特別是像Python這樣縮進是靈魂的語言。侠碧。抹估。。


5.補充弄兜,長評論的抓取

操作1

這是點擊之后的圖药蜻,可以看到元素定位也是不一樣的,注意

操作2

最后

今天在知乎上回答了個問題替饿,能幫助和吸引一些人過來學這門讓人上癮的語言感覺很有成就感啊语泽,哈哈哈
希望能幫助更多的人,同時請不吝賜教视卢!


PS

知乎關(guān)注我有毛用踱卵,還不如這里呢。感興趣的可以下載exe文件据过,已打包上傳資源


這里寫圖片描述

致謝

@MrLevo520--偽解決Selenium中調(diào)用PhantomJS無法模擬點擊(click)操作
@MrLevo520--Python輸出(print)內(nèi)容寫入txt中保存
@MrLevo520--解決網(wǎng)頁元素無法定位(NoSuchElementException: Unable to locate element)的幾種方法
@Eastmount--[Python爬蟲] Selenium+Phantomjs動態(tài)獲取CSDN下載資源信息和評論
@Eastmount--[Python爬蟲] 在Windows下安裝PIP+Phantomjs+Selenium
@MrLevo520--解決Selenium彈出新頁面無法定位元素問題(Unable to locate element)

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
  • 序言:七十年代末惋砂,一起剝皮案震驚了整個濱河市,隨后出現(xiàn)的幾起案子绳锅,更是在濱河造成了極大的恐慌西饵,老刑警劉巖,帶你破解...
    沈念sama閱讀 206,482評論 6 481
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件鳞芙,死亡現(xiàn)場離奇詭異眷柔,居然都是意外死亡期虾,警方通過查閱死者的電腦和手機,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 88,377評論 2 382
  • 文/潘曉璐 我一進店門驯嘱,熙熙樓的掌柜王于貴愁眉苦臉地迎上來镶苞,“玉大人,你說我怎么就攤上這事鞠评∶荆” “怎么了?”我有些...
    開封第一講書人閱讀 152,762評論 0 342
  • 文/不壞的土叔 我叫張陵谢澈,是天一觀的道長煌贴。 經(jīng)常有香客問我,道長锥忿,這世上最難降的妖魔是什么牛郑? 我笑而不...
    開封第一講書人閱讀 55,273評論 1 279
  • 正文 為了忘掉前任,我火速辦了婚禮敬鬓,結(jié)果婚禮上淹朋,老公的妹妹穿的比我還像新娘。我一直安慰自己钉答,他們只是感情好础芍,可當我...
    茶點故事閱讀 64,289評論 5 373
  • 文/花漫 我一把揭開白布。 她就那樣靜靜地躺著数尿,像睡著了一般仑性。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發(fā)上右蹦,一...
    開封第一講書人閱讀 49,046評論 1 285
  • 那天诊杆,我揣著相機與錄音,去河邊找鬼何陆。 笑死晨汹,一個胖子當著我的面吹牛,可吹牛的內(nèi)容都是我干的贷盲。 我是一名探鬼主播淘这,決...
    沈念sama閱讀 38,351評論 3 400
  • 文/蒼蘭香墨 我猛地睜開眼,長吁一口氣:“原來是場噩夢啊……” “哼巩剖!你這毒婦竟也來了铝穷?” 一聲冷哼從身側(cè)響起,我...
    開封第一講書人閱讀 36,988評論 0 259
  • 序言:老撾萬榮一對情侶失蹤佳魔,失蹤者是張志新(化名)和其女友劉穎曙聂,沒想到半個月后,有當?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體吃引,經(jīng)...
    沈念sama閱讀 43,476評論 1 300
  • 正文 獨居荒郊野嶺守林人離奇死亡筹陵,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點故事閱讀 35,948評論 2 324
  • 正文 我和宋清朗相戀三年,在試婚紗的時候發(fā)現(xiàn)自己被綠了镊尺。 大學時的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片朦佩。...
    茶點故事閱讀 38,064評論 1 333
  • 序言:一個原本活蹦亂跳的男人離奇死亡,死狀恐怖庐氮,靈堂內(nèi)的尸體忽然破棺而出语稠,到底是詐尸還是另有隱情,我是刑警寧澤弄砍,帶...
    沈念sama閱讀 33,712評論 4 323
  • 正文 年R本政府宣布仙畦,位于F島的核電站,受9級特大地震影響音婶,放射性物質(zhì)發(fā)生泄漏慨畸。R本人自食惡果不足惜,卻給世界環(huán)境...
    茶點故事閱讀 39,261評論 3 307
  • 文/蒙蒙 一衣式、第九天 我趴在偏房一處隱蔽的房頂上張望寸士。 院中可真熱鬧,春花似錦碴卧、人聲如沸弱卡。這莊子的主人今日做“春日...
    開封第一講書人閱讀 30,264評論 0 19
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽婶博。三九已至,卻和暖如春荧飞,著一層夾襖步出監(jiān)牢的瞬間凡人,已是汗流浹背。 一陣腳步聲響...
    開封第一講書人閱讀 31,486評論 1 262
  • 我被黑心中介騙來泰國打工垢箕, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留划栓,地道東北人。 一個月前我還...
    沈念sama閱讀 45,511評論 2 354
  • 正文 我出身青樓条获,卻偏偏與公主長得像忠荞,于是被迫代替她去往敵國和親。 傳聞我的和親對象是個殘疾皇子帅掘,可洞房花燭夜當晚...
    茶點故事閱讀 42,802評論 2 345

推薦閱讀更多精彩內(nèi)容