import requests
import re
from bs4 import BeautifulSoup #從bs4這個庫中導(dǎo)入BeautifulSoup
import lxml
import csv
movie_list = ['電影名']
m_eng = ['英文名或別名']
link_list = ['豆瓣鏈接']
info_list = ['詳細(xì)信息']
director_list = ['導(dǎo)演']
star_list = ['主演']
score_list = ['評分']
country_list = ['國家']
year_list = ['年份']
type_list = ['類型']
headers = {'User-Agent' : 'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/62.0.3202.89 Safari/537.36','Connection': 'close'}
for i in range(10):
link = "https://movie.douban.com/top250?start=" + str(i*25) +'&filter='
r = requests.get(link, headers=headers,timeout = 30,verify = False)
print(str(i+1),'頁碼響應(yīng)碼:', r.status_code)
soup = BeautifulSoup(r.text,'html.parser')
html = lxml.etree.HTML(r.text)
link_all = html.xpath('//div[@class = "hd"]/a[1]')
title_all = html.xpath('//div[@class = "hd"]/a/span[1]')
etitle_all = html.xpath('//div[@class = "hd"]/a/span[2]')
info_all = html.xpath('//div[@class = "bd"]/p[1]/text()')
score_all = html.xpath('//div[@class = "star"]/span[2]/text()')
r.close()
#title_movie = title_all[0]
#title_eng = title_all[1]
#title_other = title_all[2]
#movie_list.append(title_movie)
#m_eng.append(title_eng)
#m_other.append(title_other)
#print(score_all)
for index in range(len(link_all)):
movie_list.append(title_all[index].text)
m_eng.append(' '.join(etitle_all[index].text.split()))
link_list.append(link_all[index].attrib['href'])
score_list.append(score_all[index])
info_list.append(' '.join(info_all[2*index].split()))
info_str = ' '.join(info_all[2*index].split())
info2 = re.match(r'(.*?)/(.*)/(.*)',info_all[2*index+1])
print(info_all[2*index+1])
print(info2)
country_list.append(info2.group(2).strip())
year_list.append(info2.group(1).strip())
type_list.append(info2.group(3).strip())
#print(country_list)
#print(index)
#print(info_str)
direc = re.match(r'導(dǎo)演: (.*) 主',info_str)
if direc == None :
director_list.append('')
else:
#print(direc.group(1))
director_list.append(direc.group(1))
star = re.search(r'主演: (.*)', info_str)
#print(star)
if star == None :
star_list.append('')
else:
star_list.append(star.group(1))
#print(star.group(1))
print(movie_list)
print(m_eng)
print(link_list)
#print(info_list)
print(director_list)
print(star_list)
print(score_list)
print(country_list)
print(year_list)
print(type_list)
movie_info = []
with open('Top250 movie.csv','a+',encoding='UTF-8',newline='')as csvfile:
w = csv.writer(csvfile,dialect='excel')
for i, element in enumerate(score_list):
movie_info = [movie_list[i],m_eng[i],country_list[i],year_list[i],type_list[i],director_list[i],star_list[i],score_list[i],link_list[i]]
w.writerow(movie_info)
#print (movie_list)
爬蟲程序-豆瓣電影
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
- 文/潘曉璐 我一進(jìn)店門笛园,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人侍芝,你說我怎么就攤上這事研铆。” “怎么了州叠?”我有些...
- 文/不壞的土叔 我叫張陵棵红,是天一觀的道長。 經(jīng)常有香客問我咧栗,道長逆甜,這世上最難降的妖魔是什么虱肄? 我笑而不...
- 正文 為了忘掉前任,我火速辦了婚禮交煞,結(jié)果婚禮上浩峡,老公的妹妹穿的比我還像新娘。我一直安慰自己错敢,他們只是感情好,可當(dāng)我...
- 文/花漫 我一把揭開白布缕粹。 她就那樣靜靜地躺著稚茅,像睡著了一般。 火紅的嫁衣襯著肌膚如雪平斩。 梳的紋絲不亂的頭發(fā)上亚享,一...
- 文/蒼蘭香墨 我猛地睜開眼瘦馍,長吁一口氣:“原來是場噩夢啊……” “哼歼秽!你這毒婦竟也來了?” 一聲冷哼從身側(cè)響起情组,我...
- 序言:老撾萬榮一對情侶失蹤燥筷,失蹤者是張志新(化名)和其女友劉穎,沒想到半個月后院崇,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體肆氓,經(jīng)...
- 正文 獨(dú)居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
- 正文 我和宋清朗相戀三年底瓣,在試婚紗的時候發(fā)現(xiàn)自己被綠了谢揪。 大學(xué)時的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片。...
- 正文 年R本政府宣布,位于F島的核電站官套,受9級特大地震影響酒奶,放射性物質(zhì)發(fā)生泄漏蚁孔。R本人自食惡果不足惜,卻給世界環(huán)境...
- 文/蒙蒙 一惋嚎、第九天 我趴在偏房一處隱蔽的房頂上張望杠氢。 院中可真熱鬧,春花似錦另伍、人聲如沸鼻百。這莊子的主人今日做“春日...
- 文/蒼蘭香墨 我抬頭看了看天上的太陽温艇。三九已至,卻和暖如春堕汞,著一層夾襖步出監(jiān)牢的瞬間勺爱,已是汗流浹背。 一陣腳步聲響...
- 正文 我出身青樓人灼,卻偏偏與公主長得像围段,于是被迫代替她去往敵國和親。 傳聞我的和親對象是個殘疾皇子投放,可洞房花燭夜當(dāng)晚...
推薦閱讀更多精彩內(nèi)容
- 本篇內(nèi)容需要大家對scrapy框架有了解跪呈,并完成了入門學(xué)習(xí)才能繼續(xù)使用段磨。 創(chuàng)建項(xiàng)目 scrape startpro...
- github源碼下載 首先聲明一點(diǎn),由于豆瓣的api有訪問次數(shù)限制耗绿,應(yīng)該是一分鐘內(nèi)只允許40次請求苹支,所以需要設(shè)置延...
- python爬蟲學(xué)習(xí)給自己定下的第一個小目標(biāo), 加油!也希望能得到python大大們的指點(diǎn), 感謝! 1. 豆瓣抓...
- 在網(wǎng)上閱讀有關(guān)scrapy的教程也有一段時間了,可是一直沒能真正寫出能爬出數(shù)據(jù)的代碼误阻。债蜜。。今天趁著有點(diǎn)時間究反,趕快實(shí)...