from lxml import etree
import pandas as pd
import requests
import pickle
import sys
import os
def get_page_content(url):
"""鏈接網(wǎng)頁谁尸,獲取頁面內(nèi)容"""
head = 'http://ttc.seu.edu.cn'
header = {'User-Agent': 'Mozilla/5.0 (X11; Linux x86_64; rv:52.0) Gecko/20100101 Firefox/52.0',
'referer': 'http://ttc.seu.edu.cn'}
while True:
try:
print(f'\033[1;32m正在下載: {url}\033[0m')
content = requests.get(url, headers=header, timeout=10)
except KeyboardInterrupt:
print('停止獲取網(wǎng)頁成果错忱,即將退出...')
sys.exit()
except:
print('\033[1;31m網(wǎng)頁內(nèi)容獲取失敗霍弹,重新鏈接...\033[0m')
continue
break
html = etree.HTML(content.text)
title = html.xpath('//div[@class="article-title-all"]/text()')[0] # 成果標(biāo)題
# data1 = html.xpath('//dl/*/text()') # 描述屬性的標(biāo)題與內(nèi)容,內(nèi)容為空的部分會缺失谒撼,沒有占位
technical_filed = html.xpath('//dl/dd/span/text()') # 技術(shù)領(lǐng)域
technical_filed = ', '.join(technical_filed)
technical_describe = html.xpath('//div[@class="gray-box-no-border resource-big-detail"]/p/text()') # 成果介紹
technical_describe = '<br>'.join(technical_describe)
content1 = html.xpath('//div[@class="col-sm-6 col-xs-12"]/dl/dd') # 證書楼咳,單位熄捍,時間,階段母怜,領(lǐng)域余耽,產(chǎn)權(quán),歸屬
content2 = html.xpath('//div[@class="col-md-6 col-xs-12"]/div/dl/dd') # 合作苹熏,單位介紹
pics = html.xpath('//div[@class="sp-wrap"]/a') # 獲取圖片節(jié)點(diǎn)
pics_link = [head + v.values()[0] for v in [a.attrib for a in pics]] # 獲取標(biāo)簽屬性里面圖片鏈接,組成列表
pics_links = [', '.join(pics_link)]
contact = html.xpath('//div[@class="gray-box-no-border"]/p/text()') # 聯(lián)系方式
content1 = [i.text for i in content1]
content2 = [j.text for j in content2]
content1[4] = technical_filed
content = [title] + content1 + [technical_describe] + content2 + contact + pics_links + [url]
save_to_excel(content, title) # 保存獲取的內(nèi)容
def save_to_excel(content,title):
"""把內(nèi)容保存到excel表格"""
print('保存數(shù)據(jù)...')
file_name = 'ddcg.xlsx'
keylist = ['成果名稱','知識產(chǎn)權(quán)證書號','單位名稱','發(fā)布時間','項(xiàng)目階段','技術(shù)領(lǐng)域','知識產(chǎn)權(quán)情況','成果歸屬','成果介紹',
'項(xiàng)目負(fù)責(zé)人', '合作方式','轉(zhuǎn)讓價格','法人代表','單位規(guī)模','單位性質(zhì)','電話','郵箱','地址','圖片鏈接','原始網(wǎng)頁鏈接']
tem_zip = list(zip(keylist,content))
c = {} # 保存結(jié)果
for key, value in tem_zip:
c[key] = [value]
pd_c = pd.DataFrame(c) # 轉(zhuǎn)化為表格數(shù)據(jù)
if os.path.exists(file_name):
data = pd.read_excel(file_name)
data = pd.concat([data, pd_c])
data.to_excel(file_name, index=False)
print('%s: 追加完畢碟贾!' % title)
else:
pd_c.to_excel(file_name, index=False)
print('%s: 保存完畢!' %title)
def get_page_link(list_link):
"""獲取頁面成果鏈接以及下一頁列表鏈接"""
head = 'http://ttc.seu.edu.cn'
header = {'User-Agent': 'Mozilla/5.0 (X11; Linux x86_64; rv:52.0) Gecko/20100101 Firefox/52.0',
'referer': 'http://ttc.seu.edu.cn'}
num = list_link.split('=')[-1]
print(f'正在獲取第 {num} 頁成果列表...')
while True:
try:
page_data = requests.get(list_link,headers=header,timeout=10)
break
except KeyboardInterrupt:
print('主動退出下載:\n已經(jīng)下載到:%s' % list_link)
with open('list_link.txt','w') as lobj:
lobj.write(list_link)
except:
print('獲取網(wǎng)頁錯誤轨域,重新下載...')
continue
data_xpath = etree.HTML(page_data.text)
cc_list_link = data_xpath.xpath('//a[@class="article-title"]') # 獲取成果鏈接標(biāo)簽元素
alist = [head + link[link.keys()[0]] for link in [d.attrib for d in cc_list_link]] # 得到本頁面成果列表鏈接
# print(alist)
next_list_e = data_xpath.xpath('//nav/ul/li[last()]/a') # 獲取下一頁鏈接標(biāo)簽元素
next_list_page_e = [v['href'] for v in [a.attrib for a in next_list_e]][0] # 獲取標(biāo)簽的下一頁鏈接內(nèi)容
# print(next_list_page_e)
get_next_list = head + next_list_page_e if next_list_page_e.startswith('/abutment') else ''
return get_next_list, alist
if __name__ == '__main__':
url = 'http://ttc.seu.edu.cn/abutment/technologyachievementsearch?pageIndex=2'
while True:
next_list_link, cclist = get_page_link(url)
while cclist:
link = cclist.pop()
while True:
try:
get_page_content(link)
with open('download_link.txt','a') as dobj:
dobj.write(link + '\n') # 保存已下載鏈接
break
except KeyboardInterrupt:
print('主動退出袱耽,保存進(jìn)度...')
with open('cc_list.txt','w') as cobj:
cclist.append(link)
# pickle.dump(cclist,cobj)
cobj.write(cclist)
with open('next_list.txt','w') as lobj:
lobj.write(next_list_link)
exit()
except Exception as e :
print('其他錯誤。干发。朱巨。', e)
# continue
if next_list_link == '':
print('下載完畢,退出下載...')
for i in ['cc_list.txt','next_list.txt']:
if os.path.exists(i):
os.remove(i)
sys.exit()
url = next_list_link
python爬蟲Xpath腕让,pandas示例
最后編輯于 :
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
- 文/潘曉璐 我一進(jìn)店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來功炮,“玉大人溅潜,你說我怎么就攤上這事⌒椒” “怎么了滚澜?”我有些...
- 文/不壞的土叔 我叫張陵,是天一觀的道長嫁怀。 經(jīng)常有香客問我设捐,道長,這世上最難降的妖魔是什么塘淑? 我笑而不...
- 正文 為了忘掉前任萝招,我火速辦了婚禮,結(jié)果婚禮上存捺,老公的妹妹穿的比我還像新娘槐沼。我一直安慰自己,他們只是感情好捌治,可當(dāng)我...
- 文/花漫 我一把揭開白布岗钩。 她就那樣靜靜地躺著,像睡著了一般具滴。 火紅的嫁衣襯著肌膚如雪凹嘲。 梳的紋絲不亂的頭發(fā)上,一...
- 文/蒼蘭香墨 我猛地睜開眼,長吁一口氣:“原來是場噩夢啊……” “哼搓萧!你這毒婦竟也來了杂数?” 一聲冷哼從身側(cè)響起宛畦,我...
- 序言:老撾萬榮一對情侶失蹤,失蹤者是張志新(化名)和其女友劉穎揍移,沒想到半個月后次和,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體,經(jīng)...
- 正文 獨(dú)居荒郊野嶺守林人離奇死亡那伐,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
- 正文 我和宋清朗相戀三年踏施,在試婚紗的時候發(fā)現(xiàn)自己被綠了。 大學(xué)時的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片罕邀。...
- 正文 年R本政府宣布肾胯,位于F島的核電站碍遍,受9級特大地震影響,放射性物質(zhì)發(fā)生泄漏阳液。R本人自食惡果不足惜怕敬,卻給世界環(huán)境...
- 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望帘皿。 院中可真熱鬧东跪,春花似錦、人聲如沸鹰溜。這莊子的主人今日做“春日...
- 文/蒼蘭香墨 我抬頭看了看天上的太陽曹动。三九已至斋日,卻和暖如春,著一層夾襖步出監(jiān)牢的瞬間墓陈,已是汗流浹背恶守。 一陣腳步聲響...
- 正文 我出身青樓,卻偏偏與公主長得像仔拟,于是被迫代替她去往敵國和親衫樊。 傳聞我的和親對象是個殘疾皇子,可洞房花燭夜當(dāng)晚...
推薦閱讀更多精彩內(nèi)容
- 案例:使用XPath的爬蟲 現(xiàn)在我們用XPath來做一個簡單的爬蟲载佳,我們嘗試爬取某個貼吧里的所有帖子,并且將該這個...
- 本篇是使用XPath的案例臀栈,更多內(nèi)容請參考:Python學(xué)習(xí)指南 案例:使用XPath的爬蟲 現(xiàn)在我們用XPath...
- 簡單做個總結(jié)吧肋联。。這一兩周主要是協(xié)助爬蟲數(shù)據(jù)采集刁俭,同時利用項(xiàng)目來調(diào)試規(guī)則橄仍,找bug等。牍戚。當(dāng)然從中也是利用到了之前的...
- 在爬取網(wǎng)頁之前如孝,我們還需要做一些準(zhǔn)備工作宪哩,需要我們首先安裝上相關(guān)的包,requests和xpath第晰,包的安裝大家完...
- 黑色的海島上懸著一輪又大又圓的明月茁瘦,毫不嫌棄地把溫柔的月色照在這寸草不生的小島上品抽。一個少年白衣白發(fā),悠閑自如地倚坐...