前言
一虫溜、解析淘寶URL組成
二、查看網(wǎng)頁源碼并用re庫提取信息
1.查看源碼
2.re庫提取信息
三:函數(shù)填寫
四:主函數(shù)填寫
五:完整代碼
如果大家在學習中遇到困難退疫,想找一個python學習交流環(huán)境参歹,可以加入我們的python圈,裙號947618024岔霸,可領取python學習資料薛躬,會節(jié)約很多時間,減少很多遇到的難題呆细。
前言
本文簡單使用python的requests庫及re正則表達式對淘寶的商品信息(商品名稱型宝,商品價格,生產(chǎn)地區(qū)絮爷,以及銷售額)進行了爬取趴酣,并最后用xlsxwriter庫將信息放入Excel表格。最后的效果圖如下:
提示:以下是本篇文章正文內(nèi)容
一坑夯、解析淘寶URL組成
1.我們的第一個需求就是要輸入商品名字返回對應的信息
所以我們這里隨便選一個商品來觀察它的URL价卤,這里我們選擇的是書包,打開網(wǎng)頁渊涝,可知他的URL為:
https://s.taobao.com/search?q=%E4%B9%A6%E5%8C%85&imgfile=&commend=all&ssid=s5-e&search_type=item&sourceId=tb.index&spm=a21bo.2017.201856-taobao-item.1&ie=utf8&initiative_id=tbindexz_20170306
可能單單從這個url里我們看不出什么慎璧,但是我們可以從圖中看出一些端倪
我們發(fā)現(xiàn)q后面的參數(shù)就是我們要獲取的物品的名字
2.我們第二個需求就是根據(jù)輸入的數(shù)字來爬取商品的頁碼
所以我們來觀察一下后面幾頁URL的組成
由此我們可以得出分頁的依據(jù)是最后s的值=(44(頁數(shù)-1))
二、查看網(wǎng)頁源碼并用re庫提取信息
1.查看源碼
這里的幾個信息都是我們所需要的
2.re庫提取信息
a = re.findall(r'"raw_title":"(.*?)"', html)? ? b = re.findall(r'"view_price":"(.*?)"', html)? ? c = re.findall(r'"item_loc":"(.*?)"', html)? ? d = re.findall(r'"view_sales":"(.*?)"', html)1234
三:函數(shù)填寫
這里我寫了三個函數(shù)跨释,第一個函數(shù)來獲取html網(wǎng)頁胸私,代碼如下:
defGetHtml(url):r = requests.get(url,headers =headers)? ? r.raise_for_status()? ? r.encoding = r.apparent_encodingreturnr12345
第二個用于獲取網(wǎng)頁的URL代碼如下:
def Geturls(q, x):? ? url ="https://s.taobao.com/search?q="+ q +"&imgfile=&commend=all&ssid=s5-e&search_type=item&sourceId=tb.index&spm"\"=a21bo.2017.201856-taobao-item.1&ie=utf8&initiative_id=tbindexz_20170306 "urls = []? ? urls.append(url)ifx ==1:returnurlsfori inrange(1, x ):? ? ? ? url ="https://s.taobao.com/search?q="+ q +"&commend=all&ssid=s5-e&search_type=item"\"&sourceId=tb.index&spm=a21bo.2017.201856-taobao-item.1&ie=utf8&initiative_id=tbindexz_20170306"\"&bcoffset=3&ntoffset=3&p4ppushleft=1%2C48&s="+ str(? ? ? ? ? ? i *44)? ? ? ? urls.append(url)returnurls1234567891011121314
第三個用于獲取我們需要的商品信息并寫入Excel表格代碼如下:
defGetxxintoExcel(html):globalcount#定義一個全局變量count用于后面excel表的填寫a = re.findall(r'"raw_title":"(.*?)"', html)#(.*?)匹配任意字符b = re.findall(r'"view_price":"(.*?)"', html)? ? c = re.findall(r'"item_loc":"(.*?)"', html)? ? d = re.findall(r'"view_sales":"(.*?)"', html)? ? x = []foriinrange(len(a)):try:? ? ? ? ? ? x.append((a[i],b[i],c[i],d[i]))#把獲取的信息放入新的列表中exceptIndexError:breaki =0foriinrange(len(x)):? ? ? ? worksheet.write(count + i +1,0, x[i][0])#worksheet.write方法用于寫入數(shù)據(jù),第一個數(shù)字是行位置,第二個數(shù)字是列鳖谈,第三個是寫入的數(shù)據(jù)信息岁疼。worksheet.write(count + i +1,1, x[i][1])? ? ? ? worksheet.write(count + i +1,2, x[i][2])? ? ? ? worksheet.write(count + i +1,3, x[i][3])? ? count = count +len(x)#下次寫入的行數(shù)是這次的長度+1returnprint("已完成")123456789101112131415161718192021
四:主函數(shù)填寫
if__name__ =="__main__":? ? count =0headers = {"user-agent":"Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/80.0.3987.149 Safari/537.36","cookie":""#cookie 是每個人獨有的,因為反爬機制的緣故缆娃,爬取太快可能到后面要重新刷新一下自己的Cookie捷绒。? ? ? ? ? ? ? ? }? ? q =input("輸入貨物")? ? x = int(input("你想爬取幾頁"))? ? urls = Geturls(q,x)? ? workbook = xlsxwriter.Workbook(q+".xlsx")? ? worksheet = workbook.add_worksheet()? ? worksheet.set_column('A:A',70)? ? worksheet.set_column('B:B',20)? ? worksheet.set_column('C:C',20)? ? worksheet.set_column('D:D',20)? ? worksheet.write('A1','名稱')? ? worksheet.write('B1','價格')? ? worksheet.write('C1','地區(qū)')? ? worksheet.write('D1','付款人數(shù)')forurlinurls:? ? ? ? html = GetHtml(url)? ? ? ? s = GetxxintoExcel(html.text)time.sleep(5)? ? workbook.close()#在程序結束之前不要打開excel,excel表在當前目錄下12345678910111213141516171819202122232425
五:完整代碼
importreimportrequestsimportxlsxwriterimporttimedefGetxxintoExcel(html):globalcount? ? a = re.findall(r'"raw_title":"(.*?)"', html)? ? b = re.findall(r'"view_price":"(.*?)"', html)? ? c = re.findall(r'"item_loc":"(.*?)"', html)? ? d = re.findall(r'"view_sales":"(.*?)"', html)? ? x = []foriinrange(len(a)):try:? ? ? ? ? ? x.append((a[i],b[i],c[i],d[i]))exceptIndexError:breaki =0foriinrange(len(x)):? ? ? ? worksheet.write(count + i +1,0, x[i][0])? ? ? ? worksheet.write(count + i +1,1, x[i][1])? ? ? ? worksheet.write(count + i +1,2, x[i][2])? ? ? ? worksheet.write(count + i +1,3, x[i][3])? ? count = count +len(x)returnprint("已完成")defGeturls(q, x):url ="https://s.taobao.com/search?q="+ q +"&imgfile=&commend=all&ssid=s5-e&search_type=item&sourceId=tb.index&spm"\"=a21bo.2017.201856-taobao-item.1&ie=utf8&initiative_id=tbindexz_20170306 "urls = []? ? urls.append(url)ifx ==1:returnurlsforiinrange(1, x ):? ? ? ? url ="https://s.taobao.com/search?q="+ q +"&commend=all&ssid=s5-e&search_type=item"\"&sourceId=tb.index&spm=a21bo.2017.201856-taobao-item.1&ie=utf8&initiative_id=tbindexz_20170306"\"&bcoffset=3&ntoffset=3&p4ppushleft=1%2C48&s="+ str(? ? ? ? ? ? i *44)? ? ? ? urls.append(url)returnurlsdefGetHtml(url):r = requests.get(url,headers =headers)? ? r.raise_for_status()? ? r.encoding = r.apparent_encodingreturnrif__name__ =="__main__":? ? count =0headers = {"user-agent":"Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/80.0.3987.149 Safari/537.36","cookie":""}? ? q = input("輸入貨物")? ? x = int(input("你想爬取幾頁"))? ? urls = Geturls(q,x)? ? workbook = xlsxwriter.Workbook(q+".xlsx")? ? worksheet = workbook.add_worksheet()? ? worksheet.set_column('A:A',70)? ? worksheet.set_column('B:B',20)? ? worksheet.set_column('C:C',20)? ? worksheet.set_column('D:D',20)? ? worksheet.write('A1','名稱')? ? worksheet.write('B1','價格')? ? worksheet.write('C1','地區(qū)')? ? worksheet.write('D1','付款人數(shù)')? ? xx = []forurlinurls:? ? ? ? html = GetHtml(url)? ? ? ? s = GetxxintoExcel(html.text)? ? ? ? time.sleep(5)? ? workbook.close()123456789101112131415161718192021222324252627282930313233343536373839404142434445464748495051525354555657585960616263646566676869707172737475
覺得寫的可以的
最后多說一句贯要,想學習Python可聯(lián)系小編暖侨,
這里有我自己整理的整套python學習資料和路線,
想要這些資料的都可以簡信回復我“資料”即可領取學習3缟W侄骸京郑!
本文章素材來源于網(wǎng)絡,如有侵權請聯(lián)系刪除葫掉。