
@loading_miracle
yield
scrapy.FormRequest(url,formdata=formdata,cookies=self.cookies,headers=self.headers,callback=self.parse)
加了headers=self.headers就沒報(bào)錯(cuò)了
python爬蟲——拉鉤網(wǎng)職位(scrapy)上一篇python爬蟲——拉鉤網(wǎng)職位信息文章中提到要用scrapy框架去完成這個(gè)工作彭羹,現(xiàn)在已基本完成黄伊,自己可以添加更多職位和城市。思路和上一篇文章用requests+beau...
是寫錯(cuò)了 問題找到了 謝謝
python爬蟲——拉鉤網(wǎng)職位(scrapy)上一篇python爬蟲——拉鉤網(wǎng)職位信息文章中提到要用scrapy框架去完成這個(gè)工作派殷,現(xiàn)在已基本完成还最,自己可以添加更多職位和城市墓阀。思路和上一篇文章用requests+beau...
File "/Users/Desktop/testbox/test02/Lagou/Lagou/spiders/lg_spider.py", line 52, in parse
content = data['content']
KeyError: 'content'
問題出在哪里?
python爬蟲——拉鉤網(wǎng)職位(scrapy)上一篇python爬蟲——拉鉤網(wǎng)職位信息文章中提到要用scrapy框架去完成這個(gè)工作拓轻,現(xiàn)在已基本完成岂津,自己可以添加更多職位和城市。思路和上一篇文章用requests+beau...