CrawlSpider報(bào)錯(cuò)AttributeError: 'str' object has no attribute 'iter'

打算學(xué)習(xí) CrawlSpider缭黔,將現(xiàn)有的 Spider 改寫為 CrawlSpider 食茎,沒想到在匹配規(guī)則這一塊就遇到了坑,還是解決不了的那種馏谨,直接上代碼

class SbcxCrawlSpider(CrawlSpider):
    name = 'sbcx_crawl'
    allowed_domains = ['sbcx.com']
    start_urls = ['http://sbcx.com/sbcx/apple']

    rules = (
        Rule(LinkExtractor(), callback='parse_item', follow=False),
    )

    def parse_item(self, response):
        print(response.url)

開始是打算用正則匹配别渔,沒有寫匹配規(guī)則的情況下直接使用
Rule(LinkExtractor(), callback='parse_item', follow=False)
在 parse_item 函數(shù)中打印發(fā)現(xiàn) Scrapy 的 LinkExtractor 居然沒有提取到我需要的 url 惧互!頁面是靜態(tài)頁面哎媚,比如其中一條 a 標(biāo)簽 :
<a target="_blank" href="/trademark-detail/16010/APPLE" login="1" >G80</a>,居然被 LinkExtractor 忽略了壹哺,目前還不知道原因和解決辦法抄伍。。管宵。

換成 xpath 匹配

修改 rules 如下

 rules = (
        Rule(LinkExtractor(restrict_xpaths='//table[@class="jsjieguo"]/tr/td[5]/a/@href'), callback='parse_item', follow=False),
        # Rule(LinkExtractor(), callback='parse_item', follow=False),
    )

運(yùn)行程序直接報(bào)錯(cuò)截珍,報(bào)錯(cuò)信息如下:

Traceback (most recent call last):
  File "E:\Develop\Virtualenv\py2_7\lib\site-packages\scrapy\utils\defer.py", line 102, in iter_errback
    yield next(it)
  File "E:\Develop\Virtualenv\py2_7\lib\site-packages\scrapy\spidermiddlewares\offsite.py", line 30, in process_spider_output
    for x in result:
  File "E:\Develop\Virtualenv\py2_7\lib\site-packages\scrapy\spidermiddlewares\referer.py", line 339, in <genexpr>
    return (_set_referer(r) for r in result or ())
  File "E:\Develop\Virtualenv\py2_7\lib\site-packages\scrapy\spidermiddlewares\urllength.py", line 37, in <genexpr>
    return (r for r in result or () if _filter(r))
  File "E:\Develop\Virtualenv\py2_7\lib\site-packages\scrapy\spidermiddlewares\depth.py", line 58, in <genexpr>
    return (r for r in result or () if _filter(r))
  File "E:\Develop\Virtualenv\py2_7\lib\site-packages\scrapy\spiders\crawl.py", line 82, in _parse_response
    for request_or_item in self._requests_to_follow(response):
  File "E:\Develop\Virtualenv\py2_7\lib\site-packages\scrapy\spiders\crawl.py", line 61, in _requests_to_follow
    links = [lnk for lnk in rule.link_extractor.extract_links(response)
  File "E:\Develop\Virtualenv\py2_7\lib\site-packages\scrapy\linkextractors\lxmlhtml.py", line 128, in extract_links
    links = self._extract_links(doc, response.url, response.encoding, base_url)
  File "E:\Develop\Virtualenv\py2_7\lib\site-packages\scrapy\linkextractors\__init__.py", line 109, in _extract_links
    return self.link_extractor._extract_links(*args, **kwargs)
  File "E:\Develop\Virtualenv\py2_7\lib\site-packages\scrapy\linkextractors\lxmlhtml.py", line 58, in _extract_links
    for el, attr, attr_val in self._iter_links(selector.root):
  File "E:\Develop\Virtualenv\py2_7\lib\site-packages\scrapy\linkextractors\lxmlhtml.py", line 46, in _iter_links
    for el in document.iter(etree.Element):
AttributeError: 'str' object has no attribute 'iter'

最后在 stackoverflow 找到了答案

The problem is that restrict_xpaths should point to elements - either the links directly or containers containing links, not attributes:
翻譯過來就是:
這個(gè)錯(cuò)誤的原因是 restrict_xpaths 應(yīng)該指向元素攀甚,也就是直接鏈接或包含鏈接的容器,而不是它的屬性岗喉,而我們的代碼中用的是 a/@href秋度,修改如下

 rules = (
        Rule(LinkExtractor(restrict_xpaths='//table[@class="jsjieguo"]/tr/td[5]/a'), callback='parse_item', follow=False),
        # Rule(LinkExtractor(), callback='parse_item', follow=False),
    )
最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
  • 序言:七十年代末,一起剝皮案震驚了整個(gè)濱河市钱床,隨后出現(xiàn)的幾起案子荚斯,更是在濱河造成了極大的恐慌,老刑警劉巖查牌,帶你破解...
    沈念sama閱讀 218,204評(píng)論 6 506
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件事期,死亡現(xiàn)場離奇詭異,居然都是意外死亡纸颜,警方通過查閱死者的電腦和手機(jī)兽泣,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 93,091評(píng)論 3 395
  • 文/潘曉璐 我一進(jìn)店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來胁孙,“玉大人唠倦,你說我怎么就攤上這事′探希” “怎么了稠鼻?”我有些...
    開封第一講書人閱讀 164,548評(píng)論 0 354
  • 文/不壞的土叔 我叫張陵,是天一觀的道長狂票。 經(jīng)常有香客問我候齿,道長,這世上最難降的妖魔是什么闺属? 我笑而不...
    開封第一講書人閱讀 58,657評(píng)論 1 293
  • 正文 為了忘掉前任毛肋,我火速辦了婚禮,結(jié)果婚禮上屋剑,老公的妹妹穿的比我還像新娘润匙。我一直安慰自己,他們只是感情好唉匾,可當(dāng)我...
    茶點(diǎn)故事閱讀 67,689評(píng)論 6 392
  • 文/花漫 我一把揭開白布孕讳。 她就那樣靜靜地躺著,像睡著了一般巍膘。 火紅的嫁衣襯著肌膚如雪厂财。 梳的紋絲不亂的頭發(fā)上,一...
    開封第一講書人閱讀 51,554評(píng)論 1 305
  • 那天峡懈,我揣著相機(jī)與錄音璃饱,去河邊找鬼。 笑死肪康,一個(gè)胖子當(dāng)著我的面吹牛荚恶,可吹牛的內(nèi)容都是我干的撩穿。 我是一名探鬼主播,決...
    沈念sama閱讀 40,302評(píng)論 3 418
  • 文/蒼蘭香墨 我猛地睜開眼谒撼,長吁一口氣:“原來是場噩夢啊……” “哼食寡!你這毒婦竟也來了?” 一聲冷哼從身側(cè)響起廓潜,我...
    開封第一講書人閱讀 39,216評(píng)論 0 276
  • 序言:老撾萬榮一對(duì)情侶失蹤抵皱,失蹤者是張志新(化名)和其女友劉穎,沒想到半個(gè)月后辩蛋,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體呻畸,經(jīng)...
    沈念sama閱讀 45,661評(píng)論 1 314
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 37,851評(píng)論 3 336
  • 正文 我和宋清朗相戀三年悼院,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了擂错。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片。...
    茶點(diǎn)故事閱讀 39,977評(píng)論 1 348
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡樱蛤,死狀恐怖,靈堂內(nèi)的尸體忽然破棺而出剑鞍,到底是詐尸還是另有隱情昨凡,我是刑警寧澤,帶...
    沈念sama閱讀 35,697評(píng)論 5 347
  • 正文 年R本政府宣布蚁署,位于F島的核電站便脊,受9級(jí)特大地震影響,放射性物質(zhì)發(fā)生泄漏光戈。R本人自食惡果不足惜哪痰,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 41,306評(píng)論 3 330
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望久妆。 院中可真熱鬧晌杰,春花似錦、人聲如沸筷弦。這莊子的主人今日做“春日...
    開封第一講書人閱讀 31,898評(píng)論 0 22
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽烂琴。三九已至爹殊,卻和暖如春,著一層夾襖步出監(jiān)牢的瞬間奸绷,已是汗流浹背梗夸。 一陣腳步聲響...
    開封第一講書人閱讀 33,019評(píng)論 1 270
  • 我被黑心中介騙來泰國打工, 沒想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留号醉,地道東北人反症。 一個(gè)月前我還...
    沈念sama閱讀 48,138評(píng)論 3 370
  • 正文 我出身青樓辛块,卻偏偏與公主長得像,于是被迫代替她去往敵國和親惰帽。 傳聞我的和親對(duì)象是個(gè)殘疾皇子憨降,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 44,927評(píng)論 2 355