Python版本管理:pyenv和pyenv-virtualenv
Scrapy爬蟲入門教程一 安裝和基本使用
Scrapy爬蟲入門教程二 官方提供Demo
Scrapy爬蟲入門教程三 命令行工具介紹和示例
Scrapy爬蟲入門教程四 Spider(爬蟲)
Scrapy爬蟲入門教程五 Selectors(選擇器)
Scrapy爬蟲入門教程六 Items(項(xiàng)目)
Scrapy爬蟲入門教程七 Item Loaders(項(xiàng)目加載器)
Scrapy爬蟲入門教程八 交互式 shell 方便調(diào)試
Scrapy爬蟲入門教程九 Item Pipeline(項(xiàng)目管道)
Scrapy爬蟲入門教程十 Feed exports(導(dǎo)出文件)
Scrapy爬蟲入門教程十一 Request和Response(請求和響應(yīng))
Scrapy爬蟲入門教程十二 Link Extractors(鏈接提取器)
開發(fā)環(huán)境:
Python 3.6.0 版本
(當(dāng)前最新)
Scrapy 1.3.2 版本
(當(dāng)前最新)
鏈接提取器
鏈接提取器是其唯一目的是從scrapy.http.Response
最終將跟隨的網(wǎng)頁(對象)提取鏈接的對象。
有Scrapy,但你可以創(chuàng)建自己的自定義鏈接提取器探越,以滿足您的需求通??過實(shí)現(xiàn)一個簡單的界面庭再。scrapy.linkextractors import LinkExtractor
每個鏈接提取器唯一的公共方法是extract_links
接收一個Response對象并返回一個scrapy.link.Link
對象列表筛严。鏈接提取器意在被實(shí)例化一次框沟,并且它們的extract_links
方法被調(diào)用幾次晋修,具有不同的響應(yīng)以提取跟隨的鏈接六水。
鏈接提取程序CrawlSpider
通過一組規(guī)則在類中使用(可以在Scrapy中使用)俺孙,但是您也可以在爬蟲中使用它,即使不從其中CrawlSpider
提取子類 缩擂,因?yàn)槠淠康姆浅:唵危禾崛℃溄印?/p>
內(nèi)置鏈接提取器參考
scrapy.linkextractors
模塊中提供了與Scrapy捆綁在一起的鏈接提取器類 鼠冕。
默認(rèn)的鏈接提取器是LinkExtractor
,它是相同的 LxmlLinkExtractor
:
from scrapy.linkextractors import LinkExtractor
以前的Scrapy版本中曾經(jīng)有過其他鏈接提取器類胯盯,但現(xiàn)在已經(jīng)過時了懈费。
LxmlLinkExtractor
class scrapy.linkextractors.lxmlhtml.LxmlLinkExtractor(allow=(), deny=(), allow_domains=(), deny_domains=(), deny_extensions=None, restrict_xpaths=(), restrict_css=(), tags=('a', 'area'), attrs=('href', ), canonicalize=True, unique=True, process_value=None)
LxmlLinkExtractor是推薦的鏈接提取器與方便的過濾選項(xiàng)。它使用lxml的強(qiáng)大的HTMLParser實(shí)現(xiàn)博脑。
**參數(shù): **
- allow(正則表達(dá)式(或的列表)) - 一個單一的正則表達(dá)式(或正則表達(dá)式列表)憎乙,(絕對)urls必須匹配才能提取。如果沒有給出(或?yàn)榭眨┎嫒ぃ鼘⑵ヅ渌墟溄印?/li>
- deny(正則表達(dá)式或正則表達(dá)式列表) - 一個正則表達(dá)式(或正則表達(dá)式列表)泞边,(絕對)urls必須匹配才能排除(即不提取)疗杉。它優(yōu)先于allow參數(shù)阵谚。如果沒有給出(或?yàn)榭眨粫懦魏捂溄印?/li>
- allow_domains(str或list) - 單個值或包含將被考慮用于提取鏈接的域的字符串列表
- deny_domains(str或list) - 單個值或包含不會被考慮用于提取鏈接的域的字符串列表
- deny_extensions(list) - 包含在提取鏈接時應(yīng)該忽略的擴(kuò)展的單個值或字符串列表烟具。如果沒有給出梢什,它將默認(rèn)為IGNORED_EXTENSIONS在scrapy.linkextractors包中定義的 列表 。
- restrict_xpaths(str或list) - 是一個XPath(或XPath的列表)朝聋,它定義響應(yīng)中應(yīng)從中提取鏈接的區(qū)域嗡午。如果給出,只有那些XPath選擇的文本將被掃描鏈接冀痕。參見下面的例子荔睹。
- restrict_css(str或list) - 一個CSS選擇器(或選擇器列表),用于定義響應(yīng)中應(yīng)提取鏈接的區(qū)域言蛇。有相同的行為restrict_xpaths僻他。
標(biāo)簽(str或list) - 標(biāo)簽或在提取鏈接時要考慮的標(biāo)簽列表。默認(rèn)為腊尚。('a', 'area') - attrs(list) - 在查找要提取的鏈接時應(yīng)該考慮的屬性或?qū)傩粤斜恚▋H適用于參數(shù)中指定的那些標(biāo)簽tags )吨拗。默認(rèn)為('href',)
- canonicalize(boolean) - 規(guī)范化每個提取的url(使用w3lib.url.canonicalize_url)。默認(rèn)為True。
- unique(boolean) - 是否應(yīng)對提取的鏈接應(yīng)用重復(fù)過濾丢胚。
- process_value(callable) -
接收從標(biāo)簽提取的每個值和掃描的屬性并且可以修改值并返回新值的函數(shù),或者返回None以完全忽略鏈接受扳。如果沒有給出携龟,process_value默認(rèn)為。lambda x: x
例如勘高,要從此代碼中提取鏈接:
<a href="javascript:goToPage('../other/page.html'); return false">Link text</a>
您可以使用以下功能process_value:
def process_value(value):
m = re.search("javascript:goToPage\('(.*?)'", value)
if m:
return m.group(1)