- 【Django】錯誤提示:
specifying a namespace in include() without providing an app_name
解決措施:
python3 Django環(huán)境下,如果namespace沒有注冊以及在根目錄下urls.py中的include方法的第二個參數(shù)namespace添加之后就出錯的問題床佳,則需要在app_name目錄下的urls.py中的urlpatterns前面加上app_name = '[app_name]'政勃,[app_name]代表應用名稱嘱支。
- 【Django】錯誤提示:
No module named 'django.core.urlresolvers'
解決措施:
from django.urls import reverse
原因就是:django2.0 把原來的 django.core.urlresolvers 包更改為了django.urls包砸烦,所以我們需要把導入的包都修改一下就可以了。 - 【Django】錯誤提示:
TypeError: __init__() missing 1 required positional argument: 'on_delete'
解決措施:
屬于外鍵的使用問題,需要外鍵中添加on_delete屬性喉镰。
- 【heroku】錯誤提示:
push到heroku失敼哉蟆:[remote rejected] master -> master (pre-receive hook declined)
解決措施:
根據(jù)錯誤提示信息:
修改對應配置:
- 【scrapy】錯誤提示:
```通過pycharm或者pip安裝的scrapy宣赔,在創(chuàng)建scrapy項目時總提示“scrapy不是內部或者外部命令”预麸。````
解決措施:
首先通過pip uninstall scrapy 將已安裝的卸載瞪浸,然后從網(wǎng)上下載scrapy.whl文件,手動安裝吏祸,問題解決对蒲。 - 【scrapy】錯誤提示:
爬蟲出現(xiàn)Forbidden by robots.txt,無法正常運行parse方法
解決措施:
在settings.py中將ROBOTSTXT_OBEY 修改為False贡翘。
關于ROBOTSTXT_OBEY :
在scrapy中創(chuàng)建項目以后蹈矮,在settings文件中有這樣的一條默認開啟的語句:
ROBOTSTXT_OBEY = True
觀察代碼可以發(fā)現(xiàn),默認為True鸣驱,就是要遵守robots.txt 的規(guī)則泛鸟,那么 robots.txt 是個什么東西呢?
通俗來說踊东, robots.txt 是遵循 Robot協(xié)議 的一個文件北滥,它保存在網(wǎng)站的服務器中,它的作用是闸翅,告訴搜索引擎爬蟲再芋,本網(wǎng)站哪些目錄下的網(wǎng)頁不希望你進行爬取收錄。在Scrapy啟動后坚冀,會在第一時間訪問網(wǎng)站的 robots.txt 文件济赎,然后決定該網(wǎng)站的爬取范圍。
當然记某,我們并不是在做搜索引擎司训,而且在某些情況下我們想要獲取的內容恰恰是被 robots.txt 所禁止訪問的。所以液南,某些時候壳猜,我們就要將此配置項設置為 False
未完待續(xù)... ...