您好,登錄后才能下訂單哦!
bind_address = 0.0.0.0
,然后重啟 Scrapyd service。pip install scrapydweb
scrapydweb
啟動 ScrapydWeb(首次啟動將自動在當(dāng)前工作目錄生成配置文件)。ENABLE_AUTH = True
USERNAME = 'username'
PASSWORD = 'password'
SCRAPYD_SERVERS = [
'127.0.0.1',
# 'username:password@localhost:6801#group',
('username', 'password', 'localhost', '6801', 'group'),
]
scrapydweb
重啟 ScrapydWeb。通過瀏覽器訪問并登錄 http://127.0.0.1:5000。
SCRAPY_PROJECTS_DIR
指定 Scrapy 項(xiàng)目開發(fā)目錄,ScrapydWeb 將自動列出該路徑下的所有項(xiàng)目,默認(rèn)選定最新編輯的項(xiàng)目,選擇項(xiàng)目后即可自動打包和部署指定項(xiàng)目。SCRAPYD_LOGS_DIR
和 ENABLE_LOGPARSER
,則啟動 ScrapydWeb 時將自動運(yùn)行 LogParser,該子進(jìn)程通過定時增量式解析指定目錄下的 Scrapy 日志文件以加快 Stats 頁面的生成,避免因請求原始日志文件而占用大量內(nèi)存和網(wǎng)絡(luò)資源。通過輪詢子進(jìn)程在后臺定時模擬訪問 Stats 頁面,ScrapydWeb 將在滿足特定觸發(fā)器時根據(jù)設(shè)定自動停止爬蟲任務(wù)并發(fā)送通知郵件,郵件正文包含當(dāng)前爬蟲任務(wù)的統(tǒng)計(jì)信息。
SMTP_SERVER = 'smtp.qq.com'
SMTP_PORT = 465
SMTP_OVER_SSL = True
SMTP_CONNECTION_TIMEOUT = 10
EMAIL_USERNAME = '' # defaults to FROM_ADDR
EMAIL_PASSWORD = 'password'
FROM_ADDR = 'username@qq.com'
TO_ADDRS = [FROM_ADDR]
2. 設(shè)置郵件工作時間和基本觸發(fā)器,以下示例代表:每隔1小時或當(dāng)某一任務(wù)完成時,并且當(dāng)前時間是工作日的9點(diǎn),12點(diǎn)和17點(diǎn),*ScrapydWeb* 將會發(fā)送通知郵件。
```python
EMAIL_WORKING_DAYS = [1, 2, 3, 4, 5]
EMAIL_WORKING_HOURS = [9, 12, 17]
ON_JOB_RUNNING_INTERVAL = 3600
ON_JOB_FINISHED = True
LOG_CRITICAL_THRESHOLD = 3
LOG_CRITICAL_TRIGGER_STOP = True
LOG_CRITICAL_TRIGGER_FORCESTOP = False
# ...
LOG_IGNORE_TRIGGER_FORCESTOP = False
以上示例代表:當(dāng)日志中出現(xiàn)3條或以上的 critical 級別的 log 時,ScrapydWeb 將自動停止當(dāng)前任務(wù),如果當(dāng)前時間在郵件工作時間內(nèi),則同時發(fā)送通知郵件。
my8100/scrapydweb
免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進(jìn)行舉報,并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。