Pages - Menu

2020年6月12日 星期五

[DOCKER]SCRAPYD容器搶救大作戰

前言

短時間內就發生兩次,真不知道該說些什麼…
但找到原因後發現跟自己有很大的關係。



正文

老規矩,有問題,看log
這次比較特別的是,scrapyd有起來,
scrapydweb沒起來。

sudo docker logs --since 2020-06-11 --until 2020-06-12  scrapydweb

看了一下說沒有伺服器可連線(Fig.1)!?


(Fig.1)

想說container有起來怎麼可能連不到,
用本機電腦開啟scrapyd的網頁,真的不行,找不到伺服器!!
先來檢查scrapyd的container 服務
後來發現一個地方有問題,default_scrapyd.conf內的bind_address應該要改成0.0.0.0(Fig.2)
但說真的 Alpine Linux 我真的不知道他檔案會塞在哪。
乖乖用搜尋找檔案吧

find * -iname “scrapyd”


(Fig.2)

scrapydweb能啟動了,
但是,排程確無法執行,跳出錯誤訊息,請確認你的scrapyd是活著的(Fig.3)??
跑去試了一下,用網頁真的還是連不上去scrapyd

(Fig.3)

直到最後,發現只要是ubuntu上面的服務,通通不能連。
於是我就想起了,前幾天在測DNS的時候,有連去ubuntu的機器測了一些東西。
那…再用老規矩試試好了
有問題,先重開再說。
好了…結案。
這個故事告訴我們,沒事不要在正式跑服務的機器上亂玩東西QQ

ref.
I can't access scrapyd port 6800 from browser
雲伺服器部署scrapyd爬蟲

沒有留言:

張貼留言