前言
短時間內就發生兩次,真不知道該說些什麼…但找到原因後發現跟自己有很大的關係。
正文
老規矩,有問題,看log。這次比較特別的是,scrapyd有起來,
scrapydweb沒起來。
sudo docker logs --since 2020-06-11 --until 2020-06-12 scrapydweb
看了一下說沒有伺服器可連線(Fig.1)!?
(Fig.1)
想說container有起來怎麼可能連不到,
用本機電腦開啟scrapyd的網頁,真的不行,找不到伺服器!!
先來檢查scrapyd的container 服務
後來發現一個地方有問題,default_scrapyd.conf內的bind_address應該要改成0.0.0.0(Fig.2)
但說真的 Alpine Linux 我真的不知道他檔案會塞在哪。
乖乖用搜尋找檔案吧
find * -iname “scrapyd”
(Fig.2)
scrapydweb能啟動了,
但是,排程確無法執行,跳出錯誤訊息,請確認你的scrapyd是活著的(Fig.3)??
跑去試了一下,用網頁真的還是連不上去scrapyd
(Fig.3)
直到最後,發現只要是ubuntu上面的服務,通通不能連。
於是我就想起了,前幾天在測DNS的時候,有連去ubuntu的機器測了一些東西。
那…再用老規矩試試好了
有問題,先重開再說。
好了…結案。
這個故事告訴我們,沒事不要在正式跑服務的機器上亂玩東西QQ
ref.
I can't access scrapyd port 6800 from browser
雲伺服器部署scrapyd爬蟲
0 意見:
張貼留言