人在夢中難覺……夢醒……方知味……
今天上班就發現這個情況,istio的服務無法訪問,但同一個叢集的另一個istio pod卻正常。
雖然每次將istio 整個砍掉後再重裝就能正常,
但不可能每次都砍阿。😱
如果刪除GKE的節點,重建新的話,必須要把istio移除,才能夠使用 遷移工作負載到不同node。
但如果已經將istio的ip ,綁上固定的domain,一旦移除就必須要重新綁定。
所以才有這篇文章的產生,一切都是懶!!!
又在搞新的東西了,這次要把騰訊雲(TKE)跟Google雲(GCP),做VPN對連,
這次一樣又弄了幾天…最後還是找了GOOGLE工程師協助。
主要卡在IKEAv1的設定以及路由的追蹤上面,
有東西,google上找到的,跟工程師跟我說的不一樣。
像是 IKE配置的協商模式
最近寫yaml,有時常會忘記這個的功能是什麼,就記一下吧。
看來我真的快變成yaml工程師了。
從istio扯到kiali,是說kiali是真的好用,看流量、錯誤都很快,
不虧是專門弄出來給istio用的阿。
但有些警告,要解就要照他的規範走
所以要做到 把映象檔丟去騰訊雲,然後部署的時候可以去抓到映象檔。
(因為他不接受Google Container Respority)
有時候我們會針對機器做白名單,通常IP給別人訪問,跟你去訪問別人的都是同一個。
但GCP『不是』,別人訪問,跟你去訪問別人是兩個不同的IP,
想想這樣也對,不然IP哪可能那麼多。
但我看之前別人設定的ip,常常搞不懂,為什麼對外ip是這個,最後才終於瞭解...
某個案子,要整個翻掉重做,這次要讓VM的機器跟GKE的pod能夠同時存取一個儲存空間, 預計使用Google Cloud Storage,踩了一個早上的坑。
k8s還沒摸很熟,新的東西就過來了。 這次是server mesh架構,另外,本篇使用的是istioctl 的方式安裝,如果要用helm的方式安裝,
請參考其他文件。