手把手教你開始用GCP機器學習服務

google-cloud-platform-empowers-tensorflow-and-machine-learning

Cloud Machine Learning (beta)是 Google Cloud Platform 對於深度學習提供的管理服務。它可以讓您建立作用於任何大小、任何資料的學習模型,並藉由TensorFlow框架打造您的服務。您立即可以將訓練模型放置於全球的prediction平台,能支持成千上萬的使用者與TB等級的資料。除此之外,此項服務同時整合了Cloud Dataflow, Cloud Storage 甚至 BigQuery。現在我們就來使用看看如何簡單的進行手把手Cloud Machine Learning:

  • 部署環境
  • 起始設定
  • 訓練資料
  • 建立模型
  • 實施預測與檢驗成果

繼續閱讀 “手把手教你開始用GCP機器學習服務"

GCP上建置 firewall 防火牆

程式寫好部署完畢、執行環境準備完成、資料庫就緒,服務準備上線了!

等等!在 Google Cloud 上開放服務之前,你有沒有確認過服務是不是能夠被正常存取呢?是不是有內部使用的服務能被外人存取呢?在這裡我們帶你看看 GCE firewall ,讓您瞭解透過使用 GCE firewall 能夠為您的服務做到何種程度的存取控制,在維持可以正常提供服務的同時減少讓人有機可乘之處。

繼續閱讀 “GCP上建置 firewall 防火牆"

設定與測試 Instance Group Autoscaler

上一篇文章我們介紹了 HTTP(S) load balancing 各個元件的功能、建立方式以及整體的使用情境,但我們當時只用了兩個 instance 處理服務,以流量穩定的服務來說這也許足以應付多數狀況。但如果你的服務流量會隨著時間或突發事件而會有極大變化時,你要如何決定你的 instance 數量?以最低流量來決定,那在流量上升時服務無法在短時間內消化這麼多流量、甚至無法正常提供服務,使用者等待時間變長甚至無法使用,體驗下降後導致使用者離開是服務經營者所不樂見的。若以最高流量來決定,那在流量低下時又會有大量資源閒置,對自己的財務支出似乎又過不去。幸好今天我們使用的是 Google Cloud Platform , GCP 的 managed instance group 提供了 autoscaler 的功能,能夠讓你指定 autoscaler 要以何種數據作為依據,判斷是否需要增減 managed instance group 中 instance 的數量,如此我們便能以適量的資源應對當下的流量,同時也減少了財務上過度的支出。

繼續閱讀 “設定與測試 Instance Group Autoscaler"

如何設定 GCP HTTP(S) 負載平衡器

當你的服務開始上線、並逐漸成長茁壯的時候,除了要持續提供有趣的功能給使用者,同一時間也別忘了要提升服務的品質與穩定性,使用者會受到新的功能吸引而使用你的服務,但也會因為服務不穩定無法體驗你做出來的功能而離你而去,所以在這邊我們為您介紹 GCP HTTP(S) load balancing 。透過它,你可以以多台 HTTP server 作為後端提供服務,它會幫你檢查這些 server 是否是正常運作,並將收到的 HTTP request 送交給正常且仍有餘裕的 server 進行處理,藉此增加服務的可用性。

環境設定

各位可以參考 Google Cloud SDK 之中的說明安裝 Cloud SDK 以便跟著我們一起動手做,本文中的示範使用的 Cloud SDK 版本為 130.0.0

繼續閱讀 “如何設定 GCP HTTP(S) 負載平衡器"