UZABASE Tech Blog

〜迷ったら挑戦する道を選ぶ〜 株式会社ユーザベースの技術チームブログです。

hbstudy#82 の「SRE大全:ユーザベース編」で話をしてきました。

こんにちは。ユーザベースのSPEEDAで、SREチーム内のソフトウェアエンジニアをしている @tkitsunai です。

f:id:kitslog:20180319164521j:plain

3月15日(木)に、株式会社ハートビーツ様が主催している「hbstudy#82」で、「SRE大全:ユーザベース編」というお題目の下に、弊社のSREチームの4人で様々なSREの取り組みについて発表してきました。

SRE大全というお題目は、日本企業でのSREチームを立ち上げたとして界隈で有名なメルカリさんも発表しており、前回はクックパッドさんの発表でした。 今回、日本企業のTech Companyとしても有名な方たちと肩を並べることができ、知名度がまだまだ低いユーザベースのSREチームにとっては身に余る光栄でした。

我々が今回SREチームとして発表してきた内容は以下となります。

  • 「UZABASEのSREについて」 羽山 雄偉
  • 「ソフトウェアエンジニアリングによるToil削減」 橘内 孝幸 ( @tkitsunai )
  • 「FullGCとの闘い」 久保 裕史 ( @hirofumikubo )
  • 「On-premise Kubernetes on Rancher」金屋 泰士

発表資料は1つだと長いので小分けにしています。

「UZABASEのSREについて」 羽山 雄偉

「ソフトウェアエンジニアリングによるToil削減」 橘内 孝幸 ( @tkitsunai )

「FullGCとの闘い」 久保 裕史 ( @hirofumikubo )

「On-premise Kubernetes on Rancher」金屋 泰士

会場の方から質問も頂きまして、

  • 「他のSRE大全では、10数名でもきついという話を聞いたが、10名で回すのはどうか。」
  • 「トイルの計測について、差し込みの割合について定義はあるか?また、計測の精度はどうか。」
  • 「K8SをPrometheusで監視しているということだが、Rancherの監視はどうしているか。」
  • 「Prometheus自体の監視は?」

などなど、10名での運用体制についてや後半ではRancher成分が多めな印象でした。

YoutubeLiveでの配信もあり、hbstudyさんのチャンネルにも公開されていますので、そちらから会場の様子などを含めた全編を閲覧することができます。

www.youtube.com

インフラエンジニア勉強会 hbstudy - YouTube

(余談)

私のパートでは、めちゃくちゃ緊張してしまって声が震えるし真っ白になるしで、軽くトラウマレベルでした。 スピーカ慣れしてる人たち、本当に尊敬します。精進あるのみ。。。

仲間募集中!

ユーザベースのSPEEDA SREチームは、No Challenge, No SRE, No SPEEDA を掲げて業務に取り組んでいます。 「挑戦しなければ、SREではないし、SREがなければ、SPEEDAもない」という意識で、日々ユーザベースのMissionである、「経済情報で、世界をかえる」の実現に向けて邁進しています。

少しでも興味を持ってくださった方はこちらまで!

SRE Loungeについて

昨日の記事のSRE Loungeについてもどんどん他社様を巻き込んでおり、コミュニティの活性化を進めています。 是非、うちのSREはこんなことやってるよーと共有して頂ける企業様が居ましたら sre@uzabase.com 宛にご一報下さい。

Chatwork、CrowdWorks、スタディスト、ユーザベースでSRE Lounge #2 を開催しました

こんにちは、ユーザベース SREチームでインターンをしております杉田です。 1/17(水)に始動したSRE Loungeの第二弾として、3/13(火)にSRE Lounge #2を開催しましたので、 今日はその模様を投稿します。

そもそも「SREとは?」といったことや、SRE Lounge開催の背景については、 SRE Lounge #1の記事に詳しく書きましたので、 ぜひご覧下さい。

今回も前回と同様に、

  • SRE取り組み事例の共有(情報交換・発信)
  • SREについて議論し、知見を深める

といったことを目的として開催しました。

開催日時

3/13(火) 19:00〜

開催場所

今回はChatWork様の東京オフィスをお借りして開催しました。 スクリーン付きのシアタールームがあったり、文字通り間近に東京タワーを眺めることが出来たりと、 とても素敵なオフィスでした。

f:id:ksksgtt:20180314193353j:plain
ChatWork様のオフィス

f:id:ksksgtt:20180314193926j:plainf:id:ksksgtt:20180314193959j:plain
会場の様子

参加企業

コンテンツ概要

  1. 各社の取り組み事例等の発表と質疑応答(各社20分程度)
  2. 発表を踏まえた座談会(30分程度)

ピザやChatWork様が提供して下さった飲み物で軽食をとりつつ行いました。

各社の取り組み事例等の発表と質疑応答

各社の発表内容を発表資料と共に以下にまとめます。

ChatWork様

マイクロサービスアーキテクチャを積極的に取り入れ、Kubernetes環境を運用しているとのことでした。 現在は新しいシステムはKubernetesで稼働させ、既存システムについてもKubernetesへ絶賛移行中とのことです。 また、サービスメッシュ(Envoy/Istio/Linkerd...)の採用検討もされており、非常に勉強になりました。 個人的には、技術負債(レガシー)をマイナスに捉えるのではなく、今までビジネスを支えてきた「レジェンド」なアプリケーションという風に敬意を持って呼ぶという点が心に刺さりました。

当日発表資料:microservicesとSRE (第2回 SRE Lounge)

www.slideshare.net



CrowdWorks様

Monitoringに対する取り組みとして、DatadogやAWS CloudWatch、その他周辺ツールの活用をしつつ、 さらにDatadogに連携するツールcyqldogを開発しているとのことでした。 また、Infrastructure as Codeの取り組みとして、ChefやTerraformを採用しつつ、 Terraformで作成したサーバーと、秘伝のタレ化したサーバーの差分を検出してくれるajimiを使って、コード化をスムーズにしているそうです。 OSSを活用するだけでなく、独自のソフトウェアを積極的に開発しOSS化している点は、弊社も見習いたいところです。

当日発表資料:SRE at CrowdWorks



スタディスト様

Monitoringでは、Fluentd・ElasticSearch・Kibanaの組み合わせやstackdriver・newrelicを、Infrastructure as CodeではAnsible・Serverspecを活用されているとのことでした。 さらに、組織的な取り組みとして、はてな様でも実施されているPerformance Working Groupという取り組みを行い、 SRE以外のチームメンバと計測数値や情報を共有し、議論する場を定期的に設けているとのことでした。 パフォーマンスを上げるためにSREだけで全ての範囲をカバーすることは難しく、SRE以外の開発メンバーの協力を必要とする機会は多々ありますので、こういった場を設けることは非常に大事なことだと思いました。

当日発表資料:デブサミ2018 で伝えきれなかった 快適なマニュアル作成共有を支えるSite Reliability Engineering



ユーザベース

ユーザベースの発表は今回で2回目なので、焦点を絞って日々発生するデータエラーについてどんな取り組みをしているか紹介しました。弊社が提供しているSPEEDAのプロダクトの要はデータです。一言にデータと言っても多種多様なデータの種類・形式を取り扱うため、データの抜け漏れやデータ同士の競合など考慮すべき点は多くあります。これをエラーが発生してから対応するのではなく、SREとしてvalidationを高度化し、先手を打つための仕組み作りについて発表しました。

当日発表資料:SRE Lounge#2 UZABASE



まとめ

形式は前回と同様ですが、発表後の懇親会の中で、各参加企業の

  • 異なる規模やSREとしての体制・内部事情
  • SREとして取り入れているノウハウ
  • 目指そうとしているSREのあり方

といったことをざっくばらんに共有し、議論する場を設けたことで、知識はもちろんお互いの交流を深めることが出来、非常に密度の濃い勉強会となりました。

SRE Loungeは、今後も継続して開催する予定ですので、もし興味を持ってくださり、参加を希望される企業の方はこちらまでご連絡ください。

f:id:ksksgtt:20180314180656j:plain
集合写真

f:id:ksksgtt:20180314180740j:plain
今回参加したユーザベース SREチームメンバー

仲間募集!!

ユーザベースのSPEEDA SREチームは、No Challenge, No SRE, No SPEEDA を掲げて業務に取り組んでいます。
「挑戦しなければ、SREではないし、SREがなければ、SPEEDAもない」という意識で、日々ユーザベースのMissionである、「経済情報で、世界をかえる」の実現に向けて邁進しています。

少しでも興味を持ってくださった方はこちらまで

【k8s合宿】 Kubernetesのメトリクスを取得する 〜PrometheusにGrafanaを添えて〜

こんにちは、SPEEDAのSREチームの阿南です。前回から少し時間が経ってしまいましたが、今回はKubernetesのメトリクス取得についてです。本番環境でkubernetesを運用する際、ポッドがどの程度リソースを消費しているのか、クラスター自体のリソースは大丈夫かなど常に把握しておく必要があります。ただ、Kubernetesってどう監視すればいいのって疑問ありますよね。PrometheusとかGrafanaとかよく出てきて概要は理解できるんだけど、実際どう構築すればいいの、とお悩みの方に役立つ記事にしたいと思います。ちなみに弊社ではRancher上にKubernetes環境を本番で利用していますが、大枠は今回紹介するような構成で運用しています。

構築する環境

f:id:tanan55:20180301095238p:plain

利用する環境はGKEです。まずKubernetesクラスターの中にPrometheusを構築し、メトリクスを取得します。さらに、クラスター外部にfederation用のPrometheusを構築し、Grafanaでメトリクスを可視化します。概要をざっくりと箇条書きすると、下記のようになります。

【クラスター内部(図の左側)】

  • KubernetesクラスターにPrometheus ポッドを稼働させる

  • Prometheus ポッドでクラスター内のメトリクスを取得する

  • NodeExporter ポッドをDaemonSetで稼働させ、Node(GCEインスタンス)のメトリクスを取得

  • Prometheus ポッドで取得したデータについては保持期間を1日とする

【 クラスター外部(図の右側)】

  • federationを使ってクラスター外部のPrometheusから値を取得

  • Grafanaでメトリクスを可視化

本記事では、まずKubernetesクラスターの中にprometheus ポッドを稼働させて値を取得するところまで紹介し、federationやGrafanaでの可視化周りは次回記事で紹介したいと思います。

構築手順

前回同様手順は別途まとめていますのでこちらをご参照ください。

Kubernetesの認証方式について

GKEのKubernetesバージョン1.8からはRBACがデフォルトで適用されているため、Prometheusで監視をする際に監視に必要な権限を与えてあげる必要があります。 さて構築する際のポイントですが、まずは自分自身のアカウント(kubectlを実行するユーザ)にcluster-adminを付与します。

$ gcloud info | grep Account
$ kubectl create clusterrolebinding anan-cluster-admin-binding --clusterrole=cluster-admin --user=sample-owner@sample-project.iam.gserviceaccount.com

cluster-adminを設定する理由は、kubectlを実行するユーザの権限より強い権限をroleとして設定することはできないためです。 ちなみにbindingには、clusterrolebindingrolebindingの2つがあり、それぞれ適用範囲をクラスター全体にするか、細かく設定するかを選択できるようになっています。この辺りの設計は利用するサービスや会社によって最適な設定が異なると思いますので、ぜひ事例があれば聞いてみたいですね。 次にPrometheus用にサービスアカウントを作成します。

$ kubectl create serviceaccount prometheus --namespace monitoring

このサービスアカウントに対して、参照権限を付与します。ここで、resourcespods, services, deploymentなどのリソースを表し、verbs がそのリソースに対する操作を表します。Prometheusは全てのリソースに対して参照権限を与えたいので、resources* とし、verbsget, watch, list の動作を許可します。nonResourceURLsはエンドポイントの権限設定なので、細かく設定する際は/api等のエンドポイントを指定します。今回はnonResourceURLs*、verbsをgetとしてエンドポイントに対してGETリクエストを許可します。これでread_onlyな形で権限を作成することができました。 Prometheusの監視について、secrets等は閲覧権限不要のため内容を修正しました。ご指摘いただいた方ありがとうございます!

gist.github.com

GKEの場合1.7まではデフォルトのサービスアカウントで全てのリソース、操作が許可されていました。Kubernetes v1.8からRBACがstableになっているのでGKE側でもこの辺りの変更が入っているようです。まだPrometheusにはたどり着いておりません。序盤からハマリどころ満載で、楽しくなってきました。

ConfigMap設定

ConfigMapにPrometheusのconfigファイルを設定します。最初のglobal設定で、メトリクスの取得間隔を指定しています。ポイントとして、 kubernetes_sd_configs を利用してメトリクスの取得先をdiscoveryできるようにしています。このservice discoveryの設定を利用することにより、サーバが追加になったりした際にも自動的にそれを検知しメトリクスを取得できるようになります。Prometheusの強力な機能ですね。

gist.github.com

kubernetes_sd_configsの中身については正直いきなり理解するのは難しいと思いますので、とりあえず細かい説明は置いて次に進みます。

Deployment設定

PrometheusのDeploymentの設定ですが、ここで最初に作成しておいたサービスアカウントが登場します。下記16行目にserviceAccountName: prometheusの記載があります。これを指定することで、全てのリソースに対する参照all-readerができるようにしています。ちなみに、サービスアカウントを作成するとsecretにca.crt、tokenというデータが作成されます。このsecretはポッドが起動した際に、自動的に/var/run/secrets/kubernetes.io/serviceaccount の配下にマウントされます。これをPrometheusのconfigに指定することでAPI Serverの認証をパスできるようにしています。先ほどのConfigMapの設定でca_filebearer_token_fileによくわからないパスが出てきましたがシークレットがマウントされていたんですね。この辺りの仕様は公式ドキュメントに記載がありますので見てみるといいと思います。Deploymentにサービスアカウントを指定しなかった場合、defaultのサービスアカウントが適用されますので、認証が通らずメトリクスの収集ができなくなります。だからと言って権限を全解放すると色々な事故が起こる可能性がありますし、後からこの認証を入れていくのはかなりしんどいと思います。最初から正しく仕事をする。頑張りましょう。

gist.github.com

Service設定とポート解放

Prometheusのサービスを公開します。今回はNodePortモードでノードの30001番ポートを解放しています。つまり、http://<Prometheus 稼働中 Node IP>:30001 にアクセスするとPrometheus ポッドの9090番ポートに接続されるので、Prometheusにアクセスするためには30001番のポートをGCPのネットワーク設定で解放しておく必要があります。GCPの管理コンソールのVPC ネットワーク > ファイアウォールルールからポートを解放してください。ちなみに、本記事では手間を省くためにNodePortモードを利用しておりますが、Production環境等ではInternalのLoadBalancerを利用した方がノードに依存することがなくなるため運用しやすいと思います。

最後に、Prometheusにアクセスしてみて下記のようにサービスディスカバリができていれば完了です! f:id:tanan55:20180305183938p:plain 結構難しいですよね。。。弊社の本番環境でもPrometheusを利用していますが、正直全てのメトリクスを把握できないほどの種類を取得しています。それだけ細かく取得できているのは素晴らしいのですが、どうやって可視化するのか迷いますよね。次回はそんな方にオススメのGrafana周りを紹介しますのでご興味のある方は楽しみにしていてください。

お知らせ

SREチームでは「No Challenge, No SRE, No SPEEDA」を掲げ、ユーザベースグループのミッションである「経済情報で、世界をかえる」の実現に向けて、日々業務に取り組んでいます。 興味を持ってくださった方はこちらをご確認ください。

また、2018/03/15(木)にハートビーツ社主催で「SRE大全:ユーザベース編」 が開催されます。Youtube Liveでも配信されますのでご興味ある方はぜひご覧ください。