アンガーマネジメント入門
- 作者: 安藤俊介
- 出版社/メーカー: 朝日新聞出版
- 発売日: 2016/09/07
- メディア: 文庫
- この商品を含むブログ (1件) を見る
たまにアンガーマネジメントという言葉は聞くけれど、そういえば読んだことがなかったと思って読んでみました。参考になる点もあり、読んでよかったと思います。なぜ怒るのか、どうすれば怒りをコントロールできるようになるかについて書かれています。薄くてすぐ読めると思うので、興味がある方は読んでみてもよいかなと考えます。
本書の構成としてはまずは怒りがどのようにして生まれるのか定義し、その定義に沿ってどのようにすれば怒りをコントロールできるようになるのか具体的な方法を示しています。怒りは出来事そのものによって発生するのではなく、その起きた出来事に対して意味づけを行う際に自分が許せないものであると判断すれば怒りが発生すると定義しています。そして出来事に対して意味付けを行う価値判断を基準をコアビリーフと呼び、このコアビリーフを修正する方法を具体的に示しながら怒りをコントロールする方法について説明していきます。
20代後半に自分なりに怒りについて考察したことがあり、概ね同じような考え方に至って実践していたのでので、あまり発見はありませんでした。ただ、ここまで具体的に言語化してはいなかったので、そういう意味ではよい本だと思います。そして、ある程度実践できていると思うんですが、子育ての中ではどうしても感情を押さえられないことがあるので、ほんと子育ては難しいなーと思いました(^_^;)
ML Study Jams : Machine Learning トレーニングプログラムをやってみた
ML Study Jams : Machine Learning トレーニングプログラム - Homeをやってみました。初心者向けと中級者向けの合計12ラボです。
- ML Study Jams : Machine Learning 初心者向けトレーニングプログラム - Home
- Predict Visitor Purchases with a Classification Model in BQML | Qwiklabs
- Predict Taxi Fare with a BigQuery ML Forecasting Model | Qwiklabs
- Google Cloud Speech API: Qwik Start | Qwiklabs
- Cloud Natural Language API: Qwik Start | Qwiklabs
- Speech to Text Transcription with the Cloud Speech API | Qwiklabs
- Entity and Sentiment Analysis with the Natural Language API | Qwiklabs
- ML Study Jams : Machine Learning 中級者向けトレーニングプログラム - Home
- Classify Images of Clouds in the Cloud with AutoML Vision | Qwiklabs
- Detect Labels, Faces, and Landmarks in Images with the Cloud Vision API | Qwiklabs
- Integrating Machine Learning APIs | Qwiklabs
- Classify Text into Categories with the Natural Language API | Qwiklabs
- Awwvision: Cloud Vision API from a Kubernetes Cluster | Qwiklabs
- Real Time Machine Learning with Google Cloud ML | Qwiklabs
AWSは普段利用していますが、GCPはまったく触ったことがなかったのでとても参考になりました。無料でQwiklabsのクーポンコードを配ってくれたGoogleに感謝ですm(_ _)m
トレーニングプログラムで学べたこと
全12ラボを通じて経験できることは以下になります。もちろんそれぞれ触りだけですが、ついでにドキュメントを読んだりすることで雰囲気はそこそこつかめたと思います。あと機械学習というよりは機械学習関連サービスのハンズオンでした。
- 初心者向けコースまで
- 中級者向けコース以降
- Cloud AutoML API
- IAM
- Cloud Storage
- Cloud Vision API
- Service Account
- Cloud Translation API
- Kubernetes
- Cloud Pub/Sub
- Compute Engine
- Cloud Machine Learning Engine
- Cloud Dataflow
Qwiklabsの進め方
一通りやってみて、Qwiklabsの進め方について気がついたことをメモしておきます。
まずは一通りラボの内容を読んでから開始する
ラボの先頭に記載されている通り、まずは一通りラボの内容を読んでから開始したほうがよいです。ラボで利用可能なGCPの利用時間は上限があるので、読みながらやると結構時間ギリギリか、場合によっては足りなくなると思います。実際、私は最初のラボを開始してからこのアドバイスを読んだので、最初のラボは時間ギリギリでした。。そのため、2つ目のラボからは最初に一通り読んで内容を把握した上で開始するようにしました。そのおかげで、実際にGCP上で操作した際の不明点を確認する際も時間に余裕があってよかったです。
GCPコンソールをシークレットウィンドウで開く
Qwiklabsはメインのウィンドウで開くようにして、GCPコンソールをシークレットウィンドウで開くようにした方がよいと考えます。最初にQwiklabsをシークレットウィンドウで開いた状態でGCPコンソールも開いたら、シークレットウィンドウ上にGoogleアカウントが2つログインした状態になってめんどうな感じになりました。そのため、以降はGCPコンソールのみシークレットウィンドウで開くようしました。手順としてはラボで[Open Google Console]で開いたタブのURLをシークレットウィンドウに貼ってログインするようにしていました。
ラボは単体で完結する構成になっている
当たり前なんですが、ラボは単体で完結する構成になっています。そのため、前半の諸注意やGCPアカウント有効化手順などは概ね同じ内容になっています。なので特に初心者向けのラボだと慣れてくると前半は読み飛ばして差分だけサクッと試すみたいな感じになります。
ラボの内容が一部古いことがある
これは仕方ないことなんですが、ラボによっては記述内容と実際に試したGCP側の状況が一致しないケースがありました。GCPサービスの更新にラボの更新が追いついていなかったようです。なので、一致していないケースは更新が追いついていないんだろうなと思って読み飛ばすとよいとかと考えます。とはいえ数箇所でしたし、私がトレーニングプログラムをやっている10日間の間にも(偶然かもしれませんが)修正されていたので、更新頻度は高いのかもしれません。
ラボはクエストという単位でまとめられている
Qwiklabsはクエスト - Qwiklabs ヘルプという単位で複数のラボを1つのまとまりにしています。そしてあるクエストのラボをすべて終了するとバッジがもらえるらしいです。なお、今回の12ラボをすべて終了してもバッチはもらえませんでした。
初心者向けコースのメモ
初心者向けコースは全体的に簡単でした。合計で4時間近くかかりましたが、メモを取りながら気になる点などを調べての時間なので単にハンズオンを試すだけなら3時間もかからないと思います。
- Predict Visitor Purchases with a Classification Model in BQML | Qwiklabs
- roc_auc of 0.91 は高すぎる気が。action_type 入れてるから、これ leakage になってるんじゃw
- Results が飛躍している気が。。もうちょっと丁寧に解説してほしかった。
- Predict Taxi Fare with a BigQuery ML Forecasting Model | Qwiklabs
- 2019-04-29にやって気になる点があったが、2019-05-01にアップデートされていて、気になっていた点が修正されていたw
- Google Cloud Speech API: Qwik Start | Qwiklabs
- Cloud Shellすごい便利!
- Cloud Natural Language API: Qwik Start | Qwiklabs
- Speech to Text Transcription with the Cloud Speech API | Qwiklabs
- Entity and Sentiment Analysis with the Natural Language API | Qwiklabs
- Cloud Natural Language API で紹介しなかった他のAPIについても紹介していた。それぞれのAPIの解説が結構わかりやすかった。また、こちらでは
gcloud
コマンドではなくcrul
コマンドでREST APIを利用していた。 - dependency parse treeも含めて各種APIのデモはCloud Natural Language | Cloud Natural Language API | Google Cloudで試せるのが便利だった。
- Cloud Natural Language API で紹介しなかった他のAPIについても紹介していた。それぞれのAPIの解説が結構わかりやすかった。また、こちらでは
中級者向けコースのメモ
中級者向けコースはさすがに中級者向けだけあって、ソースファイルを読み込んだりしてそれなりに時間がかかりました。合計で6.5時間かかりました。あと、中級者向けコースは公式サイトに記載されている順番通りだとちょっと難しそうだったので、以下に記載した順序でやりました。
Classify Images of Clouds in the Cloud with AutoML Vision
- https://www.qwiklabs.com/focuses/1779?parent=catalog
- AutoML Visionはアップロードした画像に合わせて学習するとのこと。転移学習ベースなんだろうけど、柔軟だなー。
- Cloud AutoML APIは個別に有効化が必要。しかも1分ぐらいかかった。
- 専用のUIページを持っていて、GCPとは別サービスになっていた。
- https://cloud.google.com/automl/ui/vision
- GCPに対するOAuthのクレデンシャルを要求してた。
- 専用のUIページを持っていて、GCPとは別サービスになっていた。
- Set up AutoML Vision
- add-iam-policy-binding でそれぞれ Role 追加してるけど、IAMの画面で確認した感じ最初から全部設定済みに見えたw
- Storage bucket も同じでやはり最初から存在してコマンドを実行しても already exists になった。
- おそらくCloud AutoMLの Set up Now ボタンで関連リソース作成しているのではないかと予想される。
- add-iam-policy-binding でそれぞれ Role 追加してるけど、IAMの画面で確認した感じ最初から全部設定済みに見えたw
- Create a dataset
- "Enable multi-label classification" unchecked
- マルチラベリングできるのなんかすごい。
- https://developers.google.com/machine-learning/glossary/#multi-class
- 用語集のリンク先はリンク文字列とはあってるけど、マルチラベルではなくマルチクラシフィケーション、要は多項分類なのでマルチラベリングの説明ではなかった。
- https://cloud.google.com/vision/automl/docs/prepare
- こっちに例が書いてある。最大20個まで設定できるとのこと。
- "Enable multi-label classification" unchecked
- Inspect images
- 少なくともそれぞれ 100 以上必要とのこと。この辺りの閾値を明示しているのはよいなー。
- Train your model
- すでにUIが変わっていたw
- Generate predictions
Detect Labels, Faces, and Landmarks in Images with the Cloud Vision API
- https://www.qwiklabs.com/focuses/1841?parent=catalog
- Cloud Vision API
- Upload an image to your bucket
- Label Detection
- request.json に LABEL_DETECTION に追加して WEB_DETECTION を指定したらまとめて結果を取得できた。
- mid は machine-generated identifier の略らしい。
- Explore other Vision API methods
- 一通りレスポンスをドキュメントベースで確認した。
- Logo detection
- Safe search detection
- Text detection
Integrating Machine Learning APIs
- https://www.qwiklabs.com/focuses/1726?parent=catalog
- Overview
- 以下のAPIについてPythonのサンプルコードをベースに実行するというもの。初級で一通りやっているはずで、Pythonのコードの雰囲気がわかる。
- Cloud Vision to understand the content of an image
- Cloud Speech-to-Text to transcribe audio to text
- Cloud Translation to translate an arbitrary string to any supported language
- Cloud Natural Language to extract information from text
- 後は、Pythonから実行するためIAMのクレデンシャルファイルを作成しているのは所見だった。
- 以下のAPIについてPythonのサンプルコードをベースに実行するというもの。初級で一通りやっているはずで、Pythonのコードの雰囲気がわかる。
- Service Account
- PythonスクリプトからAPIを実行するためService Accountを作成していた。
- https://cloud.google.com/iam/docs/service-accounts
- コンソール上で個別の権限を指定できない感じだった。そういうものなのかなー?
- https://cloud.google.com/sdk/gcloud/reference/iam/service-accounts/create
- 権限に関するオプションが見当たらない。。
- 少しだけドキュメントを読んでみたが、やはりIAM Roleという考え方は存在する。なので、ある程度最初から権限を付与された状態で作成されるってことかなー?
- 最初から他に3つService Accountが存在した。
- ドキュメントに明記されていた。
- まず以下のコマンドで新規にサービスアカウントを作成した。作成後にコンソール上でも追加されることを確認した。
gcloud iam service-accounts create ml-api-test
- 何度か作成して6文字以上とかアンダースコアは使えなくてハイフンしか使えないみたいなエラーメッセージを見た。
- 次に以下のコマンドでサービスアカウントに対するキー(クレデンシャルファイル)を作成した。
gcloud iam service-accounts keys create ml-api-test.json --iam-account ml-api-test@qwiklabs-gcp-XXXXX.iam.gserviceaccount.com
- 作成後はコンソール上でもキーが存在する状態になっていた。
- 最後に GOOGLE_APPLICATION_CREDENTIALS 環境変数にクレデンシャルファイルのパスを指定して利用できるようにした。
export GOOGLE_APPLICATION_CREDENTIALS=/home/googleXXXX_student/ml-api-test.json
- PythonスクリプトからAPIを実行するためService Accountを作成していた。
- Cloud Vision
- Cloud Speech-to-Text
- https://raw.githubusercontent.com/GoogleCloudPlatform/python-docs-samples/master/speech/cloud-client/transcribe.py
- とても短くて、修正箇所は入力ファイルに対してハードコードされている部分を今回用に修正するだけだった。
- https://raw.githubusercontent.com/GoogleCloudPlatform/python-docs-samples/master/speech/cloud-client/transcribe.py
- Cloud Translation
- Cloud Natural Language
- https://raw.githubusercontent.com/GoogleCloudPlatform/python-docs-samples/master/language/cloud-client/v1/snippets.py
- 普通に読めば内容を理解できる感じだった。修正箇所は解析対象のテキスト。デフォルトのまま試すとラボと同じ結果になる。
- https://raw.githubusercontent.com/GoogleCloudPlatform/python-docs-samples/master/language/cloud-client/v1/snippets.py
Classify Text into Categories with the Natural Language API
- https://www.qwiklabs.com/focuses/1749?parent=catalog
- 前半は簡単だけど、中級なだけに後半になるとBigQueryやPythonスクリプトも利用してちょっと高度な感じになっている。
- Confirm that the Cloud Natural Language API is enabled
- Classify a news article
- コンテンツカテゴリはアド用のカテゴリを流用してそうな気がするw
- Classifying a large text dataset
- Classifying news data and storing the result in BigQuery
- Pythonスクリプト用にService Accountを作成する。
- Integrating Machine Learning APIsと比べてRoleの追加処理があった。やはりRoleを追加するのは自然みたい。Natural Language APIは最初から使えるのかなー?
- BigQueryのテーブルに直接データをinsertしてるけど、BigQueryってそれ自体のデータ格納領域あったんだ。てっきりCloud Storage前提だと思ってた。
- https://cloud.google.com/bigquery/docs/locations?hl=ja
- Cloud Storageとかは外部データソースという扱いだった。
- BigQueryはエディタ上でクエリの妥当性チェックをしてくれるようになっていて、すごい気が利いている。
- 検索結果も先頭の1024byte以降は非表示にしてるとか改行のあるデータもきれいに表示してて、やはりこの辺りはGoogleすごいなーと思う。
- Pythonスクリプト用にService Accountを作成する。
- Cloud Shellも改めて調べてみたが、ほんとよく出来てると思う。これが無料かー。。
- https://cloud.google.com/shell/docs/features
- 複数セッションも当然開ける。
- 逆に単一のセッションを利用している場合、ブラウザ側でアクティブなウィンドウは1つになる。つまり、再接続できるってことだよなこれ。ほんとよく出来てる。
Awwvision: Cloud Vision API from a Kubernetes Cluster
- https://www.qwiklabs.com/focuses/1241?parent=catalog
- Kubernetesを利用するのはちょっとごつい感じだけど、手順自体は結構シンプルだった。
- Create a Kubernetes Engine cluster
- 3分ぐらいかかった。
- コマンド実行後、K8s EngineとCompute Engineのコンソールでも確認できた。
gcloud container clusters get-credentials awwvision
- クレデンシャル情報を取得して .kube/config に記録する。で、その情報を前提に次の kubectl コマンドが利用できる。実際 .kube/config をリネームしたら kubectl コマンドが利用できなかった。
- 3分ぐらいかかった。
- Get the Sample
- cloud-vision/python/awwvision at master · GoogleCloudPlatform/cloud-vision
- 一通りソースを読んでみた。概ね理解できた。
- メインとなる Makefile でそれぞれのサブディレクトリ配下の redis / webap / worker の Makefile をキックしていた。
- それぞれのサブディレクトリ内の構成も似ていて、spec.yaml が存在し、これでそれぞれのアプリケーションをK8s上にデプロイするようにしていた。
- webapp と worker はPythonのコードが存在しており、まず Dockerfile でDockerイメージをビルドして、GCRに push する構成になっていた。
- webapp と worker はCloud Pub/Subで連携する構成になっていて、webapp の start_crawler 関数で pubsub を経由して worker 側の scrape_reddit_task 関数を実行する構成にしていた。で、Redisを共有してクローリングしたデータを共有する構成になっていた。
- cloud-vision/python/awwvision at master · GoogleCloudPlatform/cloud-vision
- Deploy the sample
- 事前に確認していた通り、docker buildしてimageをContainer Registryにpushしていた。実際にコンソールでも確認できた。
- https://cloud.google.com/container-registry/docs/
- 要はAWSでいうECRだよね。
- 5分かからないぐらい?
- 完了後にK8sのWorkloadsで確認したら3つ登録されいた。Podsは合計5で、つまり2つの仮想マシン上に5つのDockerコンテナを起動してるってことだろうな。
- 事前に確認していた通り、docker buildしてimageをContainer Registryにpushしていた。実際にコンソールでも確認できた。
- Check the Kubernetes resources on the cluster
- ブラウザでアクセスしたらちゃんと表示できた。
- Pub/SubにTopicもできていたけど、メッセージはSubscriberを作成しないと見れない感じだった。
- ソースさえ読めば概ね把握できる。あとはK8sとCloud Pub/Subをどこまで深掘りするか次第って感じ。それぞれ別のラボをやってもいいかも。
Real Time Machine Learning with Google Cloud ML
- https://www.qwiklabs.com/focuses/3393?parent=catalog
- Overview
- 以下のクエストを前提としている感じで書いてあるが、実際にはこのラボ単体で試せるようになっている。
- Preparing your Environment
- Get started
- "Click the SSH link to the right of the single VM instance that is listed to connect to the console of the VM via SSH."
- "This TensorFlow model was trained using the techniques covered in the previous labs in the Data Science on Google Cloud Platform: Machine Learning quest"
- つまり、事前のラボでモデルの作成を経験できるっぽい。
- "The source data for this exercise was copied in to this location for you when the lab was launched."
- モデル自体はラボ側で準備してくれてるので事前のラボをやらなくても問題ない。
- ML EngineはAI Platformの中にあった。
- Configure Java components.
- https://github.com/GoogleCloudPlatform/data-science-on-gcp/tree/master/10_realtime/chapter10/src/main/java/com/google/cloud/training/flights
- 1パッケージだけど、ソースファイルがそこそこある。
- ざっくり見てみたが、いくつかの用途別のクラスが存在する模様。基本は FlightsMLService.java だけでよくて、これは単体で概ね完結している感じだった。
- 使ってるのはBeanの Flight 型ぐらいみたい。
- 事前に作成しておいたML-Engineのモデルを使って予測するぐらいの内容で、とてもシンプルだった。
- Start the real-time simulation script
- https://github.com/GoogleCloudPlatform/data-science-on-gcp/tree/master/04_streaming
- https://github.com/GoogleCloudPlatform/data-science-on-gcp/blob/master/04_streaming/simulate/simulate.py
- だいたい分かった。BigQueryのテーブルにフライト情報が存在する前提で、テーブルから取得したフライト情報をwaitかけつつひたすらPub/Subのtopicにpublishしているだけだった。
- Start the real-time prediction service
- 結局、AddRealtimePrediction の方をCloud Dataflowに紐付けて起動していた。で、AddRealtimePrediction を起点にパッケージのソースを一通り確認した。
- AddRealtimePrediction が PubSubBigQuery を io として利用する。
- PubSubBigQuery は PubSubInput のサブクラスで、その更に親が InputOutput になっている。この InputOutput#addPredictionInBatches において FlightsMLService を利用している。後は、PubSubBigQuery#writeFlights で addPredictionInBatches メソッドを呼び出している。
- Cloud Dataflowのコンソールで実際に動いてるのがわかる。
- それぞれのステップがどのような状況とかログも見れるようになってる。これはすごい感じがする(゚д゚)!
- いくつかエラーが発生していることもわかる。
- 最後までフローが進まないとBigQueryに書き込まれないので直後だと predictions テーブルがなかった。
- GCEのコンソールを見たら、Dataflow用のインスタンスが起動していた。
- それぞれのステップがどのような状況とかログも見れるようになってる。これはすごい感じがする(゚д゚)!
- 結局、AddRealtimePrediction の方をCloud Dataflowに紐付けて起動していた。で、AddRealtimePrediction を起点にパッケージのソースを一通り確認した。
- https://cloud.google.com/dataflow/
- Apache Beam を使用
- https://beam.apache.org/
- そうそう、Javaのコードでも結構パッケージを見かけた。
- https://beam.apache.org/get-started/beam-overview/
- Pythonも対応していた。
- https://cloud.google.com/dataflow/docs/guides/using-monitoring-intf
- あくまでもBeamのパイプラインを可視化していることがわかった。
- Apache Beam を使用
最後に
普段はAWSしか使っていないので、GCPを触ってみていろいろと新鮮でした。やはり似たようなサービスは複数触らないと相対化して評価できないので、今後も機会があればGCPを触っていきたいと思いました。
マーケティングの仕事と年収のリアル
- 作者: 山口義宏
- 出版社/メーカー: ダイヤモンド社
- 発売日: 2018/10/18
- メディア: 単行本(ソフトカバー)
- この商品を含むブログを見る
同僚がFacebookで紹介していたのでなんとなく読みました。とてもよかったです。マーケティング業界においてどのようにキャリアプランを考えればよいか、職種と年収を示しつつ解説してくれている本でした。職種の整理の仕方とキャリアプランの考え方はIT業界にも置き換えられる内容だと思うので、他の業界の方も読んでみてもよいのではないかと思いました。
本書の構成としてはまずはマーケティング業界の仕事内容と年収の実態について解説し、次にその仕事内容を6つの成長ステージに分けます。
そして以降はステージ毎にどのようにキャリア開発に取り組めばよいか事例も踏まえて解説しています。その際に事業会社と支援会社に分けて解説しています。最後に今までの解説も踏まえた上で、マーケティング業界におけるキャリアの構築事例を紹介しています。
IT業界に置き換えるという観点ではステージ3のスペシャリストのままキャリアを構築するのかステージ4のブランドマネジャーのようにマネジメントのキャリアに移行するかよく聞く話だと思います。また、いわゆるWeb系も含めた事業会社とSIerを中心とする支援会社のどちらに所属するかも同じくよく聞く話だと思います。そのため、IT業界も同じだなーと思いながら読んでいました。
個人的には1章に書かれているマーケティング業界の8つの流派というコラムが特におもしろかったです。流派というのは仕事のスタイルという意味です。例えばアイディア重視とかデータ検証重視などです。この流派は会社によって異なり、自分の流派と会社の流派が異なると評価されにくかったりストレスになるという指摘は、当たり前のことなのですがなるほどなーと思いました。
それなりの年収を得るにはどのステージに進むにしても大変という身も蓋もない現実が書かれていて、自分も現在採用とか評価を行っているので、まぁそうだよなーと思いながら読んでいました。なので、本書でも示されている通りキャリア構築については戦略的に考えると同時に、自分自身の市場価値を高める努力を続けるしかないなーと再認識できてよかったです。
2018年英語学習振り返り
2018年振り返り - n3104のブログにも少し記載していましたが、今年はとにかく英語学習に時間を割きました。ということで、2018年の英語学習について振り返りたいと思います。
前提
2017年末時点での私の英語に関する学習状況は以下のような状態でした。
- 英語は学生自体に一番苦手かつ嫌いな教科だった。とはいえ、確実に必要なスキルなので社会人になってから少しずつ勉強している感じ。
- 英語による会話経験無し。
- AWSのマニュアルのような技術文書は単語について調べつつであれば何となく読める。
- 30代の前半に多読を試したことがあり、英語を読むこと自体の抵抗感はなくしていた。
- 文法は2017年に1年掛けてゼロからスタート英文法 CD付を10周ぐらいして、多少分かるようになった。
- リスニングは同じく2017年に聞き取り・書き取り用CD付 英語は絶対、勉強するな!―学校行かない・お金かけない・だけどペラペラを毎日家事をしたりする際についでに聞いたりしていた。4割ぐらい何となく聞き取れるような感じ?ディクテーションは試したら難しすぎて諦めた。
- 英作文はまったくできない感じ。
- 発音は一度本を買って取り組もうとしたが母音で飽きてやめた。
結果
2018年末の状況は以下のようになりました。
- 英語学習自体の抵抗感はなくなった。ある程度英語への理解が進んで学習自体がおもしろくなった。
- DMM英会話を192回やった。また、re:Invent 2018で買い物したり、道を聞いたりした。
- 英文を読む際に文法構造を意識して読めるようになった。
- 文法は何冊か読んで、理解が深まった。
- リスニングは専用のトレーニングをしなかったのでそれほど伸びなかった。
- 英会話中によく聞き返してしまう。音は聞き取れるけど、理解が追いつかなくて、理解のために聞き直す感じ。チャットボックスに書いてもらうとすごい簡単な内容で、文章なら理解できるのに音だけだと理解が追いつかない。
- 英作文はかなり成長したと思う。
- 多少おかしてくても、DMM英会話で講師に自分の言いたいことを言えるようになった。
- DMM英会話の教材の写真描写の初級を37回やり、写真描写の英作文自体に多少慣れた。
- 社内で3行で週報を書くという取り組みがあり、45回書いた。最初はとても短い文しか書けなかったが、最近は多少複雑な文章を書けるようになった。
- 発音は専用のトレーニングはしなかったが、多少良くなったと思う。
- 未だに発音記号は何となくで読んでいる状態。
- LとRとかF/VとB/Pとかthとかgとか、その辺りの分かりやすいものについては口の形を作れるようになったと思う。
やり方
DMM英会話をベースに、瞬間英作文とiKnowを併用しながら学習を進めました。1年で300時間以上やっていて、割当としては以下のような感じでした。月によってiKnowと瞬間英作文は取り組む量を調整してました。
他には毎月KPT形式でその月の英語学習について振り返りを行い、翌月の学習内容を調整するようにしていました。12ヶ月間の変化としては以下のような感じでした。
- 1月 : DMM英会話を29回やった。フリートークやデイリーニュースも試したが学習効果を感じられないレベルだったので会話の教材を最初から順番にやることにした。DMM英会話のレッスンの流れは分かったが、英作文ができないのでまったく自分の言いたいことを言えない。ボキャブラリーも足りない。ということで瞬間英作文とiKnowも併用するようになった。
- 2月 : DMM英会話を21回やった。会話の教材を続けた。会話の教材に必要な範囲のボキャブラリーは多少身についたが、相変わらず英作文が弱いので講師の言っていることは分かっても自分の言いたいことを言えない状態。
- 3月 : DMM英会話を22回やった。会話の教材を続けた。レッスン前に5分ぐらい予習するようになった。瞬間英作文の効果かある程度文法的な語順を意識して英語を話せるようになった。瞬間英作文を優先してiKnowは一旦止めた。
- 4月 : DMM英会話を21回やった。会話の教材に慣れて飽きてきたので、ビジネスに変更した。慣れていた会話の教材からビジネスの教材に変えたことで、最初は慣れるまで辛かったがすぐ慣れた。レッスンの予習と復習が定着した。瞬間英作文はやっとPart3になった。そのため、iKnowも再開した。iKnowの100アイテムマスター達成。
- 5月 : DMM英会話を19回やった。ビジネスの教材を続け、ロールプレイも直前のダイアログを見つつではあるが多少できるようになった。
- 6月 : DMM英会話を11回やった。5末に引っ越しをした影響で時間を取れなかった。ビジネスの教材に飽きて写真描写に切り替えた。写真描写は単語自体は簡単なので予習なしにしてみた。瞬間英作文はPart3までとりあえず一通りやった。
- 7月 : DMM英会話を14回やった。写真描写を続けた。自分で考えた英語をチャットボックスに残してくれる講師は多くないので復習がやりずらかった。そろそろ英会話自体は慣れてきて、アウトプットよりもインプットが重要だと感じるので回数を減らすようになった。英会話イメージリンクを読んで、英語を先頭から順番に理解するというのを意識するようになった。また、瞬間英作文をPart1からやり直した。多読の一環としてDragon Slayers' Academyを読み始めた。
- 8月 : DMM英会話を11回やった。写真描写を続けていて、予習するようにした。英作文なので毎回1時間から1時間半ぐらいかかった。ただ、事前に作成した英文への添削になるのですべてチャットボックスに指摘事項が残り復習の効率もよくなった。瞬間英作文のPart1とPart2は定着した。iKnowの500アイテムマスター達成。
- 9月 : DMM英会話を9回やった。写真描写を続けた。ただし、予習する時間が取れない時はフリートークを入れるようにしてみた。知らない単語とか言い回しがでると止まってしまうが、とりあえず会話はできるようになった。
- 10月 : DMM英会話を13回やった。re:Inventに向けてトラベル/文化の教材に切り替えた。内容自体はとても簡単に感じるようになっていて、ロールプレイもアドリブを入れつつできるようになった。なんとなく慣れた感じで発音していたら、早く話すよりも正確に発音するように講師に指摘されて、改めて発音を意識して学習するようになった。
- 11月 : DMM英会話を13回やった。トラベル/文化を続けた。re:Inventでは買い物したり、道を聞いたりは出来たが、セッションは4割ぐらいしか聞き取れなかった。
- 12月 : DMM英会話を7回やった。トラベル/文化からデイリーニュースに切り替えた。ある程度会話できるようになったので、あえて予習しないことで講義中に内容についての質疑を行う練習をするようにした。瞬間英作文のPart3も定着した。iKnowの1000アイテムマスター達成。レッスン中に何度か聞き返す中で、ヒアリングが弱いと指摘された。
あとは、個人的にやってよかったと思うことは以下になります。参考まで。
- 英会話のレッスンが終わったら次のレッスンを予約する。
- レッスンの予習をする。ただし、ある程度慣れたらあえて予習しないほうがレッスン中のやり取りが増えていいかも。
- レッスンの復習をする。知らなかった単語はiKnowのカスタムコースに登録する。
- 講師の記録をつける。相性もあるし、教材による向き/不向きもあるので。
- 毎月振り返りを行う。成長を実感できるし、学習内容の見直しもできる。
- iKnowと瞬間英作文で例文を音読する。文法構造とか発音も意識しながら行う。知らない文法構造があれば確認して理解した上で行う。
- まずは最低限の文法知識を身につけておく。そうしないと、学習効果が低い。
- 瞬間英作文。読めるのと会話のなかで作文できるのはまったく別のスキルだと思う。瞬間英作文の定着度合いに比例してレッスン中に会話できる範囲が広がったと思う。
- iKnowというかボキャブラリーを増やす。会話中に言いたい単語が出てこなくて会話が止まる。。
- 英作文する際はまずは自作した英文をGoogle翻訳にかけて違和感のない日本語になるか確認する。次にGingerなどを使ってチェックする。
- 似たような単語はとにかくググって違いを調べたり、画像の検索結果を見てイメージを掴む。
一番気をつけているのは無理をしないというところでしょうか。疲れている時は適度にサボるというか。無理をして燃え尽きても仕方がないので、学習を継続できるように気をつけています。あとは学習自体が負担にならないように習慣化するというところも気をつけています。
来年
来年はまずはリスニングの強化に取り組むつもりです。現状、一番弱いのがリスニングのようなので。今年1年も弱い部分から強化するという方法で会話できるようになっていった実感があるので、来年もその方法を継続してみるつもりです。リスニングが落ち着いたら、発音と文法を強化しようと思っています。
リスニングについてはポッドキャストがいいらしいのでVOA - Voice of America English Newsを試してみることにしました。Beginning LevelのLevel 1を最初からディクテーションしています。すでに6回やりましたが、内容自体は簡単なのでちょうどいい感じです。AWSのポッドキャストを聞けるぐらいになるといいかなと思ってますが、内容も長いですし、トランスクリプトもありませんし、再来年ぐらいにチャレンジとなりそうな気がします。。
英会話自体は継続しますが、回数は週1、2回で十分だと思うので学研のオンライン英会話|Kimini英会話のライトプランを試してみるつもりです。iKnowと瞬間英作文も継続します。瞬間英作文についてはスラスラ話すための瞬間英作文シャッフルトレーニングをやるつもりです。
*1:予習・復習の時間も含まれます。
2018年振り返り
2018年について振り返ってみたいと思います。ちなみに、去年は2017年振り返り - n3104のブログでした。
マネージャー職になって2年経った
昨年から引き続きマネージャー職を1年続けて2年経過しました。このブログを書きながら1年間の出来事を振り返ったのですが、メンバーのおかげで色々と進んだなーと思います。昨年の時点でチームとしての練度は高まっていたので、その結果を確認できた1年だったと思います。今年の1月時点で6名のチームだったのですが、6月末に2名抜けて一旦4名まで減って、10月に1名、11月に2名増えて現在7名になりました。要は約半分がいなくなり、それよりも多いメンバーが新たに加わったのですが、チームとしての練度が高まっていたので、新規メンバーの受入も既存メンバーに問題なく対応してもらえました。むしろ1年前よりもよりチームとしての練度も上がっていると思いますし、チームの文化というかアイデンティティーのようなものもより明確になった気がします。
私自身としては、マネジメントスタイル自体は昨年から特に変えていませんし、1年マネージャー職を経験したこともあり、振り返ってみると、今年1年は昨年よりも余裕を持ってマネージャー職に取り組めていたと思います。そのため、チームマネジメントスキルについては大幅に伸びたというよりは、引き出しが増えたという感じでした。あとは、チームの練度が上がり、取り組む課題のステージを1段上げられるようになったので、昨年だと取り組めなかったテーマにいくつか取り組むことが出来、いろいろと学ばせてもらったと思います。何より、昨年仕込んだものが着実に成果をあげるという結果を確認できたことが一番の収穫かもしれません。
1点確実に伸びたと言えるとしたら、採用スキルでしょうか。6月に4名に減ることは4月ぐらいから分かっていたため、4月末ぐらいから9月末ぐらいまでの約半年ほどはとにかく採用活動に時間を割きました。毎日採用エージェントのサイトで候補者を確認したり、書類審査や1次面接をひたすらやる中で、合格しそうな方かどうか*1を見極めるスキルはそれなりに付いたと思います。何より、1次面接において候補者を口説くため、私が担当するグループの事業環境や業務内容、魅力などについて整理できたのはよかったと思っています。
会社ブログ
この1年、仕事が忙しすぎて全く書けていませんでした。ですが最後にre:Invent 2018関連で会社ブログを10本書き、久しぶりに技術ブログを書いていたら楽しかったので、来年はもう少し定期的に書きたいと思っています。
英語
プログラマは毎年1つ新しい言語を勉強するというのがあると思いますが、私としては今年学んだ言語は英語でした。それぐらい英語に時間を割いたと思います。集計したら300時間以上やってました(゚д゚)!
1年間の成果としては英会話未経験の状態から最低限の英会話ぐらいならできるようになりましたし、英作文をする際に文法構造を意識して作文できるようになりました。
英語についての振り返りは2018年英語学習振り返り - n3104のブログに記載しています。英語学習もある程度まで進んだと思うので、来年はもう少し割当を減らして、他のことにもバランスよく取り組めればと考えています。
読書
去年と比べるとビジネス書は読めなかった気がします。あと、読み終わった本のブログを書けなかったです。
- WEB+DB PRESS Vol.102 - Vol.105
- 計算機プログラムの構造と解釈 第二版 3.3.5 - 4.1.3
- 自然言語処理の基本と技術
- “Mastering Bitcoin Open Edition” in Japanese
- Google - Site Reliability Engineering Chapter 1 - Chapter 11
- OKR(オーケーアール) シリコンバレー式で大胆な目標を達成する方法
- どんどん話すための瞬間英作文トレーニング (CD BOOK)
- ポケット版 ビッグ・ファット・キャットの世界一簡単な英語の本
- 英会話イメージトレース体得法―英文の詰まりをスッキリ解消! イメージをなぞって身につける英語発想
- 英会話イメージリンク習得法―英会話教室に行く前に身につけておきたいネイティブ発想
- 英文法イメージリンク【助動詞】ーコアイメージを知れば will と be going to の違いもハッキリわかる!
- The New Kid at School #1 (Dragon Slayers' Academy) #1 - #5
WEB+DB PRESS
去年から購読を再開ましたが、購読を続けてよかったです。自分の興味に関係なく最近の技術に関する情報をインプットできるので、全記事を読むようにしています。結果的に仕事でも役立つこともありましたし、今後も継続するつもりです。
SICP
無事?その後も社内読書会が1年続きまして、3.3.5から4.1.3まで進みました。基本隔週1時間でやっていて、今年は19回(通算62回)やりました。このペースだとあと1年半近くかかりそうです(^_^;)
ついに4章に入り、evalの実装まで来ました。こんなにサクッと作れるのは衝撃です。最近はSICPの範囲ではありますがLISPのコードを読むのも、机上デバッグするのも普通にできるようになった気がします。ちょっとした単体テストまで書くようになりました。
いやー、しかし、みなさんLISPのデバッグってどうやってるんでしょうね。うまく組めた時はいいんですが、期待通りに動作しないときのデバッグは基本的に机上デバッグになっちゃうものなんでしょうか。。手続き型言語はデバッグプリントを入れるのがほんと簡単だなーと思います。
Mastering Bitcoin
有志でやっている読書会で読みました。まったくビットコインやブロックチェーンについて知識がなかったので、ある程度概要がつかめてよかったです。
この読書会はもう6年続けているんですが、直接業務とは関係ない本を読めるのがいいと思っています。中心メンバーとの付き合いも長いですし、この読書会でいろいろな方とお会いできたりもしていて、今後も続けたいと思ってます。
Site Reliability Engineering
社内で読書会が結成されたので参加しました。普段は自社サービスの運用をしていることもあり、非常に参考になっています。まだまだ適用できない手法も多いのですが、今後適用できる部分は適用していこうと考えています。
読書会の進め方としてScrapboxを利用しており、毎回各自がScrapboxに気になったことを記載し、その内容にお互いにコメントするという形です。この形式は初めてだったのですが、各自が同時に書き込むことでバイアスのない状態のコメントを見れるのがいいと思っています。あとは読書会当日に参加しなくてもScrapboxの内容を見ることで後追いで参加できるというメリットがあることも分かりました。
Dragon Slayers' Academy
英語学習の一環で多読用に読み始めました。完全に理解できているかというと細かなニュアンスが分からなかったりするのですが、おもしろいと思えるレベルでは内容を理解できていると思います。さくさく読めるので、ファンタジー寄りの児童文学が好きな方にはおすすめかもです。
アニメとか
今年もプライムビデオは結構観てて、dアニメストアも契約しちゃいました(^_^;)
特に印象深かったのは以下辺りでしょうか。
- Amazon.co.jp: ささみさん@がんばらない【TBSオンデマンド】を観る | Prime Video
- Amazon.co.jp: ソードアート・オンラインIIを観る | Prime Video
- Amazon.co.jp: 狼と香辛料を観る | Prime Video
- Amazon.co.jp: Fate/kaleid liner プリズマ☆イリヤを観る | Prime Video
- Amazon.co.jp: 終末なにしてますか?忙しいですか?救ってもらっていいですか?を観る | Prime Video
ささみさん@がんばらないはおもしろかったので、原作を読んだら完結していなくて涙しました。でも、ほんとおもしろかったです。同じく最近原作を読んでいるのが終末なにしてますか?忙しいですか?救ってもらっていいですか?です。原作という意味では狼と香辛料は原作を読んだ上での視聴で、非常にクオリティはよかったですけども、ストーリー展開を知っているため二期は途中で観るのを止めてしましました。ソードアート・オンラインⅡはずっとプライムの対象にならなくて、dアニメストアが始まったので契約して観ました。いやー、ほんとよかったです。ちょうどソードアート・オンライン アリシゼーションも始まり、現在視聴中です。プリズマ☆イリヤはFateシリーズということで何となく観始めて、最初はテンションとか作風についていけなくなりそうだったんですが、シリーズを重ねる毎にストーリーに深みが出て完全にハマりました。
後は10月ぐらいにFate/Grand Orderを始めてしまい、地味に時間を取られてます(^_^;)
その他
Hadoop周りは今年も去年に引き続き、特に何かやったりはしなかったので、そろそろプロフィールから「Hadoop好き」は取り下げようと思います。。機械学習関連も少しだけTensorFlowとKaggleのチュートリアルを触ったりしたぐらいで、そこまで時間は割きませんでした。
個人ブログも今年はあまり書けませんでした。ネタがなかったというより、書く時間を取れませんでした。
2018-01-01から1年間の記事一覧 - n3104のブログ
購読している各種ニュースメールとかRSSフィード、日経ビジネスなど消化できなかったものも大量にあるので、来年はもう少しバランスよくいろいろ取り組めればと考えています。
まとめ
振り返ってみると、2018年も密度の高い1年だったと思います。幸いなことに?未だに毎週のように金曜になると月曜が1ヶ月前のように感じる日々を過ごしています(単に変化が多いだけであって、密度が高いわけではないのかもですが(^_^;))。ただ、やはりマネジャー職を継続した分、プレイヤーとしての成長はあまり感じられなかったので、来年こそは改善していきたいと考えています。
*1:二次面接はチームのメンバー全員が合格を出す必要があるので、私だけがよいと思った方でも合格しないためこのような表現になっています。
re:Invent 2018に行ってきた
AWS re:Invent 2018 | Amazon Web Servicesに行ってきました。現在所属しているクラスメソッド株式会社では毎年のように参加者を募っていて、5年前に入社してから毎年のように参加を見送っていたのですが、今年はいろいろ条件が重なったこともあり思い切って参加してみました。
イベントの様子は毎年社内チャットや参加者の話を聞いて概ね理解してはいたつもりだったのですが、やはり実際に行くといろいろと感じるものや考えることがあったので記録しておきたいと思います。以下5点について記録しておきます。
- 成果
- 想像以上に規模が大きい
- 予想していた形とは違う刺激を受けた
- とても疲れたw
- 英語について
成果
まずは、単純に記録として参加した成果をメモしておきます。
- 14セッション参加(Monday Night Live、Keynote * 2、ワークショップ * 1 含む)
- Monday Night LiveとKeynoteはリモート視聴だった
- 2会場訪問(ベネチアン、ミラージュ)
- ブログ10本
- 現地で5本、帰国後に5本(2週間かかった。。)
- [レポート] SRV373 : イベント駆動による巨大な並列処理を作るためのアーキテクチャ #reinvent | DevelopersIO
- [レポート] SRV401 : サーバーレスアプリケーションの最適化 #reinvent | DevelopersIO
- [レポート] DAT321 : DynamoDBの内側: 我々はどのようにスケーラブルなデータベースを構築しているのか #reinvent | DevelopersIO
- [新サービス] フルマネージドの台帳データベースである、Amazon Quantum Ledger Database (QLDB) が発表されました! #reinvent | DevelopersIO
- [レポート] ANT316 : 効率的なデータレイク: データレイクデザインパターン #reinvent | DevelopersIO
- [レポート] API325 : Amazon SageMakerとAWS Step Functionsによる機械学習のワークフロー #reinvent | DevelopersIO
- DynamoDBのトランザクションを試してみた #reinvent | DevelopersIO
- DynamoDBのオンデマンドとプロビジョニングの料金を比較をしてみた #reinvent | DevelopersIO
- Lambdaのカスタムランタイムで無限ループをなくしてみた #reinvent | DevelopersIO
- AWS RoboMakerの開発環境を試してみた #reinvent | DevelopersIO
セッションを選んでみて、サーバーレス関連というかLambdaとかDynamoDB辺りに興味が強いことが分かりました。あとはデータレイクとか機械学習関連も少し選んでいて、この辺りは順当な感じだったと思います。
想像以上に規模が大きい
想像以上に規模が大きいというのはラスベガスという街であったり、イベント会場であるホテルの規模であったり、やはりアメリカ、ほんとスケールが大きくてすごいなと思いました。一方で個々のセッション自体はもちろん会場は広かったり劇場をセッション会場にしてたりいろいろ豪華だったりはするのですが、セッション自体を聞いている最中は日本で参加するAWS Summitと差がなかったです。概ね最前列付近に座るようにしていたこともあり、セッション中は写真を撮りつつ話を聞くことに集中してると、会場の広さとかは特に意識しませんでした。
予想していた形とは違う刺激を受けた
予想していた形とは違う刺激を受けたというのは、re:Inventもそうですがすぐにセッションの動画とスライドが公開されるこの時代に、わざわざ海外まで行ってイベント参加する一番の理由は現地で何らかの刺激を受けてモチベーションを上げるためだと思ってました。で、実際参加して刺激を受けたことは受けたのですが、それが現地にいる人達の熱気にあてられたとかではなく、一緒に参加しているたくさんの同僚がいるという事実から刺激を受けたのが予想外でした。
具体的には今回のre:Inventでも大量の新サービス紹介やサービスの機能追加が発表されたわけですが、そのブログを書こうと思ったら、他の同僚たちもすごい勢いでブログを書こうとするわけです。そこまではお互い現地に行っているので当然といえば当然のことなんですが、その際に数年前なら自分しか手を挙げないようなブログでも他の同僚達が手を上げまくっていたことが衝撃でした。私が入社した5年前は40名ぐらいしかいなかった会社も今ではグループ全体で270名近くいるらしく*1、AWSのサービスに合わせて専門の部署も出来ています。例えばビッグデータ関連ならデータインテグレーション部がありますし、サーバーレス関連ならサーバーレス開発部があるわけです。そして当然ながらそれらの部門からもre:Inventには参加者がいるのでそちらよりのブログなら彼らが手を挙げて書いちゃうわけですね。
そういう状況の中で、自分はもう社内において技術的には希少性が下がっているという現実を目の当たりにしたわけです。いやー、これは衝撃でした。ほんと会社が大きくなったんだなと。社員としてAWS事業本部のサービスグループのマネージャーとして、会社の成長に合わせてすごい方がどんどん入社してくれているのは嬉しく思う半面、相対的に自分の技術者としての価値が下がっていることに薄々は気づいていたんですが、まさかこういう形でその事実と対面するとは思っていませんでした。
もちろん2年前からサービスグループのマネージャーを担当する中で身につけたスキルは色々とありますし、プレイヤーとしての時間が取れない中でもいろいろ技術についても勉強する時間をある程度は確保するようにしていたつもりはあります。そして、単体の技術ではなく仕事を進めるという総合力では他の人に遅れを取るつもりはないのですが、それでも技術的に特化した希少性が自分にはなくなりつつあるという事実は、いやー、悔しいですし、恐怖でもあります。
ということで、長文になってしまいましたが、改めて技術を学ぶということに時間を割いていこうという気持ちになりました。そろそろ40代になりますし、何らかの形で自分の希少性を作り直していきたいと考えています。マネージャーとしてのキャリアパスもあるのでは?と思う方もいらっしゃるかもしれませんが、一度マネージャーという立場を経験させていただいた結果として、これ以上マネージャーというキャリアパスを伸ばしたいという気持ちがなくなっています。やはり自分自身で直接問題を解決したいという気持ちが強いことがよく分かりましたので。なのでマネージャー経験もあるという意味で視野の広さももちつつ、プレイヤーとして技術的にも希少性をもったキャリアパスを築いていくつもりです。具体的な部分は現状ノーアイディアですけどもw
とても疲れたw
10年ぶりの海外旅行なこともありますし、re:Inventはセッション参加とブログ書きまくっててほとんど寝れないという話は聞いていたのですが、ほんと大変でした。しかも2日目に風邪を発症してしまい、薬で症状を押さえつつセッション参加してブログ書くという状況だったので、ほんと疲れました。出発前に子どもが風邪を引いていて、目の前で一日中咳き込んでいたので睡眠時間を長めに取るとかマスクをするとかなるべく気をつけてはいたんですが、それでもだめでしたorz
ただ、仮に風邪を発症しなかったとしても、re:Invent期間中はずっと24時間臨戦態勢みたいな状況だったので、どちらにしてもとても疲れたと思います。一緒に行った同僚たちもみな疲れたと言っていたので。それぐらい、とにかくイベントに参加してブログを書くということにみんな集中していて、これはこれでイベントっぽくて楽しかったです。疲れますけどw
英語について
今年の1月からDMM英会話を始めて最近はレッスン中であればあまりストレスなく会話できるようになっていたので、実際に海外のカンファレンスに参加してどの程度使い物になるのか確認してきました。結論としては、期待していたレベルまで英語力はついていませんでした。
- 買い物とか道を尋ねるような会話は困らなかった
- セッションはスピーカーの言っている内容が3割ぐらいしかわからなかった
- セッション後のQAはある程度聞き取れた
- ワークショップで隣りに座った人との会話は一応出来た。一方で他の参加者同士の会話はあまり聞き取れなかった
とりあえず、英語による会話自体への抵抗感はなくなっていたので、買い物とかも流れが分からなくて最初はビビりましたが、途中からは特に気にならなくなりました。人にもよりますが、ほんと向こうのレジの人は一言話しかけてきますね。一言の雑談よりもメニューの注文の方が普段使わない英語なのでよっぽど苦労しました(^_^;)
肝心のセッションですが、風邪で集中力が下がっていることもあったのかもしれませんが、あまり聞き取れませんでした。単語自体は概ね聞き取れるんですが、理解が追いつかない感じです。これは単純に普段の英会話で出てこない単語や言い回しが多くて処理が追いつかなくなっていたんだと思います。なので意識的にセッションの動画とかポッドキャストを聞いて、慣らす必要があると思いました。あとは訛りですね。こればかりは英語の基礎体力を長期的に伸ばすしかないのかどうなのかよく分かりませんでした。
セッション後のQAは1対1の会話であるためか、逆に聞き取りやすかったです。内容にもよるんですけども。同じくワークショップで隣りに座った人との会話やスピーカーに質問をしたりもしたのですが、こちらは1対1なので、多少聞き直したりはするにしても意思疎通できました。一方で他の参加者同士の会話はあまり聞き取れませんでした。要はこちらのレベルに合わせて向こうがある程度聞き取りやすい話し方をしてくれれば意思疎通できるレベルになっていて、そういう配慮がない状態だとまだまだ聞き取れないレベルであることが分かりました。
実際に参加してみて自分の状況は把握できたと思うので、今後も気長に英語には取り組んでいこうと思っています。1年前だったら全く会話できなかったと思うので、十分成長したかなと思ってます。ただ、セッションは普通に聞き取れるぐらいにはなりたいので、もうちょっと英語には優先的に時間を割こうと思っています。
最後に
まずはこのようなイベントに参加させてくれた会社に感謝です。一緒にイベントを乗り切ったという意味でも刺激をもらったという意味でも一緒に参加した同僚にも感謝です。また、日本で日常業務を支えてくれた同僚にも感謝です。あとは長期出張中に家で子どもたちの面倒をみてくれていた妻に感謝です。いやー、ほんとみなさんお疲れ様です&ありがとうございましたm(_ _)m
*1:https://classmethod.jp/company/overview/ で確認したらそんなにいるらしいです(゚д゚)!
1on1を1年ほど続けてみての振り返り
最近ブログを書けていないのですが、来週からre:Inventに行って会社ブログを10本書く予定があるので、ブログを書く練習も兼ねて気軽に書ける個人ブログで1on1について振り返ってみたいと思います。
ここ2年ほどグループマネージャーなる仕事をやっていたりするのですが、昨年の7月頃にメンバーから1on1なるものをやりませんかという提案を受けて、それ以来1年ほど1on1をやってました。
1on1はマネージャーとしては継続したい制度
はじめはメンバーともやったことがないので、試してみて微妙だったらすぐやめようと話していました。で、1年やった結論としてはマネージャーの立場としては継続したい制度になりました。理由はマネージャーとしてメンバーと定期的に1対1で話して、気になっていることや困りごとがないか確認し、あれば解決するようにアクションしたいと考えているためです。マネージャーの仕事はメンバーのアウトプットを最大化することであり、具体的にはメンバーに対して何らかの働きかけを行うわけですが、1on1はその手段の1つと捉えています。余談ですが、この辺りの考え方はHIGH OUTPUT MANAGEMENTに書かれており、ほんとその通りだと思っています。
1on1の運用ルールの変化
1on1を始める前と現在の運用ルールの差分から、もう少し具体的な話を書いておければと思います。実際に1on1をやる方の参考になるかもしれませし。
開始時は以下のようなルールで始めました。
- 隔週(月2回)とする。書籍の中で最大でも3週間で1ヶ月あいだを空けてはいけないという記述があった。
- 1回30分前後とする。様子を見て15分ぐらいにするかも。
- マネージャーはアジェンダを用意しない。メンバーが用意する。
- 話題は任意とする。
- メンバーもなるべくヤフーの1on1―――部下を成長させるコミュニケーションの技法を読む。
1年やってどうなったかというと、以下のように変わりました。変更点は開催間隔、1回あたりの実施時間、参考書籍の3点です。
- 月次(月1回)開催とする。ただし、必要があれば臨時で実施する。
- 1回60分とする。
- マネージャーはアジェンダを用意しない。メンバーが用意する。
- 話題は任意とする。
- 参考書籍はヤフーの1on1―――部下を成長させるコミュニケーションの技法よりはHIGH OUTPUT MANAGEMENTの1on1の節がよいかも。
開催間隔と1回あたりの時間について
当初は隔週で1回あたり30分前後で始めてみました。で、実際にやると30分で終わることはなくて毎回60分話してました。これは話の途中で打ち切るのも微妙かと思って打ち合わせのスケジュールを60分押さえていたことが原因だと思います。枠を押さえてるのでついつい話しちゃうんですよね。私自身もw
一方で開催間隔は当初隔週としていましたが、こちらは1回が60分あることも原因かもしれませんがメンバーから特にアジェンダがないということで、2回に1回は1on1をスキップにすることがデフォルトになったため途中で月次開催に変更しました。2回連続スキップにならなかったのはさすがに月に1回はやろうということで2回連続スキップを禁止にしたためです。つまり、メンバーとしてはそもそも月次開催でなくてもよいと思っていたのかもしれません。一方で、マネージャーとしては最低でも月次開催としたいので月次で実施させてもらう状態になっていました。
ですので、マネージャーの立場からすると1on1はメンバーのアウトプットを最大化するため必ず実施したいけれども、メンバーからすると実施は任意でよいという点で非対称な制度という認識です。そのため、1on1を実施する際はメンバーからみて参加することにメリットがあると考えてもらえるよう気をつける必要があると考えています。
(そもそも、どんな打ち合わせであれお互いにメリットがあるように意識するのは当然のことではあるのですが)
なお、月次開催としていますが、これはお互いに関係性を構築できているというか私が管轄する部門に慣れた場合が前提であり、新入社員についてはまずは週次開催とし、慣れてきたら隔週、最終的に月次開催という形で開催する間隔を調整するようにしています。
今後試してみてもいいかなと考えているのは1回を30分とする代わりに隔週開催とするという方法です。ただ、幸いなことにメンバーに恵まれており、隔週にしなければ大きな問題があってそれに気づけないというようなこともない認識なので、月次60分のままでいいかなとも考えています。60分ぐらいある方がいろいろ話せますしw
(そもそも、今まで1on1でしか出てこない大きな問題のようなものはありませんでしたし、何らかの問題がある場合は日々のチャットや週次の部門の定例で検知できている認識です)
参考書籍について
ヤフーの1on1―――部下を成長させるコミュニケーションの技法は20代のメンバーを対象とするにはよい書籍だと考えています。理由としては育成の観点が強く書かれていると考えるためです。一方で、私が管轄する部門のメンバーは若くとも30歳以上で、上には私よりも経験豊富な40代の方もいます(ちなみに私自身は30代後半です)。また、皆さんセルフマネジメントできる方ばかりなので特に私自身が育成する必要もなかったりします。むしろ、相談させてもらうこともしばしばありますm(_ _)m
一方、HIGH OUTPUT MANAGEMENTはそもそもミドルマネジメントについて書かれている書籍であり、1on1については10ページ程度書かれているだけです。ですが、内容はマネージャーからみてなぜ1on1が必要であり、具体的にどのように進めればよいか記載されており、非常に明瞭かつ簡潔に書かれている認識です。内容も育成ではなくアウトプットを最大化するという観点で書かれているため、メンバーのレベルに関係なく参考になると考えています。
まぁ、結論としてはもちろん両方読んだほうがいいとは思います。そもそも、同じテーマについて相対化して考えるには2つ以上の事例が必要になりますし。
実際にどんな話をしているのか
やってみてわかったのは、ほんとメンバーによって話す内容が異なる点です。また、その人毎に毎回だいたい同じようなテーマで話すことが多いです。テーマが同じようなものになるのはアジェンダの用意をメンバー側にやってもらっていることが原因かもしれません。用意する側からすると前回のアジェンダを流用するほうが楽でしょうしw
具体的な内容としては基本的には雑談ですw担当している業務について話すこともあれば、趣味やプライベートの話をすることもありますし、思いっきり脱線することもしばしばあります。マネージャーとしてその方のことを把握しておくのは重要ですし、一個人としてもその方のことを知ることは楽しいので、個人的には楽しくやってます。
一方で、マネージャーとして必ず確認しているのが気になっていることや困っていることがないかについてです。メンバーのアウトプットを最大化するために1on1をやっているので、もし困りごとがあれば解決する必要があると考えています。後は4半期や1年単位で振り返りとか今後やりたいことがないかは質問するようにしています。
まとめ
最初は1on1という聞き慣れない名前で戸惑いましたが、やってみて昔からやっている上司や先輩、同僚などに1対1でやってもらった雑談とか相談と同じものだと気づきました。とはいえ、上司に関しては評価面談を除いてはこちらから依頼しなければ実施されなかったと思うので、制度化していることはよいことだと考えています。また、制度化することでどのメンバーとも一定の頻度で雑談できることも重要だと考えています。