OpenPose で動作分析する1
OpenPoseで動作分析
動画から動作を抽出してみたいとおもって調べてみた。 OpenPoseというのを使うと簡単なようだ。 学習済みモデルがあるので、それを使ってまずは、動かしてみたい。 大きな目標としては、3次元のモデルを作ってみたい。
OpenPose記事をいくつか見つけた。 これらの記事は、ソースコードをもってきて、そこからモデルの学習からやっているようである。
しかしそのようなパワーのあるGPUをもっていないので、そのようなステップは飛ばして、 学習済みモデルだけ使って、動くかどうかだけを確認したい。
OpenPoseは現在
- 静止画像を解析してくれるようだ
- 動画は、静止画像の連続に分解してそれを1枚づつ分析し、つなぎ合わせているようである。
- 3Dモデルを作ってくれるわけではないようだ
- 3Dデータを取り出すところは現在研究しているようだ。
学習も行いたいが、GPUがないときは、Google Colaboratoryを使うという方法もあるみたい。 ということは、Azureのやつでもいけるのかな。同じようなのはAmazonにもあったかもしれない。
将来的には、動画をとってそのまま解析してもらいたいところではあるが、まずは動かしてみる。
- GitHub - CMU-Perceptual-Computing-Lab/openpose: OpenPose: Real-time multi-person keypoint detection library for body, face, hands, and foot estimation
- 本家
- OpenPoseを動かしてみた。 - Qiita
- AI(Openpose)でバッティングフォーム解析 - Qiita
- OpenCVを使ったモーション テンプレート解析(リアルタイムに物体とその動く方向を認識する) - Qiita
- OpenCVで人数カウント 後編 - Qiita
- Openposeの3D化に関する調査 - Qiita
- 3次元化する研究の調査
参考
Google Colaboratory
PFNが Colaboratory の教材を作ってくださっているので、これも
DeepPose
別の実装で、DeepPoseというのもあるようだ
Written on January 24, 2019