お久しぶりです。miyamotoです。
最近ダンス物のキャプチャーの収録が増えつつあることもあり
エリア内で振付確認をしたいとの需要にお応えするために移動式の鏡を新規で導入しました!
本番中でも鏡を確認しながら踊れるようになりました。
今後も演者さんの要望に合わせて
撮影時、少しでもやりやすい環境にしていければと思います。
以上、miyamotoでした。
お久しぶりです。miyamotoです。
最近ダンス物のキャプチャーの収録が増えつつあることもあり
エリア内で振付確認をしたいとの需要にお応えするために移動式の鏡を新規で導入しました!
本番中でも鏡を確認しながら踊れるようになりました。
今後も演者さんの要望に合わせて
撮影時、少しでもやりやすい環境にしていければと思います。
以上、miyamotoでした。
お疲れ様です
はっちゃんです
この度、スタジオイブキでは新機材「OptiTrack Gloves By MANUS」を導入しました
グローブ方式のキャプチャーシステムにより、アクターの繊細な指の動きが収録可能になり
OptiTrackシステムと同期してボディと指の動きを同時に収録することができます!
お疲れ様です はっちゃんです
お久しぶりの【Vtuberの作り方!】第3弾!
今回は前回お伝えしたVtuberを作るための3つの要素
①Bodyトラッキングについて掘り下げてご紹介!
モーションキャプチャーには【光学式】【ジャイロセンサー式】等等いろいろな種類のシステムがありますが
「柊うるめ」で使用している【光学式】でのお話です
モジモジくんスーツ(MCスーツ)を着て体に50個の
マーカーセンサーを装着し、体の表面の動きを計測し
そのマーカーの動きから演者の骨格(skeleton)の動きを
計算して、その動きをCGモデルの骨格へ流し込み
キャラクターを動かします。
例えばUnityのモデルをリアルタイムに動かしてライブ配信
①マーカーデータの3次元データ化
②マーカーデータのID付け(ラベリング)
③骨格の動きを作成(Solving)
④SolvingデータをUnityへストリーミング
⑤Unity上でSDK(スクリプト)を使用してCGモデルへSolving データを流し込む
⑥Unityの演算処理を使用して服・髪の毛等の揺れものを計算
⑦リアルタイムレンダリングを行う
⑧OBS等へ映像を読み込みライブ配信
上記をリアルタイムに行っています・・・
なので上記工程の中で一つでも不具合が起きると事故ります!
ちなみに、「柊うるめ」自転車動画では
自転車の前輪・後輪・本体・ハンドル それぞれにマーカーを
いくつか付けて動きをトラッキングしています
あまり掘り下げられていないような気もしますが・・・
今回はここまで!
ではまた!
お疲れ様です。miyamotoです。
まだまだコロナで大変ですが、お仕事をしつつも機材周りの更新をしたりなど
スタジオは稼働しています。
先日は、ハンドグローブ機材のデモでの検証を行いました。
指周りの動きを撮る際、5本の動きを正確に撮影するのにマーカーが向いていないので
センサー方式のハンドグローブで補えないかということで、前々から検討していました。
今回はPrime2の検証でしたが、前シリーズよりもより精度が上がり
指の開き具合などの細かな動きが撮れるようになっているのが印象的でした。
マーカーでの撮影時と違いデータの欠損の心配もないので
ダンス等の細かな指の撮影が必要な案件等で使えるのではないかと思います。
以上、miyamotoでした。