今回は【Vtuberの作り方!】第2弾!
Vtuber「柊うるめ」でのリアルタイムモーションキャプチャーについて
ご紹介していきたいと思います
Vtuber【柊うるめ】
Twitter
https://twitter.com/HiiragiUrume
YouTube
https://www.youtube.com/channel/UCx5QOWzX0t0pr8TM2nzd6UQ
SHOWROOM
https://www.showroom-live.com/hiiragiurume
※フォロー、チャンネル登録ぜひよろしくお願いします!
さて、Vtuberでのライブ配信を行うにはとてもとても高いハードルがあります・・・
https://twitter.com/HiiragiUrume
YouTube
https://www.youtube.com/channel/UCx5QOWzX0t0pr8TM2nzd6UQ
SHOWROOM
https://www.showroom-live.com/hiiragiurume
※フォロー、チャンネル登録ぜひよろしくお願いします!
さて、Vtuberでのライブ配信を行うにはとてもとても高いハードルがあります・・・
それは・・・
リアルタイムモーションキャプチャーです!!
①Body(体)のモーションキャプチャー
②指のモーションキャプチャー
③フェイシャル(表情)のモーションキャプチャー
この3か所のモーションキャプチャーが必要になります!
「柊うるめ」の場合は
①Body・・・OptiTrack(光学式)システムを使用
体に50程度のセンサーマーカーを装着し
そのマーカーの動きから骨の動きをリアルタイムに割り出し
さらに、Unityへその骨の動きをストリーミングさせて
Unityモデルをリアルタイムに動かします・・・
これだけでもけっこう大変なんですがさらに!
②指・・・「OptiTrack」か「グローブ式」システムを使用
指の動きをOptiTrackかグローブ式のキャプチャーシステムを使用して
リアルタイムにUnityモデルへストリーミングを行います
さらにさらに!!!!!!
③フェイシャル・・・Dynamixyzシステムを使用
フェイシャルはDynamixyzを使用してリアルタイムに
Unityモデルへ表情をストリーミング!!!・・・
という形で3つの要素をリアルタイムにモーションキャプチャーを行い
データをUnityへストリーミングして集約させて
一人のキャラクターが完成します
【服の揺れ】【髪】等の俗に「揺れもの」と呼ばれる部分に関しては
Unityの物理演算機能を使用して表現するため
モデルのセットアップさえ行っておけばある程度の動きが
リアルタイムに見れるようになります
そうしてUnity上でキャラクターとして生き生きと動いている映像を配信ソフトから
YouTube等へストリーミングするという流れです・・・
Vtuberのライブ配信は大変!!!!!
ということがお分かりいただけましたでしょうか
ただ、あくまでも「柊うるめ」でのライブ配信方法ですので
一例と考えてくださいね
他のVtuberさんに関してもそれぞれの運営さんが
いろいろな方法でキャラクターに命を吹き込み
工夫をして運営をしているのです!
次回の【Vtuberの作り方!】その③は今回紹介した
3つの要素それぞれを掘り下げてご紹介していきます
ではまた!