Unity语音口型学习(Oculus发布的OVRLipSync示例)

  • Post author:
  • Post category:其他


了解该部分可以参考Oculus发布的OVRLipSync示例。


https://developer3.oculus.com/downloads/


Oculus OVRLipSync for Unity 5 V1.0.1-beta

将下载下来的package导入Unity,可以运行官方Demo。

官方Demo

该Demo中模型的口型动作,可以通过

Maya

Cinema4D

3D Studio Max

Blender

Cheetah 3D

XSI

Any tool that supports the FBX format

这几个工具进行设计和制作。

详情

如果我们通过这些工具制作相关口型动作并导入,在Unity中选中模型,在Inspector中会显示在SkinMeshRenderer中。

SkinMeshRenderer

该Demo中通过Oculus官方提供的语音识别DLL进行实时语音识别并通过(位置..\Assets\Plugins\x86_64中的OVRLipSync.dll)

skinnedMeshRenderer = GetComponent<SkinnedMeshRenderer> ();
skinnedMeshRenderer.SetBlendShapeWeight (0, blendOne);

代码进行控制。

详情

暂时先研究到这里,希望有新的了解可以与大家分享。谢谢大家!



版权声明:本文为beihuanlihe130原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。