持续更新中 Unity AzureKinect所有Demo整理分析( 二 )


2. /
它显示了用户的轮廓如何与2D场景中的虚拟对象进行交互 。该场景使用组件管理传感器和数据,使用组件显示用户的轮廓并创建覆盖的骨骼碰撞器,并使用组件生成场景中的虚拟对象(球体) 。
2. /
它显示了用户的轮廓如何与3D场景中的虚拟对象进行交互 。场景利用组件管理传感器和数据,组件显示用户的轮廓并创建覆盖的骨骼碰撞器,组件利用该组件生成场景中的虚拟对象(鸡蛋) 。
4. /
该场景显示了用户的骨骼如何与场景中的虚拟对象进行交互 。它利用组件管理传感器和数据,利用组件显示用户的骨骼并创建骨骼碰撞器,并利用组件在场景中生成虚拟对象 。
五: 1. /
这是主要的更衣室演示场景 。它演示了校准姿势,模型叠加以及虚拟对象与物理对象之间的混合的用法 。它使用组件来管理传感器和数据,m组件使相机的姿势与传感器保持同步,组件用于在上显示彩色摄像头,组件用于根据需要更改模型类别,-用于管理模型菜单填充和模型选择的组件,用于管理照片制作的组件,用于将虚拟对象与物理对象混合在一起的-组件 。
2. /
这是第二个更衣室的演示场景 。它显示了如何使用任意人形模型(如,,Ninja 等)覆盖用户的身体 。场景使用组件管理传感器和数据,m组件使相机与传感器保持同步,组件控制虚拟模型,组件根据用户的尺寸缩放模型,组件可在上显示彩色摄像头源,还可以选择组件将虚拟对象与物理对象混合在一起 。
六: 1./
该场景演示了检测离散手势(在此演示中为向左滑动,向右滑动和向上滑动)的检测,该手势用于控制演示多维数据集 。场景利用组件管理传感器和数据,利用组件侦听滑动手势,并利用pt组件控制场景中的表示多维数据集 。
2./
它演示了如何检测用于旋转和缩放3D模型的连续手势(本演示中的滚轮,缩小和放大) 。场景使用组件管理传感器和数据,使用组件设置和侦听滚轮和缩放手势,使用ipt组件控制场景中的3D模型 。
七: 1. /
场景显示了如何利用绿屏进行背景分割 。场景使用组件来管理传感器和数据,ager组件来渲染场景中的真实环境,组件根据其与绿色的相似性或差异来过滤真实环境的一部分 。屏幕和组件来管理不同的屏幕分辨率 。
2. /
它显示了如何利用绿屏进行背景分割和体积渲染 。场景使用组件来管理传感器和数据,ager组件来渲染场景中的真实环境,组件根据其与绿色的相似性或差异来过滤真实环境的一部分 。屏幕上,rer组件可提供场景中已过滤环境的体积渲染和照明,而组件可管理不同的屏幕分辨率 。
八: 1. / o1
该场景演示了在屏幕上的手形光标控制以及通过抓握和释放来进行手形交互 。场景使用组件管理传感器和数据,使用组件管理手形光标和用户交互,使用组件通过手柄和释放与场景中的虚拟对象进行交互,并使用le传达用户交互与UI到Unity事件系统 。
2. / o2
它显示了如何使用手部互动来在各个方向上抓取和旋转屏幕上的虚拟对象 。场景使用组件管理传感器和数据,使用组件管理手形光标和用户交互,并使用组件与场景中的虚拟对象进行交互 。
九: 1. /
Mocap动画器场景提供了一个简单的工具,可以将用户的动作捕获为Unity动画 。场景利用组件管理传感器和数据,利用组件捕获用户的动作并将其记录到Unity动画资产中,利用组件在人形模型上播放录制的动画,并利用组件提供动作数据 。
十: 1. /
这个后面单独写一篇博客
“多摄像机设置”场景提供了一种工具,用于估计多摄像机设置中的传感器位置和旋转 。它利用组件来管理传感器和数据,利用组件来估计传感器的位置和旋转,并利用组件来呈现场景中的用户,如传感器所感知 。