利用机器学习技术设计三维人体动画视觉体验系统

2022-05-09 版权声明 我要投稿

摘要:常规三维人体动画视觉体验系统在视觉展示时,用户只能输入少量控制数据,无法融合大数据,为此设计基于机器学习的三维人体动画视觉体验系统。硬件设计中重点优化了三维扫描装置,其他硬件设备沿用常规系统设备。在硬件设计的基础上,重新确认三维人体位置、比例和转角信息,并引入机器学习算法将视觉体验数据与用户数据融合,完成视觉体验数据填充,对填充后的视觉感知对比度实施优化处理,从而实现软件设计。设计仿真模拟实验,针对不同数据输入下三维人体动画视觉体验系统的性能进行分析。实验结果表明,所设计系统能够融合的输入数据量较大,而常规系统只能容纳部分执行数据,证明所设计系统有效地解决了常规系统出现的问题。

关键词:三维人体动画;视觉体验;机器学习;数据输入;系统设计;仿真实验

引言

随着动画视觉体验与三维数据处理能力的高速发展,社会生活中越来越多的场景使用三维影像代替原有二维影像,使得现行网络中积累了丰厚的三维实体与行为数据。目前常使用相关的数据挖掘方法,从中筛选出更为真实有效的数据,使三维图像更具精准性、文本关联性以及多场景适用性[1]。并在上述研究基础上对视觉体验系统进行深层次的研发,通过机器学习等技术高效地提升三维数据图像的资料,另外,随着产业应用标准的变化,需要针对特殊的速度要求、用户行为喜好等多个方向进行改进。

传统三维人体动画视觉体验系统能够随机采集大量三维参数,使用超大模型训练的方式解决三维图像展示体验的问题[2]。系统架构在三维激光扫描的基础上进行构建,三维人体动画体验主要有两种方式:一种是通过三维等价数据变换,将图像数据量化,传达三维人体动画的复杂信息;另一种是将若干个有效数据节点资源组合计算,使扩展系统存储中已有的三维人体动画最大化展示三维人体图像的代表性参数。但是,传统三维人体动画视觉体验系统在图像展示过程中,融合相关数据的能力较差,面对大数据的融合,显得十分困难,为此设计基于机器学习的三维人体动画视觉体验系统。

三维人体动画视觉体验系统硬件设计

本文设计的三维人体动画视觉体验系统沿用常规硬件设计,但是重点对三维扫描装置进行优化。优化后的三维扫描装置包含:集电器、光学采集器、数字计算机、一体化立体扫描仪等[3⁃4]。立体扫描仪能够对三维人体动画的外形结构以及空间点位进行识别,识别后传入光学采集器中进行光学转化,使用集电器与数字计算机对上述数据进行展示。三维扫描装置如图1所示。

三维人体动画视觉体验系统软件设计

确定三维人体位置、比例、转角信息

三维人体动画视觉体验属于特定展示系统,简言之,就是能够根据用户使用需求,生成三维人体动画的过程。在本文系统中,三维人体动画主要体现人体位置、比例、转角的变化,根据用户特征用特定的方式对三维人体动画进行展示。

三维人体位置的确立。人体动画的位置变换是将人体的头部点作为标记点,记作(x,y,z),在x方向、y方向和z方向上分别标记dx,dy以及dz个长度单位,那么将人体看作质点后,三维人体位置坐标可标记为(X,Y,Z),三维人体位置坐标可表示为:

三维扫描装置采用脉冲测距法对三维坐标进行测距,基于高速激光反射原理,主动发射激光束并采集被测人体表面反射回来的散射光,使用集电器计算出被吸收的光束,补偿出现缺陷的激光源光束。扫描结果中包括:人体水平方向仰面角度、人体高度范围值、最大活动范围距离等三维坐标数据[5]。通过以上数据可确定出三维人体动画的三维坐标,以三维扫描装置为坐标原点,

ïZ=z+dz

三维人体动画比例确认。三维人体动画的比例变换是以人体看作质点(0,0,0),将三维人体动画上各标注点的坐标分别向着X分量、Y分量以及Z分量的方向延伸,延伸距离乘以dx,dy以及dz的矢量长度,三维人体动画比例变换后的坐标依旧以(x,y,z)为原点,将原有区域进行扩大或者缩小若干倍,用公式表达为:

ìx=Xdx

ïy=Yd

(2)

人体水平方向最大动画距离为正方向,搭建三维人体动画视觉三维坐标轴。

运用三维扫描装置中的集电器代替原有的投影仪,集电器不仅可以投射特定的图案,不同的投射图案可以重建出一个全息的几何信息数据,集电器还能够通过外部输入不同形式的数据,对不同角度的数据进行拟合,构造出完整的扫描结果。集电器在人体上投射不同的

图案形成多样的光纹,使用光学采集器对光纹信息进行

ïz=Zdz

旋转角的变换。依然将人体看做质点,坐标系的原点(0,0,0)不变,中心点坐标用(x,y,z)表示,则对人体上的任一点坐标(X,Y,Z)沿某轴逆时针旋转θ角度后,新的点坐标标记为(X1,Y1,Z1),那么θ作为人体三维动画绕动的中心,用公式表示为:

ìX1=(X-x)cosθ-(Y-y)sinθ

采集,测量的人体信息动作会通过光纹特征联系在一起,进行视觉展现时,对光纹特征单独关联即可[6⁃7]。集电器投射图案按照纹理如图2所示。

îZ1=z-(X-x)sinθ+(Z-z)cosθ

至此,完成三维人体动画位置、比例、转角的确认。

基于机器学习的视觉体验数据填充

将确认的三维人体动画位置、比例、转角数据导入机械学习模型中,与用户控制口令相填充。根据用户输入的不同特征值与现有三维人体动画数据进行融合,融合过程中要区别数据之间的特征,为此使用机器学习算法对现有数据进行分类后再执行融合口令[8],在机器学习中使用近邻算法辨识出现有数据与样本集数据的相似性,根据相似度的大小划分在一个相对的数据区间内,如图3所示。

图3中,原有人体动画样本数据为图中“圆圈”;若机器学习算法将相近的数据样本类标作为划分区间,则导入数据样本判断为有效融合数据,用“三角”表示;若机器学习算法标定补充数据为融合限定标准[9⁃10],那么也可划分为融合数据,用“正方形”表示。视觉体验数据填充的重要过程是区分有效数据,不同的算法下,融合标准不同,本文使用机械学习算法能够融合大批量数据,改变传统视觉体验数据填充方式,执行机械学习的过程便可以视为视觉体验数据填充过程。

视觉感知对比度优化

视觉体验数据填充以后,对展示的感官对比度进行调试,三维人体动画具有高动态的特征,为此使用色调映射来调整视觉感知对比度[11]。用色调映射亮度范围,通常色调映射曲线呈现的是单调递减的变化趋势,根据韦伯⁃费希纳定律可知,人眼视觉敏感度与亮度成比例。因此,本文将色调映射调整到亮度的有效对数区域中。为了保证优化视觉感知对比度是最佳值域,结合色调映射曲线分段特性[12],选择单调函数的极值作为调制节点,标记极限节点(mm,ym)为色调映射值。

假设相邻节点(mm,ym)与(mm+1,ym+1)之间的交叉阶段为m,那么交叉调制的调节值为a,该值恒定[13],则使用色调映射曲线斜率作为指定亮度,用公式表示为:

光的参量,使用代码datedefaulttimezoneset(′Asia/Shanghai′)调用出光场感知参量代替原有参量值,再求解色调映射曲线[14],最后得到的光场强度就是色调映射最优值,也是视觉感知对比度的最优值,使用修订程序修订差分值后,便可以进行三维人体动画视觉体验。

实验

为了验证系统性能,进行实验验证。本实验采用YUI⁃658实验平台,验证不同视觉体验系统的数据融合能力,使用两种传统视觉体验系统与本文设计系统作比较,在统一实验环境光条件下,使用多组数据进行输入,输入量随机分配。但是,需使用相同的输入方式,用于实验的YUI⁃658实验平台能够将实验数据统一汇总,显示在该平台中。

实验准备

实验使用的YUI⁃658实验平台参数如表1所示。

实验中使用美能达照明设备,三维人体动画大小动态信息保持不变,系统使用的相应参数保证一致,三维人体动画投影投射的最大照度规定为700lx;视觉动画投影面积为5.5m2;动态的反射部分最大照度为450lx;人体转角部分的最大显示照度为342lx;人体以外的环境照度为535lx;在体验视角范围内,3D显示结果呈现均匀的画质分布。

视觉体验系统在视觉体验时,观看视角的变化如图4所示。

实验结果分析

对比三种视觉体验系统时,将所有输入融合的数据结果统一汇总至图中,实验结果如图5所示。

由图5可知,本文设计的基于机器学习的三维人体动画视觉体验系统数据融合量最低超过70TB,两种

d=ym+1-ym

a

(4)

传统系统的最佳值没有超过60TB,说明本文系统融合数据能力更强。这是由于本文系统在软件设计的过程为了获得最优视觉感知对比度,调整色调映射编斜中引入了机器学习算法,运用该算法将视觉体验数据与用户数据进行融合,以此来实现视觉体验数据的填充,并对填充后的视觉感知对比度实施优化处理,最终提高系统的数据融合量,进而提升了系统的性能。

设计的系统取得了一定的进步,但是没有考虑到由于数据量较大造成的数据处理效率较低的问题,接下来将以此为研究重点进行深入的研究。

参考文献

邓诗元,汤志浩.关于三维动画图像真实性效果优化仿真[J].计算机仿真,2018,35(7):226⁃230.

卢晶,张晓林,陈利利,等.融合运动信息的三维视觉显著性算法研究[J].计算机工程,2018,44(1):238⁃246.

黄鹏程,杨波,万新军,等.基于双目视觉的多点三维振动测量系统[J].光学技术,2018,44(4):448⁃452.

李知娴.激光三维运动成像技术研究[J].激光杂志,2018,39(10):119⁃123.

黄海松,张松松,姚立国,等.基于机器视觉的物体阶跃表面检测算法研究与实现[J].激光杂志,2019,40(3):45⁃48.

张一,姜挺,江刚武,等.特征法视觉SLAM逆深度滤波的三维重建[J].测绘学报,2019,48(6):708⁃717.

刘建立,张剑心.视觉审美体验的类脑计算模型研究进展[J].计算机工程与应用,2019,55(16):18⁃24.

万华根,李婷,冯丽文,等.面向三维场景造型的徒手手势交互方法[J].北京理工大学学报,2019,39(2):175⁃180.

张丙辰,过伟敏,王艳群,等.跨界融合视野下的空间认知与视觉意象[J].包装工程,2017,38(24):84⁃87.

董天阳,杨丽锦,张鑫鹏.用户多维感知的3D图像体验质量评价[J].中国图象图形学报,2019,24(5):782⁃793.

刘燕,董蓉,李勃.基于机器学习的图像分割算法研究[J].电视技术,2017,41(z4):32⁃39.

赵海文,齐恒佳,王旭之,等.基于机器学习的人机协调操作意图感知与控制方法研究[J].机床与液压,2019,47(10):147⁃150.

陈威.机器视觉系统超分辨率图像准确识别方法研究[J].微电子学与计算机,2019,36(6):105⁃108.

肖尧,阮晓钢,朱晓庆,等.动态曝光单目视觉惯导系统时间戳延迟估计方法[J].北京工业大学学报,2019,45(6):515⁃523.

上一篇:薪酬管理在企业人力资源管理中的创新下一篇:大数据背景下计算机网络安全防范措施