一、MPEG-4人脸动画技术和一个基于MPEG-4的人脸动画系统的设计(论文文献综述)
杨心如[1](2020)在《基于单目相机的人脸实时交互动画技术研究》文中研究表明人脸作为人类信息与情感表达的重要载体,是新一代人机交互方式的重要组成成分。人脸动画在工业界有着广泛的应用,但传统人脸动画制作方法费时、费力、高成本,因此,找到一个简单、方便、低成本的人脸动画制作方法具有重大意义。本文针对人脸动画技术方面的问题,围绕基于单目视频相机的人脸实时交互动画技术进行深入的研究与探讨。我们的研究工作涵盖了人脸动画技术的三个核心部分:1.面部表情捕获与跟踪。面部表情的跟踪与捕获主要包含两个部分:人脸检测算法和人脸特征点定位算法。本文提出使用方向梯度直方图(HOG)和支持向量机(SVM)的人脸检测方法。首先运用单目视频相机作为人脸视频的采集设备,然后提取人脸图像的HOG特征,SVM通过学习HOG特征来选取支持向量构建最优分类面。根据训练得到的SVM分类器检测出视频帧中的人脸区域。在获取人脸区域后,我们通过基于级联回归树的人脸特征点定位算法定位人脸关键部位(眉毛、嘴角、鼻尖等)的特征点,进行视频中人脸表情的捕获与跟踪。2.生成人脸交互动画参数。为了能够生成驱动数字人脸模型动画的三维参数,本文提出一种基于SFM-3DMM的三维人脸可形变模型的方法估计来自二维视频帧中人脸的深度信息。应用SFM-3DMM算法对跟踪得到的二维人脸特征点进行三维拟合,得到姿势自适应型三维人脸,并输出人脸刚性运动参数和人脸表情参数。3.基于单目相机的人脸交互动画合成方案。在已有人脸交互动画合成方案的基础上,本文提出了一种基于骨骼蒙皮模型的人脸交互动画合成方案。骨骼蒙皮模型是一种仿生模型,具有真实感强,易于驱动的优点。通过人脸运动捕获中提取的人脸动画参数,对角色头部稀疏的骨骼节点进行程序化的控制,以生成逼真的面部动画序列。
赵檬檬[2](2019)在《手机3D动画中人物表情的自动生成》文中认为动画自动生成技术是由中科院数学所陆汝钤院士所提出的全过程动画自动制作过程。该技术基于对故事的理解,并由计算机辅助完成动画生成。2008年,中科院张松懋研究员提出了基于该技术的手机3D动画自动生成系统的构想,将短信自然文本内容转化为动画形式进行传输。目前该系统已顺利运行且基本达到预期效果,能够根据短信内容构建多样的情节并添加相应的模型、灯光、特效等,但系统并未针对表情进行研究,而表情是动画中必不可少的一个因素,为此本文提出以手机动画自动生成系统为背景,对人物表情动画的实现进行探索研究。本文的工作主要包括两个方面:第一,设计并构建了表情本体库。表情本体库包括表情类和运动单元类,其中表情类包含情绪类和非情绪类两大子类,前者以Plutchik提出的情感轮模型为基础,将情绪分为八类,且分别包含不同强度的情绪类型,后者则包括常见面部活动类型。运动单元类选择眉、眼、嘴三个部位作为表情构成单元,以Paul Ekman提出的面部编码系统中的运动单元(Action Unit,AU)为依据,对各部位运动方式进行分类。通过分析表情对应的各部位AU类型建立表情类与运动单元类的联系。系统中与表情相关的因素包括主题、模板、动作类型,从而建立对象属性并利用公理描述表情类与相关类之间的关系。据我们调研,这是首个面向动画角色表情的本体库,共包含60个类,5个对象属性,91个实例,96个公理,能够对26个主题、69个模板进行相应的表情规划。第二,设计并实现了基于表情本体库的表情定性规划并完成了表情动画的定量计算。定性规划过程主要通过以主题为主、以动作类型为辅、模板次之的顺序,根据短信内容确定出表情的个数、类型以及运动单元组合情况等。定量计算部分依托于融合变形技术以及关键帧动画技术,主要包括利用融合变形技术制作模型基本表情、建立面部控制器、控制器参数计算及关键帧设置三部分其中控制器参数计算及关键帧设置部分针对混合控制器类型、不同强度控制类型以及复合功能控制器类型等做出处理,实现了表情自动平稳过渡。本文对开放的中文自然语言短信进行实验,并从可行性、多样性和观赏性三个方面进行了实验评估。通过对800条短信进行实验得到的人物表情成功规划率为95.02%,说明本文方法具有一定的可行性。而通过统计不同主题或模板所对应的短信规划结果以及同一条短信重复30次测试得到的结果看出,我们的表情动画种类比较丰富,多样性规划率基本在70%左右。最后通过对20个短信生成动画设计问卷调查并统计结果,发现各项指标分值均能达到中上水平的问卷占比达到72.55%,说明我们的动画效果能够符合观众观赏需求。本文首次在手机3D动画系统中提出并实现了表情的自动生成,使得人物表情能够匹配人物动作、表达短信内容、并增强动画生动性。进一步的工作包括扩充表情本体库,尝试将有标记的行为驱动方法加入到现有的动画定量实现过程,从而得到更为逼真的面部表情动画。
唐郅[3](2017)在《语音驱动虚拟说话人研究》文中认为语音驱动虚拟说话人技术指的是通过输入语音信息生成虚拟人面部动画。不仅提高用户对语音的理解度,而且提供一种真实、友好的人机交互方式。随着该技术的发展进步,势必为我们带来更多新的人机交互体验,极大丰富我们的日常生活。本论文采用两种方案研究语音驱动虚拟说话人动画合成,并对其进行分析对比。第一种方案,基于深度神经网络的语音驱动发音器官运动合成。第二种方案,基于MPEG-4的语音驱动虚拟说话人动画合成。这两种方案均需要找到相应的语料库,并对其进行提取构建出适合本论文研究问题的声视觉数据。第一种方案:语音的产生与声道发音器官的运动直接相关,如唇部、舌头和软腭的位置与移动。通过深度神经网络学习语音特征参数与发音器官位置信息两者之间的映射关系,系统根据输入的语音数据估计出发音器官的运动轨迹,并将其体现在一个三维的虚拟人上面。首先,在一系列参数下对比传统神经网络(Artificial Neural Network,ANN)和深度神经网络(Deep Neural Network,DNN)的实验结果,得到最优网络;其次,设置不同上下文语音特征参数长度并调整隐藏层单元数,获取最佳的上下文长度;最后,选取最优网络结构,由最优网络输出的发音器官运动轨迹信息控制发音器官运动合成,实现虚拟人动画合成。第二种方案:基于MPEG-4的语音驱动虚拟说话人动画合成的方法是一种数据驱动方法。首先,本论文从LIPS2008数据库中提取构建出适合本论文的声视觉语料库。然后,使用BP(Back Propagation)神经网络的方法学习语音特征参数与虚拟人人脸动画参数(Facial Animation Parameters,FAP)两者之间的映射关系。最后,系统根据预测得到的FAP序列控制虚拟人面部模型合成虚拟人口型动画。本论文分别对两种方案合成的动画进行主客观评价,均证明两种方案的有效性,并且动画效果自然逼真。对比两种动画合成方案,第一种方案需要一个与之相适应的唇部模型,虽然其精准度较高,但通用性不强,且其语料库不易获得。第二种方案符合MPEG-4标准,使用FAP序列驱动的虚拟人面部模型合成动画,其通用性更强,更便于广泛应用。
朱明会[4](2014)在《真实感三维人脸唇形动画系统的语音驱动》文中研究指明人脸动画是一种通过计算机合成人脸表情运动的人机交互方式,是虚拟现实领域相当活跃的研究方向,目前,在虚拟主持人、可视电话、辅助教学、医疗研究、游戏娱乐、电影和动漫制作等诸多领域均有广泛的应用。语音驱动的三维人脸唇形动画技术属于人机多模态交互领域,简单来说,就是利用音频文件来驱动人脸的唇部,生成与语音同步的口型动作。该技术丰富了人机接口的内容,提高了人机交互的效率,降低了音视频资源实时共享时对网络带宽的要求,因此,得到了国内外研究人员的广泛重视。本文在深入研究了唇形动画技术、语音驱动动画技术以及语音的分析与处理等关键技术以后,设计并实现了基于MPEG-4标准的以语音文件为驱动源的真实感三维人脸唇形动画系统。该系统操作简单,通用性强,运行效率高,满足实时语音驱动唇形动画的需求。本文的主要工作包括:一、建立通用的人脸网格模型。本文采用建模软件进行建模的方式,利用Direct3D纹理映射技术将人脸图片映射到网格模型上,得到逼真的人脸模型。由于通用的三维人脸网格模型的拓扑结构相同,因此,对于任意的主体对象都可以使用设计好的通用的人脸网格模型驱动方法。二、设置唇部特征点。首先,分析了英文发音时元音与辅音的相互影响程度,归纳出典型的唇部动作。为了更准确的控制和驱动唇部进行动作,并且与MPEG-4标准兼容,定义了10个外唇特征点和8个内唇特征点。然后构建了唇部动画定义表来存储每个唇部FAP控制的唇部特征点信息。要想控制唇部模型进行动作,需要在得到了唇部FAP的值后,在唇部动画定义表中查找FAP的影响区域,并利用MPEG-4中提供的算法,计算出由该FAP控制的所有网格点的新的三维坐标信息。计算一组FAP中每一个FAP影响的网格点位移并进行叠加,最终得到一个形象的唇形。三、提取语音特征参数。对输入的语音文件进行数字化、预加重、分帧加窗和端点检测的处理,其中,端点检测采用基于短时平均能量和短时平均过零率双门限的方法。然后,提取出语音特征参数MFCC,利用双层隐马尔科夫模型建立语音特征参数与唇部动画参数的映射模型。第一层映射模型中将当前语音帧以及它的前一帧和后一帧作为模型的观察值序列。对同一唇形类别中的语音观察值进行唇形类内再聚类,得到第二层映射模型,使得可视语音合成的真实感提高很多。因此,只要提取出实时语音的MFCC后就能利用映射模型得到唇部FAP的信息,从而驱动嘴唇运动。该方法可以有效地实现真人发声与唇形动画之间的同步,增强了动画的真实感。四、分析了语音驱动的真实感三维人脸唇形动画系统的功能需求和工作流程,采用微软的Direct3D SDK和VC++6.0开发工具,编程实现了能够接受实时的语音输入并在人脸模型上输出与之同步的真实感唇形动画的系统。
崔明[5](2012)在《基于语音驱动的人脸口型动画系统》文中认为近年来,随着信息产业的重要性日益突出,计算机技术得到了突飞猛进的发展,带动了计算机软硬件的升级,计算机动画产业也随之逐渐兴起。在当今动漫产业发展的黄金时期,计算机图形学与数字媒体技术得到了广泛地应用和发展。本文意在实现利用语音对三维人脸模型进行驱动以产生动画效果,从此角度出发,逐步引出实现人脸动画的方法,人脸的建模方法,人脸关键点的选取与控制,语音特征参数的提取,MPEG-4标准下人脸动画系统的实现方法以及人脸表情的实现方法等技术。本文的最终目标是生成平滑流畅的基于MPEG-4标准的由语音进行驱动的人脸口型动画。基于此,首先,需要利用三维建模软件制作出人脸的三维模型,然后导出为.X模型文件,再利用OpenGL技术将模型导入三维环境的窗口中并显示出来,通过纹理映射技术将人脸纹理贴图映射到三维人脸网格模型上,可以得到较真实的三维人脸模型。然后,利用Baum-Welch算法训练样本以形成语音特征参数与人脸动画参数之间的映射关系,这是人脸动画系统实现过程中的关键一步,其将为下面将要展开的工作奠定基础。接下来,对输入语音文件进行处理,提取出其语音特征参数,并将其与此前建立起来的语音特征参数与人脸动画参数映射库进行比对,从库中提取出与语音特征参数呈映射关系的人脸动画参数信息以便利用它来对人脸网格模型进行驱动。最后,利用MPEG-4标准中提供的算法,通过查找人脸定义表FDT中的相关信息计算出人脸模型上各控制点的新位置坐标,从而可以使得人脸模型产生动作,进而得到语音与人脸口型相同步的动画效果。在此基础上,本文又进一步阐述了人脸表情的实现和应用。
张睿[6](2010)在《基于情景模型的3D人脸动画驱动》文中进行了进一步梳理随着计算机三维技术时代的到来,计算能力的有了很大的改进和网络应用的蓬勃发展,三维人脸动画已成为计算机图形学领域的研究热点。今天,在电影产业、人机通信、多媒体、电脑游戏等领域中3D人脸表情驱动技术获得了越来越广泛的应用。本文针对人脸各部分活动的多样性这一特点,利用多种方法来实现,首先处理一般人脸表情动画,然后处理特殊地方的动画。利用刚性运动模拟眼睛和头的旋转,脑袋与眼部的相对运动利用平滑插值来处理;在一般网格的基础上,利用肌肉模型来处理嘴巴运动,利用嘴部括约肌和线性肌来约束特征点的运动,使在模拟嘴部的复杂运动时有生理学上的依据。针对情景驱动人脸动画问题,本文利用高速文本语音转换系统实现文本到语音的转化,实时提取时间信息和动态发音口型信息,结合可视化发音口型库实时生成动态的语音动画。结合协同发音模型,确保口型的正确性和发音的准确性。最后本文提出一种基于MPEG-4标准的情景驱动人脸表情动画系统,该系统能够运用上面提出的方法,并能够接受文本,语音驱动信息,实时地生成有真实感的人脸表情动画。
罗琰钦[7](2009)在《基于汉语驱动人脸语音动画的研究》文中研究指明近年来,人脸动画在计算机图形学是一个极具挑战性的研究领域。人脸动画广泛的应用于教学、数字娱乐、游戏、人机交互、远程会议、影视制作、医学手术、人脸识别等领域。我们基于MPEG-4标准和中文语言学理论,以TTS引擎、OpenGL作为主要的开发工具,实现了一个基于汉语文本驱动的人脸语音动画系统。该系统主要由四部分组成:文本分析系统;语音合成系统;人脸动画系统和语音与动画同步系统。系统的执行流程是:一方面,语音合成系统接收输入的中文文本,分析处理后,合成语音并产生带有时间信息的音素流;另一方面,基于肌肉模型建立具有真实感的特定人脸模型,使用音素帧参数和表情帧参数驱动模型网格点移动,从而实现人脸动画;最后将合成的语音与人脸动画同步,就实现具有真实感的、带有表情的人脸语音动画。本系统建立的协同发音模型有效地解决了中文协同发音的问题,这是本论文的一个创新点。协同发音是指在连续说话过程中,一个音素的发音受到相邻语音段影响的现象。语音合成系统将中文可视音素划分为15组,可获得带有时间信息的中文可视音素序列,成功解决了TTS引擎不能直接产生中文音素和中文可视音素的问题,这是论文的第二个创新点。此外,系统在通用模型的基础上进行特定化修正,通过模型校准、纹理映射方法,生成具有高度真实感的人脸模型。系统还通过定义表情标签、表情过渡、表情与可视音素混合等处理,实现了带有表情的人脸动画。由于本系统实现的人脸动画,只是通过嘴唇来模拟说话和表情动作,而并没有考虑人脸其它部位在说话过程中的动作变化。因此,在人脸建模方面,对人脸其它部位(如眼睛,舌头等)的模拟是未来研究的一个方向。
陈盈科[8](2009)在《真实感三维人脸表情动画的设计与实现》文中研究表明计算机人脸动画是虚拟现实领域的新兴课题,其主要研究内容包括展现真实感人脸表情和数据驱动模型实时产生动画两个方面,它的最终目标是生成逼真的动画效果。本文着力于模拟真实的人脸的结构和展现各种常见的人脸表情。本文的主要工作是提出了一种新的基于MPEG-4标准的人脸表情动画实现方法,该方法不但能够产生各种富有真实感的人脸表情动画帧,而且能兼容文本等的情境驱动信息,实时生成表情动画序列。本文针对人脸各部分具有不同运动方式这一特点,结合多种技术来实现人脸表情:对于眼皮、额头、脸颊等区域的皮肤运动,本文采用分段线性函数模拟其弧线运动,采用测地线距离计算运动系数,采用径向基函数对运动区域进行平滑处理;采用刚性运动模拟眼球和头部的的旋转,并参考生理学相关研究结果,采用近似方式模拟注视目标时头部和眼球的协调运动;针对嘴部肌肉复杂运动多样的特点,在一般网格变形的基础上,引入肌肉向量模型,利用嘴部括约肌和线性肌来约束特征点的运动,使在模拟嘴部的复杂运动时有生理学上的依据。针对数据驱动模型实时生成动画序列问题,本文利用第三方文本语音转换系统(TTS)实现文本到语音的转化,在转化时提取时间信息和可视化发音口型信息,结合可视化发音口型库实时生成可视化语音动画。结合协同发音模型,保证了各动画帧之间过渡的自然性和口型间过渡的真实性。最后本文开发了一个基于MPEG-4标准的人脸表情动画系统,该系统实现了本文提出的方法,并能够接受驱动信息,实时地生成有真实感的人脸表情动画。
刘洁娟[9](2008)在《基于MPEG-4的人脸建模和动画实现研究》文中研究表明真实感三维人脸动画技术作为一种重要的人机交互方式,可以应用于人性化人机交互、虚拟主持人、网络会议、可视电话、远程教学、远程医疗诊断、电影制作、游戏娱乐等诸多领域。基于MPEG-4的人脸动画系统具有动画数据通用性强、动画数据量小、运算复杂度低等优点,拥有适合于网络实时动画的架构,因此得到了快速发展。三维人脸动画的主要研究内容包括人脸建模和人脸动画控制两个方面。本文的研究目标是探讨基于MPEG-4的人脸动画标准的人脸建模及动画控制的实现。本文详细介绍了构造该系统所涉及的特征提取、特定人脸建模、表情动画等方面的技术以及MPEG-4人脸模型规范标准的基本内容。利用基于色彩信息的Snake技术和可变三维人脸模板,获取人脸特征定位信息,映射到一种基于MPEG-4标准改进的CANDIDE-3参数化人脸模型,完成特定人脸模型建模。在基于MPEG-4的人脸动画系统中,人脸动画定义表的作用是指导动画系统如何在得到人脸运动参数后,变形特定人脸模型,以产生预期的动画效果,是实现基于MPEG-4的人脸动画系统实现的关键所在。本文采用MPEG-4人脸动画定义表的基本思想,结合VC+6.0和OpenGl技术,给出了一个人脸动画实现的系统,验证了相关算法的可行性,并提出了进一步的研究方向。
蒋秀凤[10](2006)在《基于MPEG-4的真实感三维人脸动画实现方法》文中研究表明具有真实感的三维人脸动画是计算机图形学研究的一个重要分支,近30年来一直是研究的热点。真实感三维人脸合成技术的应用范围非常广泛,其成果可以应用于虚拟主持人、虚拟会议、辅助教学、医疗研究、电影制作、游戏娱乐等等,具有重大的理论意义和应用价值。实现真实感人脸动画的难点主要有两个:构建一个好的人脸模型和产生具有真实感的人表情。产生具有真实感的人脸表情和动作,关键在于如何在三维人脸模型上实时地模拟人脸的运动。本文在MPEG-4的三维人脸动画原理的基础上提出一种新的基于MPEG-4的、适宜于任意拓扑结构模型的三维人脸动画实现方法。这种方法能够在连续FAP帧的驱动下实现真实感较强的三维人脸动画,该方法数据量小,适合于网络传输,而且具有数据通用性强,计算复杂度低,实时性强,操作简单等诸多优点。构建好的人脸模型是实现人脸动画的另一个难点。本文提出了一种新的建模思想:随机生成大量不同的,区别明显的三维人脸模型,用户可以保存自己喜欢的模型,并允许对其进行少量的细微调整,从而大量减轻用户建模的难度及工作量。基于DFFD变形算法,本文实现了这一建模思想。文中对用于变形的通用人脸模型及用于变形的控制点进行了合理的设计,使用该方法能够随机生成真实感较强的,相互区别较明显的人脸模型。
二、MPEG-4人脸动画技术和一个基于MPEG-4的人脸动画系统的设计(论文开题报告)
(1)论文研究背景及目的
此处内容要求:
首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。
写法范例:
本文主要提出一款精简64位RISC处理器存储管理单元结构并详细分析其设计过程。在该MMU结构中,TLB采用叁个分离的TLB,TLB采用基于内容查找的相联存储器并行查找,支持粗粒度为64KB和细粒度为4KB两种页面大小,采用多级分层页表结构映射地址空间,并详细论述了四级页表转换过程,TLB结构组织等。该MMU结构将作为该处理器存储系统实现的一个重要组成部分。
(2)本文研究方法
调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。
观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。
实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。
文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。
实证研究法:依据现有的科学理论和实践的需要提出设计。
定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。
定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。
跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。
功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。
模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。
三、MPEG-4人脸动画技术和一个基于MPEG-4的人脸动画系统的设计(论文提纲范文)
(1)基于单目相机的人脸实时交互动画技术研究(论文提纲范文)
摘要 |
abstract |
第一章 绪论 |
1.1 研究工作的背景与意义 |
1.2 国内外发展现状 |
1.2.1 人脸动画模型 |
1.2.2 面部表情捕捉算法 |
1.3 本文的主要贡献与创新 |
1.4 本论文的主要内容及章节安排 |
第二章 基于单目相机的人脸交互动画合成方案 |
2.1 人脸交互动画合成方案综述 |
2.2 基于骨骼蒙皮模型的人脸交互动画方案 |
2.2.1 面部解剖模型 |
2.2.2 人脸肌肉模型 |
2.2.3 骨骼蒙皮模型 |
2.2.4 人脸骨骼蒙皮模型与人脸肌肉模型的比较 |
2.2.5 人脸骨骼蒙皮模型实现细节 |
2.3 章节小结 |
第三章 基于HOG和 SVM的人脸检测算法 |
3.1 算法概述 |
3.2 HOG特征 |
3.3 支持向量机SVM |
3.3.1 Logistic回归与线性分类器 |
3.3.2 SVM分类器 |
3.3.3 特征分类器训练 |
3.4 人脸检测结果与分析 |
3.5 本章小结 |
第四章 基于级联回归树的人脸特征点定位算法 |
4.1 算法概述 |
4.2 级联回归器 |
4.3 级联中每个回归器的训练 |
4.4 基于树的回归器 |
4.4.1 形状不变分割试验 |
4.4.2 选择分割结点 |
4.4.3 特征选取 |
4.5 实现细节 |
4.5.1 缺失值的处理 |
4.5.2 实验参数 |
4.6 实现结果及分析 |
4.7 本章小结 |
第五章 人脸交互动画参数生成 |
5.1 算法流程 |
5.2 SFM-3DMM |
5.3 二维图像到三维模型的配准 |
5.3.1 人脸姿势估计 |
5.3.2 人脸形状拟合 |
5.3.3 线性表情拟合 |
5.4 本章小结 |
第六章 原型系统实现 |
6.1 系统流程 |
6.2 动画参数生成 |
6.3 数据传输 |
6.4 表情合成 |
6.5 系统分析讨论 |
6.6 本章小结 |
第七章 全文总结与展望 |
7.1 全文总结 |
7.2 后续工作展望 |
致谢 |
参考文献 |
(2)手机3D动画中人物表情的自动生成(论文提纲范文)
摘要 |
Abstract |
第1章 绪论 |
1.1 研究背景及意义 |
1.1.1 动画发展 |
1.1.2 手机3D动画自动生成系统 |
1.1.3 人物表情规划研究意义 |
1.2 国内外研究现状 |
1.3 本文工作内容 |
1.4 论文章节安排 |
第2章 基于本体库的表情定性规划 |
2.1 手机3D动画自动生成系统概述 |
2.2 基于AU构建表情本体库 |
2.2.1 本体 |
2.2.2 构建表情本体库 |
2.2.3 表情本体库中语义关系的建立 |
2.2.4 表情类与其他类间语义关系的建立 |
2.3 基于表情本体库的定性规划 |
2.3.1 表情定性规划整体流程 |
2.3.2 表情定性规划结果描述 |
2.3.3 表情定性规划过程示例 |
2.4 表情定性规划与相关工作的比较 |
2.5 本章小结 |
第3章 表情动画实现 |
3.1 Maya中的表情制作 |
3.1.1 Maya融合变形系统 |
3.1.2 基本表情制作及面部控制器设计 |
3.2 表情动画的定量计算 |
3.2.1 关键帧动画技术 |
3.2.2 面部控制器参数计算及关键帧设置 |
3.3 表情动画实现方法与相关工作的比较 |
3.4 本章小结 |
第4章 表情动画自动生成的实验评估 |
4.1 系统环境 |
4.2 系统实验及分析 |
4.2.1表情动画可行性实验 |
4.2.2表情动画多样性实验 |
4.2.3 表情动画观赏性试验 |
4.3 本章小结 |
结论 |
参考文献 |
攻读硕士学位期间所发表的学术论文 |
致谢 |
(3)语音驱动虚拟说话人研究(论文提纲范文)
摘要 |
Abstract |
第1章 绪论 |
1.1 研究背景及意义 |
1.2 国内外研究现状 |
1.2.1 虚拟人面部动画技术的研究现状 |
1.2.2 语音驱动动画技术的研究现状 |
1.3 研究目标及内容 |
1.3.1 研究目标 |
1.3.2 研究内容 |
1.4 本文组织结构 |
第2章 深度神经网络 |
2.1 深度神经网络概述 |
2.2 基于深度神经网络的声视觉映射 |
2.2.1 深度置信网络 |
2.2.2 受限的玻尔兹曼机 |
2.2.3 RBM的生成训练 |
2.2.4 堆砌RBM成DBN |
2.2.5 微调DNN网络 |
2.3 本章小结 |
第3章 声视觉语料库的构建 |
3.1 MNGU0数据库 |
3.2 LIPS2008数据库 |
3.2.1 语音特征参数的提取 |
3.2.2 人脸动画参数的提取 |
3.2.3 声视觉语料库的构建 |
3.3 本章小结 |
第4章 语音驱动发音器官运动合成 |
4.1 基于深度神经网络的声视觉映射 |
4.1.1 网络结构的搭建 |
4.1.2 网络结构的实验参数 |
4.2 发音器官模型的运动合成 |
4.2.1 发音器官模型 |
4.2.2 计算控制量oos、zt和jaw |
4.3 实验结果与分析 |
4.3.1 实验评价方法 |
4.3.2 ANN和DNN实验结果的对比 |
4.3.3 上下文的长度对实验结果的影响 |
4.3.4 唇部动画评价结果 |
4.4 本章小结 |
第5章 基于MPEG-4的语音驱动虚拟说话人动画合成 |
5.1 系统总体设计 |
5.2 声视觉映射模型的建立 |
5.2.1 口型特征参数 |
5.2.2 声视觉映射模型建立与优化 |
5.3 口型动画合成 |
5.4 系统界面及各模块介绍 |
5.4.1 系统界面 |
5.4.2 模块介绍 |
5.5 实验结果与分析 |
5.5.1 实验评价方法 |
5.5.2 声视觉映射结果 |
5.5.3 口型动画的合成与评价 |
5.5.4 个性化头部模型构建与动画合成 |
5.6 本章小结 |
结论 |
致谢 |
参考文献 |
攻读硕士学位期间发表的论文及科研成果 |
(4)真实感三维人脸唇形动画系统的语音驱动(论文提纲范文)
摘要 |
Abstract |
第1章 绪论 |
1.1 研究背景与意义 |
1.2 国内外研究现状 |
1.3 本文工作与组织结构 |
1.3.1 本文工作 |
1.3.2 本文组织结构 |
第2章 真实感三维人脸唇形动画技术基础 |
2.1 三维人脸建模技术 |
2.2 唇形动画技术 |
2.2.1 关键帧插值法 |
2.2.2 参数化法 |
2.2.3 基于变形的方法 |
2.2.4 基于 FAP 流的方法 |
2.3 唇形动画驱动技术 |
2.3.1 基于文本驱动的唇形动画 |
2.3.2 基于视频驱动的唇形动画 |
2.3.3 基于语音驱动的唇形动画 |
2.4 MPEG-4 标准概述 |
2.4.1 MPEG-4 标准中的参数 |
2.4.2 MPEG-4 人脸动画基本原理 |
2.4.3 MPEG-4 标准的优势 |
2.5 本章小结 |
第3章 语音特征参数的提取 |
3.1 语音信号的数字化 |
3.2 语音信号的预处理 |
3.2.1 预加重 |
3.2.2 分帧加窗 |
3.2.3 时域分析 |
3.2.4 端点检测 |
3.2.5 频域分析 |
3.3 MFCC 参数的提取 |
3.4 基于隐马尔科夫模型的映射方法 |
3.4.1 隐马尔科夫模型的参数 |
3.4.2 隐马尔科夫模型的问题及解决方案 |
3.4.3 双层隐马尔科夫模型 |
3.5 本章小结 |
第4章 唇形动画系统的设计与实现 |
4.1 系统的设计原则 |
4.2 系统的开发环境 |
4.2.1 Direct3D 概述 |
4.2.2 Direct3D 纹理映射 |
4.3 系统的实现 |
4.3.1 系统的工作流程 |
4.3.2 系统的实现细节 |
4.4 系统的分析与评价 |
4.4.1 评价标准 |
4.4.2 实验结果 |
4.5 本章小结 |
第5章 总结与展望 |
5.1 工作总结 |
5.2 展望 |
参考文献 |
作者简介及在学期间所取得的科研成果 |
致谢 |
(5)基于语音驱动的人脸口型动画系统(论文提纲范文)
摘要 |
Abstract |
第1章 绪论 |
1.1 课题研究背景及意义 |
1.2 国内外研究现状及发展趋势 |
1.3 本文工作及文章结构 |
1.3.1 工作内容 |
1.3.2 章节安排 |
第2章 人脸建模及人脸动画技术概述 |
2.1 人脸的三维建模 |
2.2 人脸动画的实现思想 |
2.2.1 关键帧思想的人脸动画 |
2.2.2 人脸模型参数化思想的人脸动画 |
2.3 人脸动画系统的驱动方式 |
2.3.1 语音驱动的人脸动画 |
2.3.2 文本驱动的人脸动画 |
2.3.3 视频驱动的人脸动画 |
2.4 模拟人脸运动的方法 |
2.5 本章小结 |
第3章 语音的分析和处理 |
3.1 语音识别方法概述 |
3.2 隐马尔可夫模型(HMM) |
3.2.1 马尔可夫链 |
3.2.2 HMM 描述 |
3.2.3 HMM 的三个问题 |
3.3 语音信号的分析和处理 |
3.3.1 语音信号的预处理 |
3.3.2 语音信号的时域分析 |
3.3.3 语音信号的频域分析 |
3.3.4 语音特征参数 MFCC 提取 |
3.4 HMM 样本识别 |
3.5 本章小结 |
第4章 基于 MPEG-4 标准的人脸动画系统的设计与实现 |
4.1 MPEG-4 概述 |
4.1.1 人脸定义参数 FDP |
4.1.2 人脸动画参数 FAP |
4.1.3 人脸动画定义表(FDT) |
4.1.4 三维人脸网格顶点坐标计算算法 |
4.2 基于 MPEG-4 标准的动画原理 |
4.3 OPENGL 开发工具 |
4.3.1 OpenGL 的特点 |
4.3.2 OpenGL 动画原理 |
4.3.3 基于 OpenGL 实现的纹理映射 |
4.4 三维人脸动画系统的实现 |
4.5 本章小结 |
第5章 人脸表情的实现 |
5.1 人脸动作编码系统 FACS |
5.2 基于 MPEG-4 标准的人脸表情模型 |
5.3 人脸表情的生成 |
5.4 人脸表情动画的应用展望 |
5.5 本章小结 |
第6章 总结与展望 |
6.1 本文工作总结 |
6.2 工作展望 |
参考文献 |
作者简介及在学期间所取得的科研成果 |
致谢 |
(6)基于情景模型的3D人脸动画驱动(论文提纲范文)
摘要 |
ABSTRACT |
第一章 绪论 |
1.1 研究背景 |
1.2 本文主要工作和内容安排 |
第二章 人脸三维动画技术概述 |
2.1 人脸建模技术 |
2.2 人脸动画变形技术 |
2.3 人脸动画驱动技术 |
第三章 基于MPEG-4 的真实感人脸动画标准 |
3.1 MPEG-4 介绍 |
3.2 MPEG-4 基础参数定义 |
3.3 MPEG-4 人脸动画原理 |
3.4 小结 |
第四章 真实感3D 人脸表情动画实现方法 |
4.1 人脸一般区域动画的实现 |
4.2 基于真实感效果的控制点 |
4.3 人脸模型运动驱动方案 |
4.4 人脸特殊部位动画的实现 |
第五章 情景驱动的人脸表情动画 |
5.1 情景驱动引擎 |
5.2 语音驱动的TTS 技术 |
5.3 基于MPEG-4 的真实感人脸动画驱动技术 |
第六章 情景驱动人脸表情动画系统 |
6.1 系统的优势和创新 |
6.2 系统设计 |
6.3 小结 |
第七章 总结与展望 |
致谢 |
参考文献 |
个人简介和攻读硕士期间的成果 |
(7)基于汉语驱动人脸语音动画的研究(论文提纲范文)
摘要 |
ABSTRACT |
第一章 绪论 |
1.1 课题背景及研究意义 |
1.2 国内外研究现状 |
1.2.1 人脸建模方法 |
1.2.2 人脸模型分类 |
1.2.3 人脸动画研究方法 |
1.2.4 人脸语音动画研究方法 |
1.3 论文研究内容及创新点 |
1.4 论文的框架结构及章节安排 |
1.4.1 系统框架 |
1.4.2 章节安排 |
1.5 本章小节 |
第二章 理论基础及开发平台 |
2.1 系统开发平台 |
2.1.1 SAPI5.0 简介 |
2.1.2 TTS 引擎简介 |
2.1.3 OpenGL 开发工具 |
2.2 MPEG-4 人脸动画标准简介 |
2.2.1 MPEG-4 人脸动画参数 |
2.2.2 MPEG-4 人脸定义参数 |
2.2.3 MPEG-4 中性人脸模型 |
2.2.4 MPEG-4 人脸动画工作方式 |
2.3 本章小节 |
第三章 特定人脸模型的建立 |
3.1 人脸肌肉模型 |
3.1.1 线性肌的模拟 |
3.1.2 括约肌的模拟 |
3.1.3 片状肌的模拟 |
3.2 嘴部参数模型 |
3.2.1 人脸唇部运动机理 |
3.2.2 参数控制的嘴部模型 |
3.2.3 嘴部参数模型的模拟过程 |
3.3 通用模型及其特定化 |
3.3.1 通用模型的选取及其特定化 |
3.3.2 通用模型特定化过程 |
3.4 模型校准 |
3.4.1 模型校准算法 |
3.4.2 人脸模型校准的实现 |
3.5 纹理映射 |
3.6 本章小节 |
第四章 中文文本分析及语音合成 |
4.1 中文文本解析 |
4.2 中文可视音素处理 |
4.2.1 划分中文可视音素 |
4.2.2 得到中文可视音素序列 |
4.2.3 获得可视音素的时间信息 |
4.2.4 可视音素过渡处理 |
4.3 表情处理 |
4.3.1 表情标签的表示方法 |
4.3.2 表情过渡处理 |
4.4 可视音素与表情混合 |
4.5 本章小节 |
第五章 人脸语音动画系统的实现 |
5.1 合成视觉语音的方法 |
5.2 中文协同发音处理 |
5.2.1 中文协同发音的背景 |
5.2.2 三音素模型和协同发音规则 |
5.2.3 合成过渡唇形 |
5.3 人脸动画的结构及实现 |
5.3.1 人脸动画的四层控制结构 |
5.3.2 人脸动画的实现过程 |
5.4 人脸语音与动画同步系统 |
5.4.1 语音与动画的同步 |
5.4.2 语音动画系统的结构 |
5.5 本章小节 |
第六章 实验结果 |
第七章 总结与展望 |
7.1 工作总结 |
7.2 展望 |
致谢 |
参考文献 |
攻硕期间取得的研究成果 |
个人简历 |
获奖情况 |
发表论文 |
(8)真实感三维人脸表情动画的设计与实现(论文提纲范文)
摘要 |
ABSTRACT |
第一章 绪论 |
1.1 三维人脸表情动画概述 |
1.2 国内外研究现状 |
1.3 本文主要工作和内容安排 |
第二章 人脸表情动画技术 |
2.1 关键帧插值方法 |
2.2 参数化方法 |
2.3 二维图像与三维图形的渐变方法 |
2.4 人脸动作编码系统 |
2.5 基于物理特性的模型 |
2.6 自由变形方法 |
2.7 小结 |
第三章 MPEG-4 人脸动画标准 |
3.1 MPEG-4 简介 |
3.2 MPEG-4 定义的各种参数 |
3.3 MPEG-4 人脸动画的一般原理 |
3.4 讨论与分析 |
第四章 三维人脸表情动画实现方法 |
4.1 人脸一般区域动画的实现 |
4.2 真实感眼部动画的实现 |
4.3 真实感嘴部动画的实现 |
第五章 文本驱动的人脸表情动画 |
5.1 文本驱动介绍 |
5.2 可视化语音系统中应用的TTS 技术 |
5.3 过渡帧的插值方法 |
5.4 动作混合与协同发音 |
第六章 人脸表情动画原型系统 |
6.1 系统特点 |
6.2 系统流程与框架 |
6.3 交互式编辑模块 |
6.4 口型动画与合成语音同步 |
6.5 系统评价 |
第七章 总结与展望 |
致谢 |
参考文献 |
个人简介和攻读硕士期间的成果 |
(9)基于MPEG-4的人脸建模和动画实现研究(论文提纲范文)
摘要 |
Abstract |
目录 |
第一章 绪论 |
1.1 研究背景和意义 |
1.2 国内外研究现状 |
1.3 本文主要研究内容 |
1.4 本文章节安排 |
第二章 人脸建模及动画技术回顾 |
2.1 人脸模型 |
2.1.1 基于参数的模型 |
2.1.2 肌肉模型 |
2.1.3 自由变形人脸模型 |
2.1.4 基于物理变形的模型 |
2.2 特定人脸建模技术 |
2.3 人脸动画技术 |
2.3.1 插值法 |
2.3.2 参数化 |
2.3.3 基于肌肉模型的动画 |
2.3.4 基于物理模型的动画 |
2.3.5 行为驱动的动画 |
2.4 小结 |
第三章 MPEG-4人脸模型规范标准 |
3.1 MPEG-4人脸模型规范的基本概念 |
3.1.1 人脸定义参数 FDP( Facial Definition Parameter) |
3.1.2 人脸动画参数单元 FAPU(Facial Animation Parameters Unit) |
3.1.3 人脸动画参数 FAP(Facial Animation Parameter) |
3.1.4 讨论与分析 |
3.2 基于 MPEG-4的改进的CANDIDE-3模型 |
3.2.1 CANDIDE-3模型概述 |
3.2.2 改进的 CANDIDE-3模型 |
3.2.3 子模型特征点及路径的定义 |
3.2.4 模型的控制 |
3.3 小结 |
第四章 人脸建模及特征定位技术 |
4.1 人脸特征定位方法回顾 |
4.2 基于色彩信息的Snake模型的面部特征轮廓线提取 |
4.2.1 轮廓线初值的确定 |
4.2.2 基于彩色 Snake模型的轮廓线精确定位 |
4.2.3 下颚轮廓线的提取 |
4.2.4 实验结果与分析 |
4.3 基于三维可变形模板的特征提取 |
4.3.1 三维可变形眼睛模板 |
4.3.2 能量函数的定义 |
4.3.3 可变形模板的匹配 |
4.3.4 实验结果与分析 |
4.4 特定三维人脸模型的建立 |
4.4.1 全局变换 |
4.4.2 局部变换 |
4.4.3 纹理贴图 |
4.4.4 实验结果与分析 |
4.5 小结 |
第五章 基于MPEG-4的人脸动画实现方法 |
5.1 MPEG-4中人脸动画的工作原理 |
5.1.1 MPEG-4中人脸动画的基本原理 |
5.1.2 基于 FAP值的三维人脸网格点坐标计算方法 |
5.2 人脸动画定义表 |
5.2.1 人脸动画定义表的概念及其作用 |
5.2.2 标准人脸模型的人脸动画定义表构造方法 |
5.3 人脸模型人脸动画系统的实现 |
5.3.1 OpenGL技术概述 |
5.3.2 OpenGL实现模型的三维动画 |
5.3.3 人脸动画系统的实现 |
5.3.4 实验结果与分析 |
5.4 小结 |
第六章 总结与展望 |
6.1 本文工作总结 |
6.2 进一步的研究工作 |
参考文献 |
致谢 |
(10)基于MPEG-4的真实感三维人脸动画实现方法(论文提纲范文)
中文摘要 |
Abstract |
第一章 绪论 |
1.1 计算机动画简介 |
1.2 三维人脸动画简介 |
1.3 三维人脸建模简介 |
1.4 本文的工作及章节安排 |
第二章 一种新的基于MPEG-4 的三维人脸动画实现方法 |
2.1 MPEG-4 简介 |
2.2 一种新的三维人脸动画实现方法 |
2.3 试验结果及分析 |
2.4 本章小结 |
第三章 用于动画的三维人脸建模 |
3.1 三维人脸几何模型的表示及构建方法 |
3.2 基于DFFD 变形算法的人脸建模方法 |
3.3 面部器官的细微调整 |
3.4 试验结果及分析 |
3.5 本章小结 |
第四章 三维人脸动画系统的实现 |
4.1 系统设计目标 |
4.2 系统设计框架 |
4.3 用户界面设计 |
4.4 试验结果总结 |
第五章 结论和展望 |
致谢 |
参考文献 |
个人简历及攻读硕士期间的成果 |
四、MPEG-4人脸动画技术和一个基于MPEG-4的人脸动画系统的设计(论文参考文献)
- [1]基于单目相机的人脸实时交互动画技术研究[D]. 杨心如. 电子科技大学, 2020(07)
- [2]手机3D动画中人物表情的自动生成[D]. 赵檬檬. 北京工业大学, 2019(03)
- [3]语音驱动虚拟说话人研究[D]. 唐郅. 西南交通大学, 2017(07)
- [4]真实感三维人脸唇形动画系统的语音驱动[D]. 朱明会. 吉林大学, 2014(10)
- [5]基于语音驱动的人脸口型动画系统[D]. 崔明. 吉林大学, 2012(09)
- [6]基于情景模型的3D人脸动画驱动[D]. 张睿. 电子科技大学, 2010(04)
- [7]基于汉语驱动人脸语音动画的研究[D]. 罗琰钦. 电子科技大学, 2009(11)
- [8]真实感三维人脸表情动画的设计与实现[D]. 陈盈科. 电子科技大学, 2009(11)
- [9]基于MPEG-4的人脸建模和动画实现研究[D]. 刘洁娟. 华东师范大学, 2008(11)
- [10]基于MPEG-4的真实感三维人脸动画实现方法[D]. 蒋秀凤. 电子科技大学, 2006(12)