其他

AIGC虚拟数字人相关政策

  • 日期 2024-06-11
  • 作者深圳市瑞立视多媒体科技有限公司
  • 浏览量:598
  • 分享次数:1

AIGC虚拟数字人相关政策有哪些?202210月,工业和信息化部、教育部、文化和旅游部、国家广播电视总局、国家体育总局等五部门联合发布《虚拟现实与行业应用融合发展行动计划(2022-2026)》,旨在促进虚拟现实在经济社会重要行业领域实现规模化应用,目标到2026年,三维化、虚实融合沉浸影音关键技术重点突破,新一代适人化虚拟现实终端产品不断丰富,产业生态进一步完善,下面就和瑞立视一起来看看AIGC虚拟数字人的相关内容。

目前,国内已有30多个地市出台相关支持政策,其中大部分为引导型,主要引导方向为技术自主化,打造数字人自主产业链产品工具化,培育一体化、自动化、批量化的数字人开发工具,以及鼓励企业探索产业应用。

这意味着我国数字人产业也将逐步迈入深水区,涉及直播带货、虚拟客服、数字员工等多个应用场景,都在探索数字人落地的新模式和业务闭环。通过脱虚向实的发展,数字人产业正不断扩大B端市场,面向更广大的C端用户提供服务。

AIGC虚拟数字人是怎么发展的?

期发展阶段

虚拟数字人的概念最早可以追溯到20世纪末,随着计算机图形学和动画技术的发展,简单的虚拟人物开始出现在电影、电视和视频游戏中。这一阶段的虚拟数字人主要依赖于手工建模和动画技术,虽然表现力有限,但为未来的发展奠定了基础。

人工智能引入

随着人工智能技术的迅速发展,虚拟数字人进入了一个新的发展阶段。尤其是深度学习和神经网络的突破,使得虚拟数字人在视觉、听觉和行为上更加逼真和智能。具体包括:

1视觉生成:

GANs(生成对抗网络)GANs的引入使得生成高质量、逼真的虚拟人脸成为可能。DeepFake等技术利用GANs生成高度逼真的人脸图像和视频,为虚拟数字人的视觉表现力带来质的飞跃。

3D建模与动画:结合机器学习技术,虚拟数字人的3D建模和动画变得更加自然和实时。例如,基于骨骼动画和表情捕捉技术,虚拟数字人可以表现出丰富的面部表情和肢体动作。

2听觉生成:

语音合成:利用神经网络的TTSText-to-Speech)技术,可以生成自然、流畅的虚拟人物语音。这使得虚拟数字人在与用户的交互中更加生动和逼真。

语音识别和自然语言处理:结合语音识别和自然语言处理技术,虚拟数字人可以理解和回应用户的语音指令,提供智能对话功能。

以上就是瑞立视给大家带来的AIGC虚拟数字人相关政策的相关内容,想要了解更多数字影棚实训室产教融合型企业3D虚拟直播动作捕捉设备的用户可以直接咨询瑞立视。