AIGC虚拟数字人相关政策
- 2024-06-11
- 深圳市瑞立视多媒体科技有限公司
- 浏览量:598
- 分享次数:1
AIGC虚拟数字人相关政策有哪些?2022年10月,工业和信息化部、教育部、文化和旅游部、国家广播电视总局、国家体育总局等五部门联合发布《虚拟现实与行业应用融合发展行动计划(2022-2026年)》,旨在促进虚拟现实在经济社会重要行业领域实现规模化应用,目标到2026年,三维化、虚实融合沉浸影音关键技术重点突破,新一代适人化虚拟现实终端产品不断丰富,产业生态进一步完善,下面就和瑞立视一起来看看AIGC虚拟数字人的相关内容。
目前,国内已有30多个地市出台相关支持政策,其中大部分为引导型,主要引导方向为技术自主化,打造数字人自主产业链;产品工具化,培育一体化、自动化、批量化的数字人开发工具,以及鼓励企业探索产业应用。
这意味着我国数字人产业也将逐步迈入深水区,涉及直播带货、虚拟客服、数字员工等多个应用场景,都在探索数字人落地的新模式和业务闭环。通过脱虚向实的发展,数字人产业正不断扩大B端市场,面向更广大的C端用户提供服务。
AIGC虚拟数字人是怎么发展的?
早期发展阶段:
虚拟数字人的概念最早可以追溯到20世纪末,随着计算机图形学和动画技术的发展,简单的虚拟人物开始出现在电影、电视和视频游戏中。这一阶段的虚拟数字人主要依赖于手工建模和动画技术,虽然表现力有限,但为未来的发展奠定了基础。
人工智能引入:
随着人工智能技术的迅速发展,虚拟数字人进入了一个新的发展阶段。尤其是深度学习和神经网络的突破,使得虚拟数字人在视觉、听觉和行为上更加逼真和智能。具体包括:
1、视觉生成:
GANs(生成对抗网络):GANs的引入使得生成高质量、逼真的虚拟人脸成为可能。DeepFake等技术利用GANs生成高度逼真的人脸图像和视频,为虚拟数字人的视觉表现力带来质的飞跃。
3D建模与动画:结合机器学习技术,虚拟数字人的3D建模和动画变得更加自然和实时。例如,基于骨骼动画和表情捕捉技术,虚拟数字人可以表现出丰富的面部表情和肢体动作。
2、听觉生成:
语音合成:利用神经网络的TTS(Text-to-Speech)技术,可以生成自然、流畅的虚拟人物语音。这使得虚拟数字人在与用户的交互中更加生动和逼真。
语音识别和自然语言处理:结合语音识别和自然语言处理技术,虚拟数字人可以理解和回应用户的语音指令,提供智能对话功能。
以上就是瑞立视给大家带来的“AIGC虚拟数字人相关政策”的相关内容,想要了解更多数字影棚实训室、产教融合型企业、3D虚拟直播、动作捕捉设备的用户可以直接咨询瑞立视。