千影 QianYing是巨人网络推出的有声游戏生成大模型,包含游戏视频生成大模型YingGame和视频配音大模型YingSound。YingGame面向开放世界游戏,是巨人网络AI Lab与清华大学SATLab联合推出的,能实现角色多样动作交互控制和物理仿真特性,与YingSound结合可生成匹配画面的复杂音效。YingSound是巨人网络AI Lab、西北工业大学ASLP Lab和浙江大学联合推出的,能为无声视频添加逼真音效,具备视频语义理解和时间对齐能力。千影 QianYing旨在通过AI技术降低游戏开发门槛,推动游戏创作平权,加速“游戏+AI”创新。
千影 QianYing的主要功能YingGame的主要功能:角色动作交互控制:YingGame能实现角色多样动作的交互控制,用户能自定义游戏角色的动作和外观。物理仿真特性:模型具备强大的物理模拟特性,能模拟真实世界的物理效果,增强游戏的真实感。视频生成:结合自研的视频配音大模型YingSound,YingGame能根据游戏画面生成匹配的复杂音效,实现有声游戏视频的生成。交互能力:YingGame能理解用户的输入交互,如鼠标、键盘操作,控制角色进行多种动作。YingSound的主要功能:时间对齐与视频语义理解:YingSound具备超强的时间对齐能力和视频语义理解能力,能精确地为视频添加音效。高精细度音效生成:模型能为各类视频,包括真实场景、动漫和游戏视频,生成多种类型的高精细度音效。多样化应用场景:YingSound支持从视频或视频文本结合的方式生成高保真音效,具备多样化应用场景的泛化能力。跨模态对齐效果:基于创新的技术架构和强化学习,YingSound在生成效果、时间对齐及视频语义理解等方面达到业界领先水平。千影 QianYing的技术原理YingGame的技术原理:物理仿真特性:集成物理引擎模拟现实世界的物理规则,如重力、碰撞等,增强游戏的真实感和沉浸感。跨模态学习:基于跨模态学习技术,将视觉信息与音效信息结合起来,生成与游戏画面匹配的音效。YingSound的技术原理:音频-视频同步技术:基于精确的时间对齐技术,确保生成的音效与视频内容同步,涉及到复杂的时间序列分析。深度神经网络:用深度神经网络来生成高精细度的音效,神经网络能学习从视频内容中提取的关键特征,转化为相应的音效。千影 QianYing的项目地址项目官网:ga-me.com千影 QianYing的应用场景开放世界游戏开发:在开放世界游戏中,创建具有复杂动作和物理交互的角色,提供更加真实和沉浸式的游戏体验。游戏视频内容创作:游戏开发者生成高质量的游戏预告片、剧情动画和其他视频内容,提升游戏的市场吸引力。游戏教育和培训:在教育领域,创建模拟环境和情景,用在技能训练或安全教育,提高学习效率和效果。游戏直播和电子竞技:为游戏直播添加特效和音效,提升直播的观赏性和互动性,同时为电子竞技赛事提供更加生动的观看体验。游戏测试和原型设计:快速生成游戏原型,加速游戏设计和测试过程,减少开发时间和成本
上一篇