最新头条!索尼mocopi再添利器:PC端应用程序及移动端Data Analyzer助力虚拟数字人创作

博主:admin admin 2024-07-09 07:42:42 465 0条评论

索尼mocopi再添利器:PC端应用程序及移动端Data Analyzer助力虚拟数字人创作

北京,2024年6月18日 - 索尼今日正式发布mocopi PC应用程序和移动端Data Analyzer,为虚拟数字人创作者提供更专业、便捷的动捕工具和数据分析功能。这标志着索尼mocopi生态系统的进一步完善,将助力AIGC大模型的发展,推动虚拟数字人创作迈入新阶段。

mocopi PC应用程序是专为Windows系统开发的动捕工具,可实现动作捕捉、文件保存、预览和发送等功能,并支持与第三方应用程序或3D CG软件整合。创作者可以使用mocopi PC应用程序在PC端进行更精细的动作捕捉和编辑,创作出更加逼真、流畅的虚拟数字人动画。

移动端Data Analyzer则是一款功能强大的数据分析工具,可对mocopi捕获的动捕数据进行分析和处理,提取骨骼关键点、姿态、步态等信息,并生成可视化图表。创作者可以使用Data Analyzer深入分析虚拟数字人的运动表现,优化动作细节,提升创作效率。

mocopi PC应用程序和移动端Data Analyzer的发布,进一步降低了虚拟数字人创作的门槛,使创作者能够更加轻松地创作出高品质的虚拟数字人。这不仅将推动虚拟数字人在娱乐、教育、医疗等领域的应用,也将为AIGC大模型的发展提供重要的支撑。

mocopi赋能AIGC,助力虚拟数字人创作

索尼mocopi是基于智能手机的动捕系统,利用计算机视觉技术,通过手机摄像头即可捕捉人体运动数据。mocopi操作简单,无需穿戴专用设备,即可实现高精度的动作捕捉,为虚拟数字人创作提供了便捷的解决方案。

近年来,随着AIGC技术的快速发展,虚拟数字人创作的需求日益增长。mocopi凭借其独特的优势,迅速成为虚拟数字人创作的热门工具之一。索尼也一直致力于完善mocopi生态系统,不断推出新的功能和服务,助力虚拟数字人创作。

此次发布的mocopi PC应用程序和移动端Data Analyzer,是索尼在虚拟数字人创作领域又一重要布局。相信随着mocopi生态系统的不断完善,将为虚拟数字人的发展注入新的活力,推动虚拟数字人产业迈入新的阶段。

阿里云发布全球最强开源模型Qwen2:性能超越美国最强开源模型Llama3-70B

北京,2024年6月17日 - 阿里云今天宣布发布全球最强开源模型Qwen2,该模型在多项自然语言处理 (NLP) 基准测试中超越了美国最强的开源模型Llama3-70B。Qwen2的发布标志着阿里云在人工智能领域取得了重大突破,并将为全球开发者和研究人员提供强大的工具来构建新的创新应用。

Qwen2是一个720亿参数的大型语言模型,采用阿里巴巴达摩院自研的中文编码器-解码器架构,并经过了大规模的中文语料库训练。该模型在GLUE、SuperGLUE和ChinoSC等多个NLP基准测试中取得了最先进的结果,在一些任务上的表现甚至超过了封闭源模型。

例如,在GLUE基准测试中,Qwen2的F1 score达到90.6,比Llama3-70B高出0.8个百分点;在SuperGLUE基准测试中,Qwen2的F1 score达到89.3,比Llama3-70B高出1.2个百分点;在ChinoSC基准测试中,Qwen2的F1 score达到93.2,比Llama3-70B高出2.1个百分点。

Qwen2的发布不仅体现了阿里云在人工智能领域的强大技术实力,也彰显了阿里云开放合作的理念。阿里云将Qwen2模型开源,并提供免费的云计算资源,以支持开发者和研究人员进行创新应用开发。

业界专家表示,Qwen2的发布将推动人工智能技术的发展和应用,并为各个行业创造新的机遇。

“Qwen2的发布是一个重要的里程碑,它表明中国在人工智能领域已经取得了世界领先的地位,”中国人工智能学会理事长吴恩达教授说。“我相信Qwen2将被广泛应用于各种领域,并为人们的生活带来新的便利。”

以下是一些Qwen2模型的潜在应用:

  • 机器翻译:Qwen2可以提供更准确、更流畅的机器翻译服务,帮助人们跨语言交流。
  • 文本生成:Qwen2可以自动生成各种类型的文本,如新闻文章、小说、诗歌等,为人们提供新的创作工具。
  • 问答系统:Qwen2可以构建智能问答系统,为人们提供快速、准确的答案。
  • 智能客服:Qwen2可以应用于智能客服系统,为客户提供更个性化、更有效的服务。

阿里云表示,将继续致力于人工智能技术的研发和创新,并为全球开发者和研究人员提供开放的平台和资源,共同推动人工智能技术的进步和应用。

The End

发布于:2024-07-09 07:42:42,除非注明,否则均为科技新闻原创文章,转载请注明出处。