重要进展!谷歌 AI 发布开源最新视听觉算法,秒学习,神同步

时间:2019-09-02 来源:www.ican-cintest.com

DeepTech Deep Technology 3天前我想分享

随着人工智能技术的发展,该领域的焦点小组现在已经从技术行业的一些人转变为未来的国家关注趋势。在技术领域,已经有相关的项目或技术产品可以“移植”来自不同来源的视频对象和动作。然而,更多业内人士认为,这项技术实际上并不完美。大多数技术来自存储在数据库中的摄像机图像模型和大数据的模型训练。这种方法需要很长时间,并且不断得到验证和测试。错了,结果是一个完整的人体图像合成技术。

但是,如果有一种方法可以实时跟踪声音和图像,形成对齐效果,并通过即时学习“移植”不同源视频的对象,它是否更快,更有效?

图| Google AI Venturebeat)

最近,谷歌人工智能团队的研究人员提出了一种称为时间周期一致性学习(TCC)自我监控的人工智能培训技术,它类似于即时模仿,可以在一个连续的过程中找到每一个(例如对棒球的多次攻击)。然后,使用AI算法将帧和特定动作之间的对应关系立即复制到下一个相同的动作。

目前,谷歌已经将TCC代码打开到GitHub存储库,并希望更多的开发人员可以在自己的应用程序中使用这种算法和相关技术。

当你想喝水时,你会拿到杯子,然后拿起水。该过程按特定顺序执行。整个顺序无法逆转,类似的视频将具有这样的顺序和对应关系。

幼苗长成树木,每个人每天起床,上班,回家的日常生活,或按特定顺序倒一杯水。如果您想要“移植”来自不同来源的特定细分,则需要TCC。

什么是TCC?根据Google AI,使用时间段一致性的原则,“逐帧跟踪”按特定顺序改变,包括声音,视点,对象大小,容器形状等的变化,以通过对齐收集和查找对应关系学习并“移植”有用部分的视觉表示。

该算法选择视频的每个参考帧,在其中嵌入空间(非像素空间),并执行连续的AI训练。在嵌入时,它有选择地和语义地理解视频过程中?亩魃舷挛模馗春椭馗础T诟醚废拢纬裳芬恢滦缘摹敖又Α惫叵怠?

据报道,训练算法的目的是使用处理图像的任何网络架构(例如ResNet)学习帧编码器,即在视频中添加马赛克,调整移动等,并在这些中变得更有用。场景。在下图中,Google AI团队展示了一个使用宾夕法尼亚大学行动数据集项目TCC培训的模型,该项目研究了深蹲练习视频序列数据。

图左侧的每个点对应于帧嵌入,并且显示的点将跟踪当前视频帧的嵌入,并且该点将随着视频帧的改变而改变。尽管在姿势,灯光,身体等方面存在许多差异,但TCC仍然可以在不提供任何点标记的情况下同步视频和模型。

谷歌人工智能团队表示,TCC可以在少量视频的情况下形成实时学习模型,实现“同步”。随着视频数量的增加,手动对齐或同步视频变得非常困难。使用TCC技术来对齐许多参考和剪辑,而无需其他类别和标签。例如,在下面的动画中,TCC完美地对齐了25个棒球投手视频的动作,这非常强大。

此外,TCC还可以将一次倾倒和牛奶的声音传输到另一个视频,以便视听大致同步,并且没有不服从感。

与之前DeepFake使用的大量人脸识别样本相比,Google AI团队发布的TCC自我监控AI培训技术的图像合成技术概述了人脸的形状,更加高效便捷。

事实上,可以制作假图片和虚假视频的人工智能技术不仅仅是DeepFake,而且由于采用了GIS深度学习技术,相关技术在过去五年中已经出现。

然而,这种TCC自我监控AI训练技术更像是模型模仿,而不是GAN等长期训练的结果。 Google Research的研究助理Debyatta Dwibedi表示,这项研究对于研究视频的研究人员以及想要使用机器学习来调整视频对象,调整马赛克等的艺术家来说非常有用。

随着移动互联网产业的发展,可以产生虚假图片和视频的人工智能技术门槛越来越低。现在随机搜索互联网“AI Face Change”,你会发现很多神经网络培训课程,如果你有编程技巧,从开源社区获取代码和数据就可以构建自己的框架和培训。

即使你不知道如何构建一个神经网络,理解晦涩难懂的论文,甚至不知道如何编程,在互联网上已经有现成的变脸软件,如Fakeapp和Faceswap。只要计算机硬件足够强大,按照教程,制作简单的面部改变短视频并不困难。

因此,Google AI团队制作了开源TCC自我监控AI培训技术,这使得更多人能够使用和应用AI技术。

在开源和技术进步的支持下,Google AI团队发布的TCC自我监控AI培训技术更像是一项重要变革,也是人工智能未来发展的重要节点。

- 结束 -

参考:

收集报告投诉

随着人工智能技术的发展,该领域的焦点小组已经从一些科技产业人口转变为未来的国家重点趋势。在技术领域,已经有相关项目或技术产品可以“嫁接”来自不同来源的不同视频对象和动作。然而,更多业内人士认为,这项技术并不完美。其中大部分来自存储在数据库中的摄像机图像模型和大数据的模型训练。这种方法耗时较长,经过不断的验证和反复试验,最终形成了完整的人体图像合成技术。

但是,如果有一种方法可以实时跟踪声音和图像,形成对齐效果,并通过即时学习“移植”不同源视频的对象,它是否更快,更有效?

图| Google AI Venturebeat)

最近,谷歌人工智能团队的研究人员提出了一种称为时间周期一致性学习(TCC)自我监控的人工智能培训技术,它类似于即时模仿,可以在一个连续的过程中找到每一个(例如对棒球的多次攻击)。然后,使用AI算法将帧和特定动作之间的对应关系立即复制到下一个相同的动作。

目前,谷歌已经将TCC代码打开到GitHub存储库,并希望更多的开发人员可以在自己的应用程序中使用这种算法和相关技术。

当你想喝水时,你会拿到杯子,然后拿起水。该过程按特定顺序执行。整个顺序无法逆转,类似的视频将具有这样的顺序和对应关系。

幼苗长成树木,每个人每天起床,上班,回家的日常生活,或按特定顺序倒一杯水。如果您想要“移植”来自不同来源的特定细分,则需要TCC。

什么是TCC?根据Google AI,使用时间段一致性的原则,“逐帧跟踪”按特定顺序改变,包括声音,视点,对象大小,容器形状等的变化,以通过对齐收集和查找对应关系学习并“移植”有用部分的视觉表示。

该算法选择视频的每个参考帧,在其中嵌入空间(非像素空间),并执行连续的AI训练。在嵌入时,它有选择地和语义地理解视频过程中的动作上下文,重复和重复。在该循环下,形成循环一致性的“接枝”关系。

据报道,训练算法的目的是使用处理图像的任何网络架构(例如ResNet)学习帧编码器,即在视频中添加马赛克,调整移动等,并在这些中变得更有用。场景。在下图中,Google AI团队展示了一个使用宾夕法尼亚大学行动数据集项目TCC培训的模型,该项目研究了深蹲练习视频序列数据。

图左侧的每个点对应于帧嵌入,并且显示的点将跟踪当前视频帧的嵌入,并且该点将随着视频帧的改变而改变。尽管在姿势,灯光,身体等方面存在许多差异,但TCC仍然可以在不提供任何点标记的情况下同步视频和模型。

谷歌人工智能团队表示,TCC可以在少量视频的情况下形成实时学习模型,实现“同步”。随着视频数量的增加,手动对齐或同步视频变得非常困难。使用TCC技术来对齐许多参考和剪辑,而无需其他类别和标签。例如,在下面的动画中,TCC完美地对齐了25个棒球投手视频的动作,这非常强大。

此外,TCC还可以将一次倾倒和牛奶的声音传输到另一个视频,以便视听大致同步,并且没有不服从感。

与之前DeepFake使用的大量人脸识别样本相比,Google AI团队发布的TCC自我监控AI培训技术的图像合成技术概述了人脸的形状,更加高效便捷。

事实上,可以制作假图片和虚假视频的人工智能技术不仅仅是DeepFake,而且由于采用了GIS深度学习技术,相关技术在过去五年中已经出现。

然而,这种TCC自我监控AI训练技术更像是模型模仿,而不是GAN等长期训练的结果。 Google Research的研究助理Debyatta Dwibedi表示,这项研究对于研究视频的研究人员以及想要使用机器学习来调整视频对象,调整马赛克等的艺术家来说非常有用。

随着移动互联网产业的发展,使用能够制作假图片和假视频的人工智能技术的门槛越来越低。现在,如果你在互联网上搜索“AI face change”,你会发现很多神经网络训练教程。如果您具有编程技能,则可以通过从开源社区获取代码和数据来构建自己的框架和培训。

即使你不知道如何构建一个神经网络,你也无法阅读尴尬的论文,甚至是一本不懂编程的白皮书。互联网上已有现成的变脸软件,如Fakeapp和Faceswap。只要计算机硬件足够强大,请按照教程进行操作。制作一个简单的改变面貌的视频并不难。

因此,Google AI团队开辟了TCC自我监控AI培训技术,这对于更多人使用和应用AI技术非常有益。

随着开源和技术进步的捆绑,这次由Google AI团队发布的TCC自我监控AI培训技术更像是一个重要的变化,也是AI前进的重要节点。

末端 -

参考: