社区所有版块导航
Python
python开源   Django   Python   DjangoApp   pycharm  
DATA
docker   Elasticsearch  
aigc
aigc   chatgpt  
WEB开发
linux   MongoDB   Redis   DATABASE   NGINX   其他Web框架   web工具   zookeeper   tornado   NoSql   Bootstrap   js   peewee   Git   bottle   IE   MQ   Jquery  
机器学习
机器学习算法  
Python88.com
反馈   公告   社区推广  
产品
短视频  
印度
印度  
Py学习  »  aigc

HiDream.ai姚霆:Sora出圈,中国AIGC创业公司能否突出重围?|阿尔法family

阿尔法公社 • 1 年前 • 235 次点击  

阿尔法公社:OpenAI的Sora横空出世,是一个历史性的里程碑,扩散模型结合Transformer,在视觉领域实现了与大语言模型类似的突破。

Sora的出圈,让人们不禁疑问,中国AIGC创业公司能否在这场视觉生成的技术和商业革命中突出重围?对此,HiDream.ai智象未来CTO姚霆博士进行了技术解读。

HiDream.ai自研的“智象视觉大模型”已成为目前全球同时支持图像和视频生成的最大模型,模型参数已超过130亿,实现文本、图片、视频等多模态内容的生成。

阿尔法公社在最早的时候就持续支持HiDream.ai团队的一路发展,期待他们赢得AI视觉生成这场技术和商业世界级比拼的胜利。

2月16日凌晨,OpenAI发布了自己的首个AI视频生成模型Sora。这是一个历史性的里程碑,扩散模型结合Transformer,在视觉领域实现了与大语言模型类似的突破。毫无疑问,视觉生成领域将有一次大的技术和商业革命。

国内生成式人工智能初创公司HiDream.ai智象未来在成立之初即立下做国内最厉害的多模态视觉大模型的目标。在成立不到一年的时间,自研的“智象视觉大模型”已成为目前全球同时支持图像和视频生成的最大模型,模型参数已超过130亿,实现文本、图片、视频等多模态内容的生成。

团队在研究相关技术后也进行了相应的分析,本文将带来HiDream.ai智象未来CTO姚霆博士的技术解读,以及HiDream.ai对于AI生成视频技术在影视级应用方面的思考与实践。

如果您对人工智能的新浪潮有兴趣,有见解,有创业意愿,欢迎扫码添加“阿尔法小助理”,备注您的“姓名+职位”,与我们深度连接。

智象未来CTO 
对Sora的技术解读

姚霆博士,智象未来联合创始人兼CTO
以下出现所有视频均由HiDream.ai千象产品生成
千象:www.hidreamai.com
在探讨视频生成技术革新之前,我更愿意去思考电影这一独特的视频艺术美学。在众多关于电影本质的观点与探讨中,最让我印象深刻是这些:

“电影是一种介于现实和梦幻之间的艺术形式。”
“电影是一种时间艺术,它捕捉了时间的流动和变化。”
“电影是一种视觉艺术,它利用图像来讲述故事和表达情感。”
从技术的角度可以对照着去解读电影/视频的本质:

  • 它可以是介于现实和梦幻之间的一个新的世界(类似于盗梦空间的新的时空世界)
  • 也可以是 2D 平面在时间维度的流动和变化(视频帧的序列)
  • 还可以说从静态图像出发,依托故事和情感来驱动(静态图像加上对应的全局/局部运动)

目前主流的模型框架Diffusion model和Auto-regressive model,恰好对应着前两种视频本质。Video Diffusion model往往将视频看作一个时空的网格世界,并用3D卷积神经网络/Transformer来进行编码;Auto-regressive model则将视频理解为连续帧的序列,搭配GPT典型的自回归模型来进行编码。Diffusion model基于扩散模型加噪去噪的机制可以更好地结构化并生成较高质量画质的视频内容,而Auto-regressive model更适合长上下文语境理解,天然适配多模态对话的生成方式。

AI生成视频,一个典型的技术流程是:利用LLM自动生成剧本来驱动视频,提升故事逻辑性,加入全局/局部运动的控制,实现精细的全局运镜和局部动作,最终结合图像/视频增强生成4K/8K的超高清视频。

从视频商业化路径来看,故事逻辑性、视觉可控性与画质高清是实现视频产品落地最后一公里的三大要素,也是电影这一视觉艺术在用户侧最直击内心的因素。

HiDream.ai面向广大创作者推出了AI生成图片和视频的工具——Pixeling 千象(www.hidreamai.com,千象万相),帮助用户一站式生成精准可控的图片、视频,经过视频增强后生成的4k超清画质,完美展现脑中灵感。非常多用户使用千象制作完成了他们的“电影大片”,比如这位来自北京电影学院数字媒体专业的研一学生,用千象制作了《Savague Daughter》这部北欧童话短片,通过精美的画面展现壮丽魔幻的风景,带领观众攀登高山、穿越怒海、深入龙巢、翱翔天空;展现有些女孩生来即代表智慧与勇敢并存的化身。

接下来再谈谈最近当红的Sora,很多人问我怎么看,我只能说是平面世界看(一个手机屏幕),甚至于还打着灯光看(因为是在北京时间半夜发布),这也对应着我的第一个观点:

01.Sora是一个world simulator,是2D的平面世界在1D时间维度上的流动与变化。
实际上,我们真正的世界是一个3D的立体世界(2D的平面世界+1D深度),再叠加1D时间维度才是一个4D原生的世界模型

从这个角度去看,Sora可以说是4D原生世界的一个低阶版本(去除了1D 深度),当然也有很多人猜测Sora训练数据里包含了3D渲染数据,通过这样一种data-driven的方式去模拟视频中的3D视觉效果,这也可称之为是对世界模型的模拟。

02.Sora的出现也会促使技术人员去重新思考视频生成的设计逻辑。

Video Diffusion model会有两种设计理念:一种是image-to-video,即先训练一个文生图模型,然后再训练图生成视频模型;另一种是 joint-image-video,即文生图、文生视频的联合训练。而Sora的底层逻辑是world simulator(2D的平面世界+ 1D时间维度),所以采取了video-native的设计理念,即将整个2D的平面世界+1D时间维度编码为时空模块(space-time patches),这样图像作为单帧视频很自然的加入模型的训练,同时Sora模型训练完成后可以无缝切换为图像生成模型。

03.为什么是OpenAI实现了Sora?
在我看来Sora是OpenAI集成自己语言(GPT)、视觉理解(GPT4-V)和图像生成(DALL-E)多种能力的一个出口。视频作为一门更为灵动、更具表现力的艺术美学,有着独特的时空魅力,成为多模态内容展现的一个绝佳载体。

智象未来
追赶同时打造自己的差异化

总结来说,Sora的视频生成技术架构本身并未有大的创新,还是Diffusion Transformer,这说明视频AIGC技术架构尚未收敛。目前,智象未来团队已经完成图像Diffusion Transformer架构 130 亿参数规模的训练,计划二月份推出重大迭代的图像基础模型(V3.0);同时,HiDream.ai也在积极将这一技术迁移到视频生成领域,预计三月底实现视频基础模型大幅升级(V2.0)。
智象未来的独特之处在于我们对视频生成过程中的关键要素——视觉故事性、内容确定性、超高清画质(4K/8K)以及全局和局部的可控性——的专注。这些特性正是影视行业的核心需求,也是Sora乃至行业目前尚未实现的。HiDream.ai预计在三月底的视频模型将在一致性、生成时长和连贯性等方面带来显著提升,为用户带来更加丝滑、顺畅的视频生成体验!
本文作者
姚霆,联合创始人兼CTO
姚霆博士是计算机视觉和多媒体领域的全球知名学者,他发表的论文被引用1.5万余次,先后10余次获得国际学术竞赛冠军,设计了视频分析领域标准的3D卷积神经网络Pseudo-3D Network,构建的业界首个大规模视频文本数据集MSR-VTT被全球四百余研究机构的学者下载使用,并研发了多款全球数百万日活用户的商业产品,他曾任京东科技算法科学家和微软研究院研究员。

姚博士获评2022 年度中国图象图形学学会科技进步奖一等奖,2022 IEEE ICME Multimedia Star Innovator,2019 ACM SIGMM Rising Star,2019 IEEE TCMC Rising Star,并在多个国际学术组织中担任重要职位。

本文作者为HiDream.ai联合创始人兼CTO姚霆博士。

更多精彩内容



关于阿尔法公社

Python社区是高质量的Python/Django开发社区
本文地址:http://www.python88.com/topic/167375
 
235 次点击