许多年前,我听高晓松在《晓说》里讲他在好莱坞混的那一段经历,有一个点我印象非常深刻:

他说在洛杉矶好莱坞的周边,你找一家餐厅或者咖啡馆,然后随便问一个那里的服务员——

“你的剧本写到哪里了?”

然后服务员就会立马真的掏出她正在写的剧本,兴高采烈地来跟你讲她写了一个什么样的故事。

在那种地方,到处都是充满梦想和野心的年轻人。

所以我在想,AI视频的进步和狂奔,最开心的应该就是那些边端盘子边写故事的服务员了。

没错,如果你稍微关注AI 视频制作,那么你肯定对 SeeDance 2.0 不陌生,这个在国内火到国外的视频生成模型,就是目前业界的 SOTA。

但作为一个创作者,要愉快地用SeeDance 2.0并不容易,你往往会遇到两个问题——

第一,模型排队排到天荒地老,你创作的时候很烦躁。

第二,从创意到成片,你需要在五六个不同的工具之间反复横跳。

所以当我听说LibTV上线了Seedance 2.0模型的时候,我唯一关注的点就是——他们解决了上面哪个问题?

答案是:全都解决了。

至少,它在非常认真地尝试全都解决。

少废话,先看东西——

作为一个几乎没有怎么做过AI 视频的小白,以下是我用LibTV花几分钟做出的片子——

我的第一个任务:用LibTV的SeeDance 2.0还原《百年孤独》的开头——

“多年以后,面对行刑队伍,奥雷里亚诺上校准会想起父亲带他见识冰块的那个遥远的下午。”

为什么选这个?

因为一句话里塞了三个时间层:刑场的现在、童年的过去、以及多年以后这个跨度本身。

很显然,要把它变成影像,并不好拍。

我让LibTV先用剧本节点帮我写了英文版的提示词,最后是成品——

就问一句,牛逼不牛逼?

马尔克斯写了那句话,几十年来每个读者脑海里各自想象着画面,现在有我自己的版本了。

嗯,大满足!

注意——这是一次性直出的结果,没有抽卡。

第二个任务,还原我念小学三年级的闺女最近很喜欢的一首诗,崔护的《题都城南庄》——

“去年今日此门中,人面桃花相映红。 人面不知何处去,桃花依旧笑春风。”

一扇门,一次有人,一次没人,那个意境不容易。

以下是两个版本的成片——

Seedance 2.0对场景一致性的把控很强:院墙、桃树的形态,两组镜头几乎严丝合缝。

还配合了物是人非的留白,很走心了。

第三个任务是还原《三体:死神永生》中云天明和程心在拉格朗日点相会的场景。

在引力平衡点上,云天明与他爱了一辈子的女人重逢,他们只有很短的时间。 

LibTV给出的太空环境质感很硬核,云天明在麦田里晒得黝黑的形象,程心的心境都刻画的相当不错。

《三体》死忠粉应该知道这个还原度相当可以了。

宇宙那么大,他们终于见面了,却还是那么远,是我要的感觉。

Seedance2.0把刘慈欣埋文字里残忍,给还原了。

效果那么炸裂,聊一聊LibTV这个东西本身。

3月18日,LiblibAI发布了这个AI视频创作平台,上线首日访问量突破了10万。

这个数字在AI工具圈里算相当亮眼了——要知道,这并非一个面向大众的AI工具。

LibTV有一句介绍:它是目前唯一一个同时为人类创作者和AI Agent设计的视频创作系统。

现在来说说重头戏:Seedance 2.0。

这个模型是4月2日正式在LibTV上线的。

坦率讲,名字你可能觉得陌生,但如果我说StarVideo,做AI视频的朋友大概率会知道——坊间很火的那个模型,大家争相使用的,实际上用的就是Seedance 2.0。

这次是和字节深度合作后的正式开放版本。

所以Seedance 2.0是一个已经被大量创作者验证过实力、现在终于正式登场的最强模型。

它和之前的视频生成模型有什么本质不同?

我觉得最关键的一点是:它是一个具备多镜头叙事能力的AI视频引擎。

传统的AI视频模型,你给它一段描述,它给你生成一个几秒的片段,效果可能很惊艳。

但你要做一个完整的故事,需要自己把很多个这样的片段拼起来,自己管理角色一致性,自己设计转场和分镜,自己把握节奏,整个导演的活儿还是你自己来。

Seedance 2.0不一样。

你给它一个创意描述,它能自动拆解剧情结构,生成具备连贯性的多镜头视频——有分镜、有转场、有节奏控制,它开始兼职导演了。

而且它的音视频一体化生成和多模态输入控制也是业内领先的。

我们看看真实的创作者都拿它做了什么。

LibTV上线以来,已经有不少创作者用它产出了相当有质量的作品。

我挑几个说说。

巨妮Junie做了一部叫《曜·AURAE》的AI电影,将近两分钟,视频号上互动破了七千。

仔细那个片子,镜头语言是非常章法的,有明确的叙事推进和情绪节奏。

陈困困的《起风之时》,接近五分钟的AI电影,全网互动破了三万。

五分钟且保持叙事完整性,这在以前是巨大的工作量,但用LibTV 可以很快地完成。

“小明MINJA”的AI MV,“JaneDoeCreates”做了AI电影以及“动不动就饿”的《惊梦奇谭》。

这些作品有一个共同特点:它们有可辨识的个人风格,有能打动观众的情绪,超越了之前的Demo,是一个完整的作品。

没错,工具变得好用了,创作者的个人表达才能真正浮现出来。

我真正觉得有意思的,是LibTV这个平台如何思考AI视频工作流这件事。

做AI视频最大的瓶颈就是在多个平台中转辗。

业内很受欢迎的AI 视频创作者海辛和阿文,在分享他们工具的时候会列很多——

生图工具、修图工具、生视频工具、放大工具、3D工具。

说明一个完整的作品大概率需要多个平台切换完成。

LibTV的做法是:把这些全塞到一块无限画布里。

打开LibTV,你看不到传统视频编辑器的时间线,呈现的是一块画布,上面可以自由摆放五种节点——

文本节点(写剧本、人物小传)、图片节点(角色设定、场景设计)、视频节点(生成片段、导入素材)、音频节点(配乐、音效、旁白)、还有脚本节点(专门为分镜和结构化文本设计的)。

所有节点可以自由拖拽、复制、连线。

▲ LibTV无限画布工作区 —— 一个完整的AI短剧项目在画布上的全景展示

你做一支30秒的产品广告,左边是一列人物设定文本,中间是根据设定生成的人物三视图和场景图,右边是根据这些图生成的视频片段,下面是一条全局旁白脚本和几条备选配乐。

这些全都同时存在于一张画布上,你抬眼就能看到整个项目长什么样。

这个设计其实就是想把创作者脑子里那些杂乱的创意线头,变成了画布上可以拖拽的节点和连线。

LibTV真正的杀手锏是工作流。

所有节点之间可以用连线搭建工作流,让一整条创作链路变成可以一键重跑的配方。

比如:

文本分镜→ 批量生成分镜图 → 拼成故事板

场景草图→ 光影矫正 → 视频化 → 高清增强

一旦你调出了一条顺手的流程,可以直接打包为工作流模板,以后做类似项目时,打开画布、换一批输入,就能复用整套流程。

这有多重要呢?

假设你做一个Vlog系列栏目:固定开头3秒风格、固定镜头节奏、固定字幕样式。在没有工作流之前,每一期你都要从头来一遍。

有了工作流,你把这套东西连起来存成模板,以后每一期只要扔进新素材,稍微调整文案和封面,整条视频就能按既定风格生产出来。

接下来要聊的是LibTV Skill。

前面说了,LibTV同时为人类和Agent设计,画布和工作流主要面向人类创作者,而Skill则是给Agent准备的接口。

在龙虾(OpenClaw)等Agent运行环境的IM入口里,你可以直接调用LibTV平台上的各种模型——Seedance 2.0、可灵3.0、Lib Nano Pro。

不需要打开网页,不需要手动操作画布,Agent直接调用专业级视频创作能力。

目前已经实现或正在开发的Skill能力包括:

一句话生成5分钟短剧一个链接复刻同款视频一首音乐生成一支MV官网链接生成产品展示片。

安装skills后去 Liblib.TV 官网登录账号,在账户 / 设置区域就能找到并复制你的access_key,就可以使用了。

把这些Skill能力放在一起看,会发现LibTV想成为AI视频创作领域的基础设施。

人可以用,Agent也可以用,用的是同一套专业级能力。

聊完功能,得说说大家最关心的两件事:速度和价格。

先说速度。

Seedance 2.0在LibTV上的表现,是我测试过的最快的Seedance 2.0视频生成体验。

具体来说:基本无排队,单条生成约2到3分钟。

用过AI视频模型的人都知道排队有多痛苦,兴冲冲地写好prompt点击生成,然后——“您前面还有47人排队,预计等待时间35分钟”。

等拿到结果的时候,灵感早就凉了,改完prompt又得重新排。

不排队意味着什么?

意味着可以进入创作心流,改一个参数马上看到结果,不满意立刻调整重来,满意了就往下推进。

这种即时反馈的节奏,才是创作该有的状态。

LibTV之所以能做到不排队,一方面是和字节有深度合作在底层做了优化,另一方面是在稳定性和效果呈现上做了额外的工程工作。

再说价格。

LibTV目前有一波相当给力的优惠活动:

买会员赠Seedance 2.0和可灵免费使用额度,最高得180条。

这个赠品价值高达几千元,240条视频生成额度,如果你真的在认真做内容,这个量基本够你连续创作好一阵子了。

首购积分包限时双倍,最高免费赠3万积分,积分支持Seedance 2.0可用,相当于用半价跑模型。

顶级模型专享包——可灵O3+3.0、Lib Nano Pro、Lib Nano 2——比原厂低30%。

这个价格优势对重度用户来说非常实在。

说实话,我很少在我的文章里花这么大篇幅聊价格和促销。

但AI视频创作有一个现实:算力成本是真金白银,如果跑一条视频的成本太高,创作者就不敢大胆试错。

我自己平时玩摄影,出片的一个诀窍就是咔咔多拍,但如果告诉我每拍一张都要高额的费用,那我也是很难出片的。

所以,降低成本本质上就是在降低创作门槛,这和产品功能同样重要。

最后想聊一个更大的问题:AI视频创作这件事,到底走到哪一步了?

把AI视频的发展比作互联网的发展,我觉得我们现在大概处在2005年左右的位置——

YouTube刚刚出现,人人都知道在线视频是未来,但基础设施(带宽、编解码、内容生态)还在快速建设中。

2025年是模型井喷的一年,Sora、可灵、Seedance、Wan……各家的视频生成模型陆续登场,每隔几周就有一个新模型。

但模型只是引擎,创作者要的是一辆车。

LibTV试图做的就是造车,给你一整套从创意到成片的生产工具和流程,这和最近业界在讲的Harness Engineering 思路是一致的,模型也需要支撑它的脚手架。

你去看看传统影视行业的发展历程,技术突破固然重要,但真正推动产业成熟的,从来都是工具和工作流的标准化。

好莱坞的强大一方面得益于它的工业硬件,但更重要的事它有一整套从剧本到上映的工业化流程。

AI视频行业现在缺的,恰恰就是这个,LibTV在这个方向上迈出了很实在的一步。

当然,我也不想把话说得太满。

LibTV毕竟是一个刚刚发布不久的平台,3月18日上线,到现在满打满算也就两周。Seedance 2.0昨天(4月2日)才正式上线。

但有几件事是相对确定的:

第一,AI视频创作从玩具走向工具的趋势不可逆转,越来越多的创作者在用AI做真正的内容而不只是demo,这个方向不会倒退。

第二,打游击的创作方式(打开十几个网页和软件来回切换)必然会被一体化平台替代。就像Figma之于设计、Notion之于文档,AI视频创作领域也需要自己的集成式工作空间。

第三,人类+Agent的双重创作模式是一个大趋势,未来的视频内容,很可能是人类提供创意,Agent负责执行和优化。

这也是LibTV同时服务两个入口的设计的核心原因。

写在最后

最近看到了不少逼格很高的AI短片,很多时候,我的第一个感觉是——这个作者好牛逼,而不是AI好牛逼。

的确,工具再强,也得有人知道怎么用它讲故事。

在这个意义上,LibTV叠加Seedance 2.0做的事情,是释放创作者。

所以,你想讲的故事在哪里?

LibTV产品地址:https://www.liblib.tv/

——End——