AI范兒 · 教程實測
前兩天我寫了小龍蝦里可以接入 Seedance 2.0 生成視頻,很多人來問:需要排隊嗎?
說實話,那個和即夢官網一樣,也是排隊到讓人想砸電腦的。
但昨晚我熬夜挖到了一個寶藏平臺:LibTV。
用的是滿血版 Seedance 2.0,不僅完全不需要排隊,還直接把視頻生成玩成了“連連看” 。
先看這條視頻。我沒有上傳任何圖片素材,純文字輸入,從劇本到成片,就幾分鐘。
再看一眼這個炸裂的工作流:從劇本到最終成片,全部在一個畫布里拖拽完成。
![]()
我都沒法說它是個做視頻的,這玩意簡直是把電影廠搬到了畫布上,幾分鐘就能“搓”出一部短劇,而你要做的就是點幾下鼠標。
這一直是我夢想中的流程,沒想到真有人給做出來了!這種體驗都遠超即夢本身,這才是 AI 時代該有的效率。
01LibTV 是什么,跟即夢有什么區別?
簡單說:可靈、Seedance,這些是模型。LibTV 是平臺。
把市面上主流的視頻生成模型全部接進來,你不用一個一個去注冊、一個一個充值,在這里一站搞定。
3月18日發布,上線首日訪問量突破10萬。
但它最“不講武德”的地方在于工作流設計
平時做視頻,是割裂的。
劇本用一個工具,分鏡換一個,生成再跳一個,剪輯還得去剪映,切來切去煩死人。
LibTV 把這些全打通了,像搭積木一樣把整個項目塞進一塊畫布:
劇本 → 視頻腳本 → 分鏡設計 → 視頻生成 → 成片 全部在 LibTV 一個畫布里完成
分鏡圖可以用 Seedream,視頻生成可以用 Seedance 2.0 或者可靈。這些工具里最牛的那幾個,全串在一起了。
![]()
![]()
這種整合能力,簡直就是視頻生成領域的“全能工作站”。
簡單說:它是視頻界的“達芬奇”,順便干碎了來回橫跳的痛苦。
02Seedance 2.0,有多強
Seedance 2.0 目前是地表最強的視頻生成模型,不了解的可以看我之前的詳細測評。
以前生成視頻完全靠運氣,80% 都是廢片,基本就是抽卡。
Seedance 2.0 現在可以精確到每個鏡頭的時間碼、景別、運鏡方式,甚至音效在幾秒出現。
還支持把文字、圖片、音頻、視頻混合起來做參考,音效對白跟著視頻一起生成。
提示詞
生成一段廢墟探險電影開場。
0-3秒:極低角度特寫,荒草從龜裂地面鉆出,鏡頭緩慢抬起。
4-8秒:中景,一個穿風衣的身影背對鏡頭站在坍塌的大樓入口,鏡頭推近。
9-12秒:第一視角,進入廢墟內部,光線從破洞射入,塵埃漂浮。整體青灰色調,無人聲,配合低沉環境音。
LibTV 加上 Seedance 2.0,真的是王炸組合。
廢話少說,直接看案例。
03我測了什么,結果怎么樣
登錄 liblib.tv,點"開始創作",你會發現它跟以前用過的工具完全不一樣。
![]()
這里有四種模式:故事腳本生成、角色三視圖、首幀圖生視頻、音樂生視頻。
簡單理解就是:放完整劇本來文生視頻、圖生視頻、音樂驅動視頻,以及一個專門維持人物形象一致性的角色三視圖。
動漫角色走進真實世界
選擇首幀生視頻,換上自己的圖,寫提示詞,選好模型、時長、比例、是否開啟聲音,點生成。
![]()
動漫線條感保留了,背景是寫實的霓虹和雨水,沒有明顯割裂感,光影方向也是對的。
坦率說,這個結果我有點驚到了。以前動漫角色進寫實場景,基本一眼就看出割裂,這次融合得比我預期干凈很多。
LibTV 的畫布設計也特別好用:同一張素材可以反復用,生成不滿意就直接點加號修改提示詞再來,所有結果都擺在無限延伸的畫布里,一眼全看到。
![]()
同一張臉,兩個完全不同的世界
Seedance 2.0 的形象保持是真的強。
用 AI 生成了一個女性角色圖,然后用同一張圖,生成了雨天咖啡館和暴風雪山頂兩條完全不同的視頻。
![]()
兩條視頻里,人物的發色、輪廓、五官保持得相當穩定。
以前的 AI 視頻基本做不到這一點,同一個描述每次出來就是不同的人。
這個能力對做內容的人意味著什么?
意味著你可以真正"簽約"一個虛擬角色,讓她持續出鏡,而不是每期視頻都換一張臉。
一張分鏡表,直接出片
這個是最吸引我的地方。
就像前面說的,在 LibTV 里可以:從劇本直接生成腳本、分鏡圖,再批量生成視頻,最后批量下載到剪映剪輯。
![]()
對某個片段不滿意,直接在畫布里改提示詞重新跑。
有個小 bug 要說:分鏡表里定義好的每段視頻時長,批量生成時沒有被執行,只能選統一長度。
幾十條視頻批量跑,偶爾有幾條提示詞違規要單獨改,可能導致情節不連貫。期待后面能修掉。
(比如我開頭的視頻有幾個片段其實就是失敗后換模型生成的)
對了,漫畫也可以直接丟進來,它會把每個格子當一個分鏡來生成視頻。
![]()
這個在漫劇方向的潛力,我覺得還遠沒被挖出來。
當然,正常的電影分鏡就更完美。
音樂驅動卡通角色動起來
Seedance 2.0 可以根據音樂卡點和聲音來生成視頻。
操作簡單到離譜:把圖片和音頻放一起,連到視頻生成節點,寫提示詞,生成。
![]()
先用 AI 生成了一個卡通女生角色圖,再上傳一段音樂。
卡點視頻也可以這樣做,以前做卡點視頻要手動一幀一幀對節奏,現在扔進去它自己踩點。
做短視頻的朋友應該很感興趣。
讓她在歌廳唱歌:同期聲測試
Seedance 2.0 這次開始支持同期聲,音效、對白、甚至音樂跟著視頻一起生成,不用后期單獨配了。
上傳一張手持麥克風的女性圖片,讓她在歌廳舞臺上深情演唱。
我記得不久前還有很多專門做口型同步的應用,而現在生成的視頻口型直接是對好的。
一夜之間,那類 APP 又都歇菜了。
動作和運鏡,同時復刻
Seedance 2.0 支持參考動作和運鏡來生成視頻,只要把形象圖和參考視頻放在一起,就能直接出片。
說實話,這次這個案例我踩了不少坑。Seedance 對形象和版權卡得很嚴,試了好多次都沒通過。
![]()
我在之前的測評里做過,動作層面復刻得不錯,運鏡也跟得上。以前要靠極其復雜的提示詞才能接近的效果,現在直接放一段參考視頻進去就行。
武術指導要失業了。(開個玩笑,但真的只是半開玩笑。)
它不再只是"生成素材"的工具,它開始在"直接出片"了。素材生成和成片之間那道墻,正在變薄
04在聊天里直接出視頻,不用打開任何網頁
現在小龍蝦這么火,LibTV 這么強大,居然也能在里面直接用。
比如我跟我的小龍蝦說:
用 LibTV 生成一個視頻,以這個卡通女生為主體,吉卜力動畫風格。黃昏山丘,她手握一封信,讀完后將信紙舉向天空,粉色雙馬尾大幅飄動。鏡頭從側面緩緩推近到臉部,眼睛里有光。遠處山谷燈火剛亮,天色從橙紅轉向深藍。手繪水彩質感,暖橙冷藍色調,風聲與隱約鋼琴聲。時長12秒。
過一會,它就會直接把視頻發給我,在飛書里打開就能看了。
要做到這個很簡單,直接跟你的小龍蝦說"幫我安裝 LibTV API Skills",它會乖乖幫你裝好。
裝完之后到網頁上申請一個 Access Key,把 key 給小龍蝦設置,或者自己設置都行。(export LIBTV_ACCESS_KEY="你的訪問密鑰")
![]()
之后就可以像前面那樣,直接在聊天里讓小龍蝦幫你生成視頻了。生成的視頻在 LibTV 后臺也能找到,小龍蝦會直接給你鏈接,點進去就能下載。
![]()
這才是 AI 原生工作流該有的樣子。
你說清楚要什么,工具之間自己調度,不用你來回切軟件。我想到這里可以延伸的玩法,就已經開始手癢了。
05兩個需要提前知道的事
關于真人授權
Seedance 2.0 因為過于強大,上線時關閉了上傳真人照片生成視頻的功能。好消息是15號開始會開放,但需要授權確認才可以繼續。
![]()
目前這一步卡得比較嚴,我這次測試里有好幾個案例只能改成卡通人物。相信很快會放開。
關于審核
跟即夢一樣,讓我抓狂。
有些提示詞被直接拒,但不告訴你具體哪個詞有問題。只能一個字一個字改著試,反復提交。我有一個案例改了將近N次才過。
這應該是 Seedance 本身的問題,是整個行業的通病。忍著,等某一天。。。
測完這一天,我反復想一個問題。
以前說 AI 視頻是"生成素材",創作者拿素材去剪、去配音、去出片,AI 只是其中一環。
但在 LibTV 上用了 Seedance 2.0 之后,這個邏輯正在變。不再是"AI 生成素材,人來出片",而是"人說想法,AI 直接出片"。
對獨立創作者來說,這是紅利。一個人能做的事,邊界正在往外推。
對傳統影視制作流程來說,這個問題值得認真想一想了。
你用 LibTV 跑出來什么有意思的東西了嗎?評論區告訴我,看到都會回覺得有用 → 點個??在看轉給還不知道的朋友點個贊 告訴我你看完了關注「AI范兒」,下次更新第一時間收到
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.