去年炒【ds】DeepSeek,今年炒【sd】Seedance2.0。

明天就是除夕了,祝喝油們新年快樂喵,本來今天放假的,有感而發又寫了一篇。

在國內 AI 火起來,是一年前的 DeepSeek。

差不多就是去年的這時候。

我感覺,

AIGC 的童年時代結束了,即將到來的是 AIGC 的青年時代。

這幾天整個互聯網,尤其是 B 站都被Seedance 給刷屏了。

(有點像當時 Sora2,畢竟視頻的傳播屬性就是強。)

也就是去年二月這個時候,

那時候 DeepSeek 剛出來,

以一種近乎破局者的姿態登場,用混合專家模型MoE架構證明了高效能與低成本可以兼得,

一轉眼,整整一年過去了。

你會發現歷史總是驚人的相似卻又在螺旋上升,這次輪到字節跳動了。

Seedance 2.0 這次的震撼,我個人感覺更大。

我這裏直接上馮驥老師(遊戲科學創始人)的評價:

馮老師的洞察特別深刻,我就是看了他這番話有感而寫這篇文章。

我也分享一下自己做的即夢 Case(這是米哈遊絕區零的一個角色,甚至連胸部的抖動都復刻了。。。)

我把視頻上傳即夢了,放鏈接又被判定引流。。。

https://jimeng.jianying.com/s/tgrAqKSwiKM/

也附上即夢官方的焚訣:

https://bytedance.larkoffice.com/wiki/A5RHwWhoBiOnjukIIw6cu5ybnXQ?from=from_copylink

我問了我身邊的影視從業者,漫劇行業的朋友,

他們的回答都是十分悲觀,甚至有些開始恐慌自己將要失業了。。。

在 Seedance2.0 還沒出的時候,我大言不慚的說影視從業者要培養導演思維,

因爲這是 AI 目前不會的。

結果 Seedance2.0的分鏡,剪輯,導演思維,超過 90% 的普通人。


現在網絡上已經有非常多 Seedance2.0 的測評了,

本文就不花太多篇幅講它有多強,主要來自己發發牢騷和分享一些拙見。

未來的初級影視創作者的方向。

說實話,我非常迷茫。

如果說DeepSeek打破了西方在基礎大模型上的壟斷神話,

那麼Seedance 2.0則是把AI視頻從玩票性質的抽卡遊戲,真正推向了工業化生產的新階段。


我試着點開了幾個演示視頻。

是 Sora2 之後給我最大的驚豔,以前那些 AI 視頻,

人臉動不動就崩壞,喫麪條能喫到鼻子裏去,看着跟恐怖片似的。

Seedance2.0 的神力,隨便打開抖音 B 站都能看到。

Seedance其核心技術底座在於雙分支擴散Transformer架構。

(圖源自字節跳動官方)

不同於市面上常見的先生成視頻後匹配音頻的串行邏輯,Seedance 2.0通過注意力橋接機制,

讓視覺與聽覺在毫秒級的時間維度上實現了視聽同構,這意味着視頻裏的玻璃破碎聲和腳步聲都能實現原生的聲畫同步,而無需後期對位。

(圖源自字節跳動官方)

用戶可以像向攝影師下達指令一樣,通過自然語言並配合最多12個參考文件,

其實更誇張的是,你可以直接上傳一張分鏡圖,它就可以根據分鏡圖生成短片。

(更更離譜的,上傳一張小說圖片,他會識別圖片中文字內容,生成視頻。。。這個 Case沒放出來)

再放一個《絕區零》的分鏡圖 Case(op 實錘)

等待時間,11 個小時。。

沒辦法,實在是太火了,而且我還氪金了會員。。。。


等了差不多 6 小時,終於生成出來的,質量也是超級高。

(鏈接同上)

那一刻我有點恍惚。

我想起小時候在村口看露天電影,那時候覺得那是城裏人的魔法。

現在,這魔法就在我這個破iPhone裏。

這東西已經不是簡單的玩具了,是工業化。

OpenAI 的Sora2,現在看來,也沒那麼香了,甚至有點受潮了。


但我感覺年後應該沒過多久,其他大廠又會猛猛發力追上字節,

那現在,就讓我們,

先恭喜字節跳動,

也享受第一個 AI 時代的春晚吧。

更多遊戲資訊請關註:電玩幫遊戲資訊專區

電玩幫圖文攻略 www.vgover.com