當(dāng)前位置:區(qū)塊鏈 >區(qū)塊鏈 > Pika 1.0徹底顛覆動畫行業(yè)!夢工廠創(chuàng)始人預(yù)測3年內(nèi)動畫成本降至1/10

Pika 1.0徹底顛覆動畫行業(yè)!夢工廠創(chuàng)始人預(yù)測3年內(nèi)動畫成本降至1/10

更新時間:2023-12-29 11:01:00 | 作者:佚名
原文來源:新智元 圖片來源:由無界AI?生成 夢工廠創(chuàng)始人斷言:3年內(nèi)動畫行業(yè)將徹底變天,成本下降90%。而Pika1.0的發(fā)布,預(yù)示著這一天將很快來臨。 最近,夢工廠創(chuàng)始人JeffreyKatzenberg預(yù)測,生成式AI將使動畫電影的成本在未來3年內(nèi)降低90%,因為該技術(shù)將給媒體和娛樂行業(yè)帶來徹底地顛覆。 「如果從歷史的角度來看,鋼筆、畫筆、印刷機(jī)、靜...

原文來源:新智元

圖片來源:由無界 AI?生成

夢工廠創(chuàng)始人斷言:3年內(nèi)動畫行業(yè)將徹底變天,成本下降90%。而Pika1.0的發(fā)布,預(yù)示著這一天將很快來臨。

最近,夢工廠創(chuàng)始人Jeffrey Katzenberg預(yù)測,生成式AI將使動畫電影的成本在未來3年內(nèi)降低90%,因為該技術(shù)將給媒體和娛樂行業(yè)帶來徹底地顛覆。

「如果從歷史的角度來看,鋼筆、畫筆、印刷機(jī)、靜態(tài)相機(jī)、電影攝影機(jī);這些東西以非凡的方式擴(kuò)展了創(chuàng)造力和講述故事的方式,人類已經(jīng)見證過這種發(fā)展軌跡?!?/p>

他表示,「我不知道還有哪個行業(yè)會比媒體、娛樂和創(chuàng)作受到生成式AI影響更大?!?/p>

「我認(rèn)為,一方面,它將具有顛覆性,并將當(dāng)今藝術(shù)家和講故事的人難以接觸到的東西商品化。」?

「在我制作動畫電影的美好時光里,500 名藝術(shù)家花了五年時間才制作出一部世界級的動畫電影。我認(rèn)為未來3年,這個成本將縮減到10%」

「在我看來,未來個人的創(chuàng)造力將決定一切」。

而AI視頻領(lǐng)域,也確實(shí)入他所說,技術(shù)在一日如十年地突飛猛進(jìn)。

Pika 1.0 ,用戶幾分鐘就能做出迪士尼級別的動畫短片

前幾天火爆全網(wǎng)的Pika Labs發(fā)布正式版1.0。

官方做的第一個視頻展現(xiàn)出的動畫效果,豪不夸張地說,已經(jīng)能達(dá)到迪士尼等動畫電影公司的質(zhì)感了。

怪不得夢工廠的創(chuàng)始人會有如此預(yù)言,也許就是Pika這樣面向未來的動畫工具,讓他看到了行業(yè)(bei)革命的曙光。

視頻中我們可以看出,雖然每個鏡頭的時間還不長,但是動畫人物的一致性,畫面質(zhì)感,已經(jīng)和大型動畫公司制作出來的動畫沒有太大的區(qū)別了。

而自從Pika 1.0開放了邀請體驗以后,網(wǎng)上越來越多的案例被放了出來??赐赀@些用Pika 1.0做的動畫之后,似乎都覺得這個3年90%的預(yù)測稍微保守了一些。
這個機(jī)器人過圣誕節(jié)的動畫,除了鏡頭切換的稍顯頻繁之外,幾乎很難挑出哪里有明顯的毛病。

機(jī)器人來回的幾個鏡頭一致性很高,完全沒有了AI動畫之前那種換一個鏡頭之后主角就會完全變樣的硬傷。

機(jī)器人沒有一句臺詞,但是依然向觀眾傳達(dá)了一個簡單的情節(jié)。在此基礎(chǔ)之上發(fā)展出一個好故事,一個AI動畫短片就完成了。

而這個動畫,按照作者的說法是為了慶祝Pika1.0的上線。

雖然動畫中只有一個簡單的黑夜場景,但是禮花效果的一致性很好,城市中黑夜的光影也很多樣,效果絢麗。
而且不同的鏡頭錯落有致,氛圍渲染的非常到位。

而這一個段的動畫,看得出臉部效果畸變的問題也幾乎被Pika解決了。

雖然人物臉部動作不明顯,但是也保持了非常好的一致性,大大改善了之前AI動畫最大的短板。

而這一段動畫,已經(jīng)可以說是一段「AI小電影」了。

站在夕陽中的泰坦尼克號上的Jack,身邊的Rose換成了一只憨態(tài)可掬的大熊貓,效果還居然一點(diǎn)都不違和。

這后邊大大的「To Be Continued」,也暗示了未來AI動畫行業(yè)的故事才剛剛開始。

也許當(dāng)動畫制作的門檻不斷降低,每個有優(yōu)美故事的創(chuàng)作者,就能夠完全地釋放自己的創(chuàng)造力,制作出足夠精良的視頻來呈現(xiàn)精彩的故事。

Gen-2推出動態(tài)畫筆,賦予用戶更大的控制能力

Gen-2推出「動態(tài)畫筆」,讓用戶能夠自由地決定視頻中的動態(tài)效果。一條推特短短幾天時間閱讀超過160萬。


就像傳說中的「神筆馬良一樣」,用戶只要鼠標(biāo)一拖,就能讓靜態(tài)的圖片按照自己的意愿動起來。


不論是背景的運(yùn)動,還是圖片中的具體景物,人物,都能生成自然的運(yùn)動效果。


無論是畫面中的汽車,煙霧,瀑布,火焰,人物,都能自然運(yùn)動。


湖面,船舶,人像,魚缸中的金魚,都能地開始運(yùn)動。


可以想象,在賦予用戶如此之強(qiáng)的動態(tài)效果控制能力之后,制作動畫和視頻的成本將會大大降低。
也許未來,每個普通人就能像寫字一樣,用幾張圖片,幾個小時,就能動態(tài)生成一段自己創(chuàng)作的視頻。

5秒就能生成3D素材
動畫內(nèi)容制作另一個領(lǐng)域——3D建模,也在AI技術(shù)的推動下不斷推陳出新。
最近由Adobe和澳大利亞國立大學(xué)研究員發(fā)表的一篇論文,提出了一個用2D圖像直接生成3D素材的技術(shù),徹底震撼了業(yè)界。


項目地址:https://yiconghong.me/LRM/
作者稱,只需要5秒鐘,他們的模型就能將給定的一幅2D圖像轉(zhuǎn)化為3D素材。


除了普通的3D素材之外,可互動的3D素材也可以用模型生成。


這個基于Transformer構(gòu)架的3D模型,具有5億個參數(shù),在短短5秒內(nèi)就能從一個輸入的圖像預(yù)測出他的3D模型,而且可以直接從數(shù)據(jù)集預(yù)測神經(jīng)輻射場(NeRF)。

研究人員在包含大約 100 萬個對象的海量多視圖數(shù)據(jù)上以端到端的方式訓(xùn)練模型,其中包括來自O(shè)bjaverse的合成渲染和來自MVImgNet的真實(shí)捕獲。

高容量模型和大規(guī)模訓(xùn)練數(shù)據(jù)的結(jié)合使模型具有高度通用性。


相信,伴隨著3D建模技術(shù)的不斷發(fā)展,也許他們的Pika 1.0時刻也不遠(yuǎn)了。

到時候,就像社交媒體出現(xiàn)之后,自媒體和信息傳播的方式會產(chǎn)生很大變化一樣,當(dāng)AI動畫將動畫制作的門檻大大降低之后,我們將會進(jìn)入一個視頻媒體大爆炸的時代。


參考資料:
https://twitter.com/pika_labs/status/1722817227664306636
https://twitter.com/runwayml/status/1723033256067489937
https://arxiv.org/abs/2311.04400
https://yiconghong.me/LRM/

本站提醒:投資有風(fēng)險,入市須謹(jǐn)慎,本內(nèi)容不作為投資理財建議。