CG 動畫技術將來會不會下放到遊戲?

現在遊戲的畫面越來越好

而且也因為全面進入PS4,XO的時代,畫面也成為了大家的購買依據之一

想問兩個問題:

1)可不可以認為CG技術是real-time的探路先鋒,也即是說曾經只有CG才能使用到的一些高級技術將來會使用在real-time的運算中

2)如果當前已經有將CG技術用於real-time的,能否簡單舉一些例子

為了避免混淆,CG指的是CG動畫,類似於皮克斯、夢工廠那樣的動畫電影


謝邀。前面幾位回答都挺好的,涵蓋了大部分情況。我這裡做一些補充。

(我這裡按照offline和realtime分,offline對應題主的CG。以為邏輯上不管offline還是realtime都是CG。)

對於題主的兩個問題,

&>&> 可不可以認為CG技術是real-time的探路先鋒,也即是說曾經只有CG才能使用到的一些高級技術將來會使用在real-time的運算中

之前一直是這樣的,絕大部分方法都是offline里先有了,再被放到realtime中。這是運算量和運算能力的嚴重不對等,再加上研究重點是offline。但是這幾年,在GPU出現之後,據我觀察是03-08年那段時間,絕大部分渲染方面的人都衝上去搞realtime。(有個被認為是國內領先的圖形大神曾經指著我的鼻子說,GPU就是個大hack,你搞他幹什麼。1年不到,他就跑過來說,咱們應該全面搞GPU,這東西太有道理了。)結果就是很多方法先在realtime出現或有了探索,再被用到offline里。這裡舉幾個例子。

1. 阿凡達的光影效果。在當年看起來覺得NB的不行了。如果完全用傳統方法,估計今年才看的到阿凡達。實在渲不動啊。所以他們才用了SH的近似來表示環境光和brdf。既然空間採樣的密集程度遠遠不是realtime能比的,渲染一幀的時間也不是realtime能做到的,但整個演算法框架甚至代碼都是從realtime過去的。

我為什麼知道?因為weta用了我給halo的代碼。經過複雜的授權鏈之後到了weta。

2. 從戰艦開始,電影里的fluid simulation都是在gpu上基於partile的模擬搞得了。粗略計算只要一秒而不是一夜,美術可以實時得到反饋。調參數容易多了。這個方法也是來自realtime fluid simulation。

3. Pixar的point cloud GI,和RSM在原理上是一致的。

總的來說,自從rendering equation出來之後,rendering就不再是「怎麼rendering」,而是「怎麼解rendering equation更快」。offline已經好多年沒有新內容出來了,在研究領域已經基本死掉。realtime還有一點創新,但也沒看到大的變革了。實時全效果GI這個聖杯還剩在那裡,其他問題都已經解決。

當時我們做了個橋接offline和realtime的方法 Global Illumination with Radiance Regression Functions。相當於挖了個大坑,給rendering提個新方向。結果這幾年也沒怎麼見人填坑,目前只有一篇cite。

&>&> 如果當前已經有將CG技術用於real-time的,能否簡單舉一些例子

realtime里來自offline的方法比比皆是啊。shadow map、shadow volume、AA ...

另外前面 @空月 提到的《大象之夢》,如果用RenderAnts在GPU上渲,07年的機器已經可以做到幾秒1幀,效果和電影相同。但即便如此,也遠非realtime可以承受之速度。單憑每個pixel 169次採樣這種最基本要求,都已經遠遠超過GPU的硬體AA能力。


CG和real-time的技術本質上沒有差異,無非是現在的硬體算不算得過來.


還是很難的 因為對於動畫來說 對於質量的追求是無止境的 而遊戲來說實時性才是第一位 像光線跟蹤全局照明之類的演算法用在實時中還要很久 當然現在也有了一些近似的演算法去提高渲染質量的。 比如svo cone tracing


主要還是受硬體限制 硬體跟不上 而且普及度也很低 想要達到那種硬體 估計按照現在的配置

你需要一台超級電腦 價格就不是一般人承受的了的


皮克斯動畫《藍雨傘》,只有33s,每幀渲染時間20-30小時

皮克斯2013最新短片《藍雨傘》首支片段

魔獸世界的片頭cg,不可謂不絢麗,但是,我相信你玩個遊戲,放個技能之後,你不會等了10分鐘,才看到技能的顯示情況。

這是《大象之夢》的動畫片,2005年5月,Blender Foundation主席兼核心開發者Ton Roosendaal提出,把Blender應用到電影上。Blender Foundation和Netherlands Media Art Institute共同投資。預定DVD也獲取了部分資金。9月1日前預定者都注名在影片的鳴謝名單上。渲染步驟由BSU Xseed捐贈了一個2.1 TFLOPS蘋果Xserve G5核心的超級計算機,位於Bowie State University。據說用了125天進行,每幅圖片用去2.8GB記憶體。


也許我不是做主機遊戲的,我至今沒用上流體模擬的水,帶肌肉的骨架,可以脫下來的布料,可以自適應細分的多邊形,基於數值生成的毛髮。這代主機上能給出很好解決方案的例子很少,刺客黑旗的水做的很不錯,但還不到流體模擬的地步,夜光的技術演示里的毛髮效果很棒,不過cto跳槽了,不知道後續開發如何。而這些都是離線渲染上爛大街的技術,解決方案也很成熟。從dx12的文檔里看也沒發現對這類東西有特別看重,短期看不抱樂觀態度,也許這代主機末期會有比較好的例子出現。 在遊戲公司里做圖像的程序員特別少,主要以做事務的邏輯程序員為主,並且是主流的,研究方向也是基於產品的解決方案,而非基於圖形的產品。

講個現實的例子,現在臭大街的法線貼圖技術在1998年的gdc上就有了最早的技術雛形,但實際我看到最早的案例是2004年,這中間差了6年,一直到現在廣泛應用最少經歷了10年。技術有了和實際應用那是兩種情況,題主所謂的下方應該就是指技術已經商品化,我的答案是慢慢來,也許還要10年

補充

cg不是realtime的斥候,它才是發展的正宗,兩個發展方向和特性完全不同,但是基於的原理是一樣的。

目前看起來碉堡了的realtime都是cg的超級閹割版,但是都針對realtime做了很多優化和改變,有的就是看上像,其實還不是。巫師3里的狼毛髮,夜光里的毛髮,那種細節在realtime下看起來碉堡了,在maya里只能算是預覽效果。realtime下的可破壞牆體,布料,都不是真的。神海3里的海輪關的海水是通過事先計算烘焙點動畫到低模上加紋理shader實現的。這種實現方法讓那些做cg的看了估計會笑掉大牙,但是在遊戲界可以在gdc上開壇講法,台下一片wow(以上情景是我猜的)


實時渲染的遊戲機畢竟是家用的,比起那些用超級計算機渲的CG,很多地方差太多了。

各種說自己遊戲是CG級畫質的說了20年了,結果現在各種預渲染的CG還是在用。

只要家用機和超級計算機沒有統一,有一定會有製作人用更牛逼CG去描述劇情。


現在遊戲趨向於不單獨做CG了,過場動畫都用即時演算完成,兩者的差距已經越來越小了。隨著機能的增強,估計下個世代就能玩到CG畫質的即時演算遊戲了。


其實你看到的早幾年的CG電影里用的技術和現在的遊戲是一樣的。雙方的基礎都是光柵化渲染,所以大部分技術在原理上都可以通用。

光線追蹤在電影界只是大量應用,並不是主體。

專門為遊戲開發的技術還真不多見,大多數是CG動畫就採用過的,只是到了遊戲里進一步簡化了而已。比如環境光遮蔽,最早是工業光魔提出的。

shadow map這種非常粗糙的東西做預渲染的時候也會用,只是嚴肅場合用的很少而已。


本質區別在於可負擔的計算量,如果放到雲端虛擬化的GPU集群上,非常複雜的帶剛體流體物理的CG場景一樣可以real-time,一個瀏覽器或客戶端即可實時交互,汽車廠商早已將雲端渲染用於汽車模型設計和展示,當然電影場景實時預覽就不用說了。很多遊戲畫面不如CG主要是光照和材質計算簡化了,隨著軟體演算法和硬體的進步,差距在迅速縮小,而CG這30年來可以說沒有本質進步,REYES和Ray-tracing都是30年前的內容了,物理模擬演算法更是50年前的內容被某些圖形學領域的學者重新引入。


比如 voxel GI 其實就是 pixar renderman的 brick map的縮水版。甚至於有一些實時的論文會引用renderman當年的論文。(先挖個坑,後面慢慢填)


大中華地區,不會。

美帝日韓,會。

遊戲也是cg行業的細分,且現在用的很多技術都是從影視行業過來的,原理相通。

但是,關鍵在於,這麼做是否有價值和有必要。主機世界大家的步子越邁越小,4A級大作的門檻擋住了大多公司,又拖垮了一些公司。

有空再補


推薦閱讀:

CG能自學么 需要準備什麼?
現在最強的專業動作捕捉技術是哪家呢,專業的和民用的性能和可用範圍差距如何,定位精度又達到了什麼地步?
SQUARE的CG與暴雪的CG相比,就藝術和技術角度而言,哪家更強?
最終幻想15的CG電影首周票房僅為34萬美元,原因何在?
如何評價殺戮都市:O(GANTZ:O)?

TAG:動畫 | 遊戲 | 計算機圖形學 | 遊戲開發者 | CG動畫 |