方正楊曉峰:AI大幅降低游戲制作成本,半年到一年內將取得突破性進展 | 見智研究
華爾街見聞·見智研究特邀到了方正證券AI互聯網首席分析師【楊曉峰】詳細拆解了AI大模型對游戲行業能夠帶來哪些降本增效的影響,并且初步預判該影響至少要二個季度才能反應在財務上。
核心觀點:
(相關資料圖)
1、AI現在有兩個大模型能夠極大程度提高游戲在美術制作流程上的效率,節省制作成本以及縮短時間。這兩個大模型分別是Stable Diffusion和NeRF模型,能夠分別在游戲美術制作過程中,對2D和3D場景和人物生成進行優化。
2、Stable Diffusion又稱文生圖模型,能夠生成多視角的2D圖,進一步為生成3D圖奠定基礎,但是條件受限于需要性能等級高的顯卡,因此在普通消費者群體中很難大范圍滲透。
3、NeRF模型主要是對2D-3D過程進行了降本增效,當前制作一個3D游戲角色的周期在30-45天左右,且需要的步驟較多,參與的人員眾多;使用NeRF可以快速建模,從而提高效率,節省成本。之前要10個工作日的工作現在只需要半天到一天就能完成,這相當于節省了90%的時間。
4、但是NeRF模型尚未達到引爆點,主要原因是該技術有一定壁壘,不過龍頭公司Luma AI,開發了NeRF相關的APP,目前已上線APP Store,極大的降低了NeRF的使用門檻,預計在未來的半年到一年內會取得突破性進展。
5、總得來看,AI模型能夠對游戲研發設計過程中成本和時間進行極大的優化,據不完全統計,在游戲的研發成本中美術成本一般占50%到80%。如果一個游戲公司的研發成本占70%,那么其中的40%基本上都可以大幅降低。
6、大公司和小公司的區別就是否只能降 2D 的錢,還是也能降 3D 的錢,如果 2D 和?3D 都能降低了,那么整個降本增效的幅度其實是60%-70%都不一定打得住,所以說下降的幅度其實非常大的。
正文:
見智研究:為什么AI在游戲的應用受到關注?
楊曉峰:
核心原因是游戲公司的商業模式相對比較優秀,他們有一定的資源可以運用AI模型。另一個原因是現在有很多 AI 模型已經比較成熟,例如 AI 作畫,這直接顛覆或者改變了游戲行業,所以目前來看游戲行業是最快應用 AI 的行業。當然,動畫行業也是類似的,因為現在國內和國外的技術水平基本持平,尤其在 AI 作畫方面。
最近我們注意到海外有一款游戲,其中有好幾個角色都是通過人工智能控制的??梢韵胂?,這款游戲就像《西部世界》一樣,游戲中的許多角色都有自己的成長軌跡和個性。在這個世界里,除了玩家自己以外,每個人都是真實的。這種體驗的沉浸感非常高,這種應用將會越來越普及。這種體驗其實就是 NPC 的一個改進。
我們還注意到另一個案例,當我們用游戲制作美術的時候,花同樣的錢,我們可以把整個美術場景做得越來越漂亮。過去,我們只能把在前面的視角做得比較漂亮,但現在花同樣的錢能把整個視覺都做得非常漂亮。我們已經看到很多這樣的案例。
此外,我們最近還發現了一個名為?Inword 的平臺。這個產品事先已經訓練好了各種非常有性格的人物角色,可以直接將這個代碼集成到游戲中。這樣游戲中可能會出現像馬斯克這樣有性格的角色。其他人已經把這些集成好了,只需要接入使用就可以了,游戲體驗將會得到非??焖俚母纳?。
見智研究:哪些AI模型可以應用于游戲領域?各自的特點是什么?
楊曉峰:
現在有兩種成熟的模型,一種是大文本模型,另一種是 2D 作圖模型,還有一種處于爆發期的2D轉3D NeRF模型。
第一類模型是文本生成模型,例如 ChatGPT 和國內的各種大模型,它們可以接受文本輸入并輸出對應的文本,這種模型被廣泛使用。但在游戲中,通常直接使用其中的角色。
第二類模型類似于文生圖,它可以根據輸入的文本生成各種各樣的圖片。這種模型已經非常成熟,大多數互聯網公司都在使用它來生成圖片。比較著名的有Stable?Diffusion和 Midjourney,其中Stable?Diffusion的使用較為廣泛,因為它所需的費用較少;Midjourney面向消費者,使用體驗較好,且對電腦的要求較低。因此,后續制作 2D 圖像時可以使用它。
現在還有一個模型即將爆發,可能會在未來半年到一年內實現,它是將 2D 轉化為 3D 的模型,名為神經輻射場(NeRF)。只需拍幾張照片,就可以立即生成一個包括場景和人物的 3D 模型。想象一下以前制作游戲時需要的場景圖,如刺客信條中的巴黎場景。現在只需花費一些資金用無人機拍攝一些視頻,就能立即將 3D 模型建立起來,成本降低非??臁_@是目前可能已經使用的模型。
見智研究:生成3D模型的方式有哪些?分別有何優劣?
楊曉峰:
過去生成 3D 的方法一般是通過畫平面圖進行建模,例如對于一個角色,可能需要從不同視角畫多張圖來進行建模。然后建模師會使用建模軟件一個個搭建,例如將立體的頭發貼到人臉上。這種方法需要花費大量的時間,可能需要 2 到 3 周才能完成一個人物的建模。優勢是每個物體都是比較精巧的立體結構,但劣勢在于時間成本很高,因此一般會交給外包公司去完成。
還有一種叫照相技術的方法,即通過拍攝物體的照片來建立模型,但是每張照片必須要重合50%才能建立一個模型,但這種技術對光影等細節處理比較困難,因此很少被使用。
最近開始使用的 NeRF 模型已經有了一篇公開的論文,目前可供使用的軟件只有兩個:Instant NGP和Luma。目前這兩個產品已經能夠做到只需拍攝一個物體,即可立即生成3D模型。但它也有缺點,即在制作產品時未考慮兼容性。
比如在英偉達的生態系統內制作了一個非常漂亮的3D模型,但我們并不會考慮將其優化并放到Unity或虛幻引擎中運行,因為3D建模完成后必須將其放入游戲引擎中才能產生最佳效果。目前看來,這個領域仍在發展中,但是Luma已將其插件放入虛幻引擎和游戲引擎中,它的進展可能會更快。我們可以這樣理解:目前這個模型并不十分開源,因此需要一些人工智能工程師才能更好地使用它。優點就是確實可以降低很大的成本,但是需要掌握一些相對高水平的技能。
見智研究:NeRF是否會替代原來的 3D 模型成為未來主流選擇?
楊曉峰:
我認為大概率會實現,因為行業目前的最新進展是,就像我們剛才介紹的,2D照片可以生成3D模型?,F在,行業最新的動態是可以直接進行修改,比如說我有一個自己的人物3D模型,我可以通過輸入文本,將我的人物頭像替換成馬斯克的頭像。這個技術已經相當成熟了。
最近,有一個海外的大一新生,對NeRF技術貢獻了非常迅速的進展。將來,你可以通過文本修改3D模型,例如,你可以讓它為你的模型加胡子或眼鏡。這個功能看起來非??犰牛蚕喈攺姶?,但如果你了解其原理,你就會發現其實并不是那么難,只是以前沒有人去優化。
現在大多數人使用模型進行嫁接,每個模型都有自己擅長的領域。例如,文本模型擅長處理文本輸入和輸出,Stable?Diffusion擅長生成 2D 圖像,而 NeRF 模型則擅長將 2D 圖像轉換為 3D 圖像。
未來的發展趨勢是將所有模型連接在一起,用戶只需簡單地表達意圖,模型就能幫助實現任務。目前,NeRF 模型是最具潛力的模型之一,但其尚未達到引爆點。預計在未來的半年到一年內,NeRF 模型會大放異彩。
見智研究:Stable?Diffusion模型的特點是?
楊曉峰:
我們剛才提到了 NERF 可以將 2D 照片轉換成 3D 圖片,而Stable?Diffusion 本質上是一個文生圖的工具。這個工具為什么會這么受歡迎?它目前的功能有多強大?
在去年的 11 月到 12 月之前,這個軟件其實并沒有什么熱度,但突然間變得火爆起來。原因是有人上傳了一個數據包,用戶只需要輸入想要的卡通或真人形象,就能迅速生成一個非常漂亮的圖像,吸引了大量用戶涌入。同時無數人也開始為其提供各種訓練數據包,進一步豐富了其功能,現在不僅能畫出二次元卡通和真人形象,還能畫出 GTA5 的圖像。
這個軟件之所以能如此強大,因為市場上的無數用戶都在為其提供訓練數據包,使得模型能夠生成各種精美圖像。但是需要注意的是,這個軟件需要較好的顯卡,最好是 3090 或者更高的4090,因此對于普通消費者的用戶體驗可能一般。為此,有人專門用Stable?Diffusion的建模開發了網頁版,讓用戶不需要擁有好的電腦,就能在網頁上使用。不過,這個服務需要付費,普通用戶每月需要支付幾十美元,企業用戶則需要支付更高的費用。
因為開源的原因,現在Stable?Diffusion 不僅能夠生成靜態圖像,甚至能夠生成視頻。這是因為在今年3月份,有人修改了底層代碼,使得可以規定 AI 作圖的一些參數,例如如果我畫了一匹馬,我可以再畫一張馬抬腿的圖像,然后將每個馬的腿都抬起來,合成為一個視頻。這就是為什么現在國內外很多公司突然推出了 AI 視頻的原因,因為它們都是基于 Stable?Diffusion這個原理,只是可能在這個渠道上進行了一些優化。
此外,Stable?Diffusion 現在更強大的一點是可以無中生有地建立 3D 模型,只要你能描述這個物體的各個角度,它就能夠生成多個角度的2D圖片,接著再利用多視角的2D圖片生成3D圖片。因此未來是可以無中生有的生成 3D 的。這意味著Stable?Diffusion 已經成為了 AI 作圖領域最強大的工具之一,其他的工具都是在其基礎上進行迭代。
見智研究:開源的模型的優勢和意義在哪?拓展插件對于模型起到什么作用?
楊曉峰:
模型一旦開源,全球頂尖的人才就可以使用它并做微調,他們可以貢獻各種各樣的素材包,使得模型使用效果更強大。因為Stable?Diffusion開源,全球所有人都可以享受到這個 AI 作圖的紅利,大家都可以在上面進行修改或將其放到自己的服務器上。開源意味著這個軟件的每一條代碼都是公開的,可以下載到本地,而別人也無法對你進行操作。
當然,行業可能需要一些相對厲害的人才,才能將這個產品推向更高層次,修改底層代碼,進一步提升產品水平。因此,開源對整個模型的進步速度非常快,可以想象,在 11 月和 12 月之前,大多數人的水平都比較低,但是因為開源,無數人在 1 月和 2 月份上傳了數據包,3 月份修改了底層代碼,這個產品的進展就非??炝???梢赃@樣理解,開源把所有人的水平都提高了一個非常高的狀態。
見智研究:模型開源很大程度加速了應用層面的落地?
楊曉峰:
Midjourney為什么會如此受歡迎呢?并不是因為它有技術上的優勢,而是因為它更能夠滿足C端用戶的需求。比如,我們都知道Stable?Diffusion技術很好,產品性能也很好,但問題在于并非每個人的電腦都有如此高的顯卡,同時,數據包越多并不一定意味著更好的體驗,因為很多人更想要一些更加真實的、大氣的效果,對吧?因此,很多產品都是在這個基礎上針對C端用戶的體驗進行了優化。背后的技術可能需要使用Stable?Diffusion等原創技術,或者出于成本考慮使用其他技術,但對于普通的C端用戶,使用Midjourney基本上就足夠了。
見智研究:AI是如何對游戲進行降本增效的?
楊曉峰:
以一個游戲公司為例,該公司的研發成本中,美術成本一般占50%到80%。因為有些游戲的用戶數量非常多,不能出現卡頓等問題,因此游戲的程序成本非常高,那么美術成本占據了研發成本的 50%。但是有些游戲只是卡牌游戲,只需要將卡片畫好,它就能自己動了,這種游戲的美術成本占據了80%??梢韵胂笠幌逻@種情況下的成本。
而作為游戲美術,首先,我需要設計游戲的UI界面,如果我手頭有10個人,其中一個人會負責繪制游戲橫屏的UI界面,比如登錄界面。剩下的三個人會設計人物模型,做2D的人物設計,比如繪制多個視角下的角色,通常需要兩周的時間才能完成一個角色的繪制。
這四個人以前需要兩周才能完成的工作,現在只需要半天就能完成了。這意味著我們可以節省很多時間和成本。之前需要10個工作日的工作現在只需要半天到一天就能完成,這相當于節省了90%的時間。
如果我們只考慮2D方面,那就是2D的人物和平面界面。其余的六層都是外包給其他人做建模的。比如說,我拿到了一個2D的畫面,我可以找一個建模師幫我把它建成一個3D的物體或人物,這個錢一般都是給外面的人。這一部分成本是可以砍掉的。
但NeRF不是開源的,很多公司沒有這么優秀的AI人才去使用它,所以這方面的進展還不是很大。如果一個游戲公司的研發成本占70%,那么其中的40%基本上都可以大幅降低。
所以我覺得說,大公司和小公司的區別就是你是否只能降 2D 的錢,還是說你也能降 3D 的錢,如果你 2D 加 3D 都能降低了,那么我覺得整個降本增效的幅度其實是60%-70%都不一定打得住,所以說下降的幅度其實非常大的。
互動環節:
見智研究:游戲降本增效的成果多久能夠反映在財務報表上?
楊曉峰:
這個主要看的是一個自上而下的邏輯,因為 2D 作畫這個工具在今年一、二月份才開始反映,在公司內推行基本上要到4月以后,可能在二季度甚至三季度會逐步顯現。
而從模型上來看,生成多個視角圖的功能都是在 3 月份才開始的,二季度慢慢地就開始熟練起來,三季度可能慢慢就顯現出來了成品效果。
見智研究:對擁有 IP 較多的公司會有什么影響?
楊曉峰:
IP的價值被認為很高,因為它可以持續產生產品。通過提高生產能力,像迪斯尼動畫一樣,供應量可以大幅增加,但需求可能無法跟上。人工智能可以將生產能力增加至5倍,但市場是否能夠承受這么多還不確定,可能需要打折扣。擁有強大的IP可以增加產品的吸引力,因為隨著產品數量的增加,創造新IP變得越來越困難。
見智研究:對于不同類型的游戲公司降本增效的方式會有哪些側重?
楊曉峰:
我們首先看的就是對于頭部的公司而言,它降本增效特別明顯,就是2D、 3D 同時降,因為他們招的是一些頂級的 AI 工程師,所以2D、 3D 都能降。他們可能能夠跟海外的 3A 大廠進行競爭了,因為 3A 大廠過去構筑的那種美術壁壘就相對于漏了非常多,那么這是頭部的公司,那么對于中腰部的公司而言,就相對而言說,它可以通過使用一定的技術把自己的成本降下去。
見智研究:接下來您比較看好的是哪些的賽道?
楊曉峰:
AI作畫是當前比較成熟的技術之一,其中動畫和游戲是最有可能最快落地應用的領域。由于之前美術人才緊缺,這些行業在使用AI作畫后將大幅提高產能。此外,隨著時間的推移,使用AI作畫的成本也會顯著降低。因此,這兩個領域是值得關注的賽道,不僅能降低成本,還能快速提高產能。
風險提示及免責條款 市場有風險,投資需謹慎。本文不構成個人投資建議,也未考慮到個別用戶特殊的投資目標、財務狀況或需要。用戶應考慮本文中的任何意見、觀點或結論是否符合其特定狀況。據此投資,責任自負。關鍵詞: