http://publications.dice.se/attachments/Siggraph10-ARR-RealtimeRadiosityArchitecture.ppt
dice和insomniac都很棒,只是insomniac是ps3单平台,放paper也是细水长流,dice一出手就是5篇,大气。
这篇应该说是很前沿了,也很见功力,据我所知也是第一个来缠诉enlighten的文章。
记得大概08年gdc,enlighten放的video,他们是在静态场景上动态光源可以做到indirect lighting。
目前应该只有crytek的light propagation volume可以做到。
质量上,从放出来的贴图上看,enlighten好一些。
效率上,enlighten没有给出数据,但是已经在frosbite2里面用了,所以应该不会太差。
先看个效果吧:direct lighting:
加上indirect lighting的效果:
enlighten我觉得更大程度上是engineering上的功力,在theory上没有什么突破。
enlighten我觉得更大程度上是engineering上的功力,在theory上没有什么突破。
回顾正常的lightmap&irradiance volum是:
- offline算好lightmap,构建好irradiance volume
- run time sample lightmap texture(gpu端)给static mesh用
- sample irradiance volume数据(cpu端)给dynamic mesh用
enlighten的做法是利用GI的几个特点:
- 不会像direct lighting那么的鲜明----也就是不要求那么准确和高精度
- 变化不需要向direct lighting那么立竿见影----可以使用上一帧的数据,可以隔帧update
进而将问题简化:
- offline计算geometry之间的关系保存,
- 这样就把计算GI这个global问题转化成一个在有限范围内做计算的相对“local”的问题
- 这样没关系的一些geometry可以并行计算
- runtime计算的时候用简单模型来做计算
- runtime是辐射度的方法实时计算lightmap和radiosity
- lightmap给static mesh用,radiosity(或者说是light probe)给dynamicmesh用。
- 简单模型对高精模型有个projection(offline计算),把lightmap用上去
pipeline:
offline:
- 计算dependency关系
- 计算高低精度模型的projection关系
- 计算部分用incredibuild的xgi部分,这个有点意思(但是如果用gpu算是不是会更好点)
runtime:直接抄过来:
- Radiosity pass (CPU)
- Update indirect lightmaps & lightprobes
- Lift lightprobes into 3D textures
- Geometry pass (GPU)
- Add indirect lightmaps to separate g-buffer
- Use stencil buffer to mask out dynamic objects
- Light pass (GPU)
- Render deferred light sources
- Add lightmaps from g-buffer
- Add lightprobes from 3D textures
最后一些疑问是runtime时候计算lightmap和radiosity的算法细节没有给,如果使用常规算法的话,不知道效率如何。