Rendering Gooey Materials With Multiple Layers

本文介绍了一种通过简单方法实现多层透明材质渲染的技术,并详细探讨了parallax depth和lighting scattering的效果实现。前者通过调整纹理坐标模拟不同层级的深度变化,后者则利用动态光照贴图并结合模糊技术营造光线散射效果。

http://developer.amd.com/media/gpu_assets/Oat-RenderingGooeyMaterials.pdf

用一个比较hack比较便宜的方式渲染多层透明material,达到一些比较advanced的效果。

pic:

如果不说的话真看不出其中的效果,给个对比图就好了,其中两个比较不错:

  • parallax depth
  • lighting scattering

首先这个文章的方向我觉得很好,属于深入浅出型,作者很清楚

  • 类似心脏皮肤这样的材质需要什么feature来达到很好的效果
  • 实打实的计算这些feature(lighting scattering一类)的应该做什么,raytracing,PRT。。。
  • 怎么用简单的方法来hack出类似的效果

最后看起来一招一式不起眼,其实内力是相当好的。

衍生说去,今年的modern warfare2(这个modern很神奇,初中起我就一直记不住是morden还是modern,幸好有自动拼写检查)是面向60fps的游戏,在console上17ms一帧,这简直太惊人了,但是仍旧展示出在30fps游戏中outstanding的画面,不得不佩服他们的优化能力和artist的画面驾驭能力。3D程序员逐渐也有几个方向可以走,高杆数学流(bungie为代表,发的论文也最有深度),高杆底层流(naughty dog为代表,底层巨牛,ps3 spu用满,不是盖得),美术hack流(UE3,就是把normal map用到极致,没有高杆feature,shadow还有很多hack,但是工具好美工牛,最后做出东西就是好看)。

最后说来高杆或者复杂的技术,好与不好玩家来评价,玩家又不是什么图形大牛,能hack着让玩家开心就ok,当然hack也是要功力的,像这个文章的深入浅出就是一个好例子。

继续论文,

parallax depth要对不同layer做一个不同的parallax depth计算,照成内层对比外层比较靠内的情况,其实position是一样的。

这个可能用之前的blog的岩石上的冰做例子比较合适。

parallax基本做法就是根据tangent space的camera view dir来偏移texcoord,这样如果2层都应用parallax的话,偏移量设成不一样就好。

代码抄上来:

// Compute inner layer’s texture coordinate and transmission depth // vTexCoord: Outer layer’s texture coordinate // vViewTS: View vector in tangent space // vNormalTS: Normal in tangent space (sampled normal map) // fLayerThickness: Distance from outer layer to inner layer float3 ParallaxOffsetAndDepth ( float2 vTexCoord, float3 vViewTS, float3 vNormalTS, float fLayerThickness ) { // Tangent space reflection vector float3 vReflectionTS = reflect( -vViewTS, vNormalTS ); // Tangent space transmission vector (reflect about surface plane) float3 vTransTS = float3( vReflectionTS.xy, -vReflectionTS.z ); // Distance along transmission vector to intersect inner layer float fTransDist = fLayerThickness / abs(vTransTS.z); // Texel size: Hard coded for 1024x1024 texture size float2 vTexelSize = float2( 1.0/1024.0, 1.0/1024.0 ); // Inner layer’s texture coordinate due to parallax float2 vOffset = vTexelSize * fTransDist * vTransTS.xy; float2 vOffsetTexCoord = vTexCoord + vOffset; // Return offset texture coordinate in xy and transmission dist in z return float3( vOffsetTexCoord, fTransDist ); }

lighting scattering:

真正比较真实的lighting scattering可能还是要PRT算最好。

文章里用的是dynamic lighting map来做,就是先将光照算好,然后blur,然后作为lightmap贴到要应用light scattering的部分。

这里比较有意思的就是如何将model光照信息render到model的lightmap上,文中做法是vertexshader输出地时候position是texuv,然后其他的tangent space lighting,camera dir什么的照常输出,然后pixel shader输出的时候就是写到对应的texel上去了。

这个很赞啊。

然后是blur 的pass,这里可以blur了之后sample,也可以用一个poison kernel来sample。

poison kernel好处是可以根据需要随意scale,这个比较赞。

贴代码,看poison kernel的数据:

// Growable Poisson disc (13 samples) // tSource: Source texture sampler // vTexCoord: Texture space location of disc’s center // fRadius: Radius if kernel (in texel units) float3 PoissonFilter ( sampler tSource, float2 vTexCoord, float fRadius ) { // Hard coded texel size: Assumes 1024x1024 source texture float2 vTexelSize = float2( 1.0/1024.0, 1.0/1024.0 ); // Tap locations for unit disc float2 vTaps[12] = {float2(-0.326212,-0.40581),float2(-0.840144,-0.07358), float2(-0.695914,0.457137),float2(-0.203345,0.620716), float2(0.96234,-0.194983),float2(0.473434,-0.480026), float2(0.519456,0.767022),float2(0.185461,-0.893124), float2(0.507431,0.064425),float2(0.89642,0.412458), float2(-0.32194,-0.932615),float2(-0.791559,-0.59771)}; // Take a sample at the disc’s center float3 cSampleAccum = tex2D( tSource, vTexCoord ); // Take 12 samples in disc for ( int nTapIndex = 0; nTapIndex < 12; nTapIndex++ ) { // Compute new texture coord inside disc float2 vTapCoord = vTexCoord + vTexelSize * vTaps[nTapIndex] * fRadius; // Accumulate samples cSampleAccum += tex2D( tSource, vTapCoord ); } return cSampleAccum

最后结论部分,作者一再强调,不要死磕physically correct,基本feature hack出来就ok,玩家看着high就ok。

内容概要:本文介绍了ENVI Deep Learning V1.0的操作教程,重点讲解了如何利用ENVI软件进行深度学习模型的训练与应用,以实现遥感图像中特定目标(如集装箱)的自动提取。教程涵盖了从数据准备、标签图像创建、模型初始化与训练,到执行分类及结果优化的完整流程,并介绍了精度评价与通过ENVI Modeler实现一键化建模的方法。系统基于TensorFlow框架,采用ENVINet5(U-Net变体)架构,支持通过点、线、面ROI或分类图生成标签数据,适用于多/高光谱影像的单一类别特征提取。; 适合人群:具备遥感图像处理基础,熟悉ENVI软件操作,从事地理信息、测绘、环境监测等相关领域的技术人员或研究人员,尤其是希望将深度学习技术应用于遥感目标识别的初学者与实践者。; 使用场景及目标:①在遥感影像中自动识别和提取特定地物目标(如车辆、建筑、道路、集装箱等);②掌握ENVI环境下深度学习模型的训练流程与关键参数设置(如Patch Size、Epochs、Class Weight等);③通过模型调优与结果反馈提升分类精度,实现高效自动化信息提取。; 阅读建议:建议结合实际遥感项目边学边练,重点关注标签数据制作、模型参数配置与结果后处理环节,充分利用ENVI Modeler进行自动化建模与参数优化,同时注意软硬件环境(特别是NVIDIA GPU)的配置要求以保障训练效率。
内容概要:本文系统阐述了企业新闻发稿在生成式引擎优化(GEO)时代下的全渠道策略与效果评估体系,涵盖当前企业传播面临的预算、资源、内容与效果评估四大挑战,并深入分析2025年新闻发稿行业五大趋势,包括AI驱动的智能化转型、精准化传播、首发内容价值提升、内容资产化及数据可视化。文章重点解析央媒、地方官媒、综合门户和自媒体四类媒体资源的特性、传播优势与发稿策略,提出基于内容适配性、时间节奏、话题设计的策略制定方法,并构建涵盖品牌价值、销售转化与GEO优化的多维评估框架。此外,结合“传声港”工具实操指南,提供AI智能投放、效果监测、自媒体管理与舆情应对的全流程解决方案,并针对科技、消费、B2B、区域品牌四大行业推出定制化发稿方案。; 适合人群:企业市场/公关负责人、品牌传播管理者、数字营销从业者及中小企业决策者,具备一定媒体传播经验并希望提升发稿效率与ROI的专业人士。; 使用场景及目标:①制定科学的新闻发稿策略,实现从“流量思维”向“价值思维”转型;②构建央媒定调、门户扩散、自媒体互动的立体化传播矩阵;③利用AI工具实现精准投放与GEO优化,提升品牌在AI搜索中的权威性与可见性;④通过数据驱动评估体系量化品牌影响力与销售转化效果。; 阅读建议:建议结合文中提供的实操清单、案例分析与工具指南进行系统学习,重点关注媒体适配性策略与GEO评估指标,在实际发稿中分阶段试点“AI+全渠道”组合策略,并定期复盘优化,以实现品牌传播的长期复利效应。
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值