最新公告
  • 欢迎您光临起源地模板网,本站秉承服务宗旨 履行“站长”责任,销售只是起点 服务永无止境!立即加入钻石VIP
  • 【网格压缩测评】MeshQuan、MeshOpt、Draco

    正文概述 掘金(deepkolos)   2021-02-22   1226

    虽然上上周已经了解到了GLTFLoader新增的扩展EXT_meshopt_compression到年底了没有那么忙了,有空深入去了解做相应的测评了。年后终于补完了。

    目录

    1. 介绍KHR_mesh_quantizationEXT_meshopt_compression
    2. 用途、用法
    3. 性能(压缩、加载、解析)
    4. 可用(场景、范围)
    5. 缺点
    6. 猜想未来改进方向
    7. 总结

    介绍

    GLTF的压缩,估计都知道Draco,因为适配GLTFLoader到小程序的原因,发现还有不少其他压缩扩展,比如KHR_mesh_quantization和EXT_meshopt_compression

    【网格压缩测评】MeshQuan、MeshOpt、Draco

    KHR_mesh_quantization

    Quantization也就是向量化,是把用浮点数表示的数据使用整形数据表示,方便压缩存储,但是会丢失精度。之前在tfjs的模型有见过类似的方法,gltf的网格数据都是使用浮点数储存,一个单精度浮点数占32位4byte,一个顶点3个数12byte,纹理坐标8byte,法线,12byte,正切空间16byte,一个顶点附带的信息数量就需要48byte,那么使用通过该扩展,使用SHORT来保存顶点坐标,纹理坐标4byte,使用BYTE存储法线坐标4byte, 正切空间4byte(为了不破坏标准都是4的倍数byte),一共20byte所以经过向量化之后的网格能有大概58.4%的压缩。

    EXT_meshopt_compression

    该扩展于r122进入three。其压缩的pipeline如下。其中第五步则是上面的向量化。

    【网格压缩测评】MeshQuan、MeshOpt、Draco

    KHR_DRACO_MESH_COMPRESSION

    github.com/google/drac… 进一步了解可以阅读大佬的分析,默认压缩参数比上面的都激进些

    由于wasm的支持和js的体积和worker数量限制问题,小程序下就不太合适了。js版decoder比three都要大

    【网格压缩测评】MeshQuan、MeshOpt、Draco

    用法

    KHR_mesh_quantizationEXT_meshopt_compression可以使用同一个工具gltfpack

    > npm i -g gltfpack
    # gltfpack命令行工具是C项目构建出WASM执行的,目测未来会有更多wasm这类项目产出
    # KHR的优化版的basis trancoder是使用assemblyscript编译成wasm
    
    # 转成KHR_mesh_quantization
    > gltfpack -i model.glb -o out.glb
    
    # EXT_meshopt_compression只需加个-cc参数即可
    > gltfpack -i model.glb -o out.glb -cc
    

    使用gltfpack的好处是向量化的参数是可以调整的(需要meshopt扩展),比如法线需要更高精度的话修改-vn即可,具体使用阅读gltfpack -h即可

    【网格压缩测评】MeshQuan、MeshOpt、Draco

    KHR_DRACO_MESH_COMPRESSION可以使用gltf-pipeline

    > npm i -g gltf-pipeline
    > gltf-pipeline -i model.glb -o out.glb -d
    

    同样也可以调整draco的向量化参数

    【网格压缩测评】MeshQuan、MeshOpt、Draco

    性能(压缩、加载、解析)

    那么下来就需要对比其压缩网格的性能对比了

    使用的模型是来源于glTF-Sample-Models

    【网格压缩测评】MeshQuan、MeshOpt、Draco

    【网格压缩测评】MeshQuan、MeshOpt、Draco

    这里可以看到仅仅有顶点数据ReciprocatingSaw.glb则是draco是最好的,其实原因也很简单,Draco默认压缩参数比meshQuan激进得多,但是有动画的BrainStem.glb meshOpt是最好的。WaterBottle.glb是都差不太多,因为顶点数量有限,纹理占据大量主要体积。

    那么由于默认参数是不相同的,对比起来draco就有优势了,所以把其他需要相同压缩参数重新对比下,这次仅仅需要对比BrainStem和ReciprocatingSaw即可,这里把gltfpack参数向draco对齐

    > gltfpack -i model.glb -o out.glb -vp 11 -vt 10
    > gltfpack -i model.glb -o out.glb -vp 11 -vt 10 -cc
    

    【网格压缩测评】MeshQuan、MeshOpt、Draco

    可以看到即便修改了参数,MeshQuan大小还是没有变,因为已经成为标准的了,向量化的参数已经是固定无法修改了,但是MeshOpt有些许提升。

    Decoder加载

    使用某个压缩方案,除了需要对比压缩大小,还得对比decoder的加载难易程度(web,小程序等环境下),还有DracoLoader十几KB还没算进去

    【网格压缩测评】MeshQuan、MeshOpt、Draco

    值得注意是MeshOpt wasm版本是包含了两个版本一个是基础版,一个使用SIMD版

    【网格压缩测评】MeshQuan、MeshOpt、Draco

    不过官方没有提供asm版本,需要手动通过binaryen/wasm2js转换下即可,或者使用我转换好的meshopt_decoder.asm.module.js

    在decoder层面上感觉是MeshOpt完胜

    解析时间对比

    这里使用模型是默认参数压缩后的,电源模式是高性能,CPU一直在最高频率。尝试五次求均值,均是wasm版本。其中MeshOpt是SIMD版本,Chrome 88

    【网格压缩测评】MeshQuan、MeshOpt、Draco

    可以看到MeshQuan和MeshOpt均比未压缩加载时间减少了不少,Draco则增加不少,如果考虑decoder的加载时间则需要看首次加载,3个扩展里只有Darco会有影响,因为只有Draco是第一次加载gltf需要从网络下载wasm,MeshOpt是序列化好存在字符串里,使用时只需unpack即可,无需网络请求。

    asm版的解析时间对比在可用性部分

    压缩前后效果对比

    按道理除了对比性能上面的指标,还得对比压缩后是否出问题了,但是这个并不容易指标化,还是得看设计师是否妥协了,但是为了直观对比,所以我编写了一个compressed-model-diff工具

    有3个对比模式和线框对比在线使用。

    【网格压缩测评】MeshQuan、MeshOpt、Draco

    【网格压缩测评】MeshQuan、MeshOpt、Draco

    【网格压缩测评】MeshQuan、MeshOpt、Draco

    可用(场景、范围)

    可用场景主要取决于Decoder加载难以程度和大小了

    【网格压缩测评】MeshQuan、MeshOpt、Draco

    可以看到Draco在小程序上面就比较难受了,而MeshQuan无需decoder所以可用性是最高的,MeshOpt只需使用asm版兼容小程序ios即可。

    所以如果需要兼容小程序平台,Draco就比较不太合适了,当然也可以对应平台加载对应的模型的方法,但是模型效果就需要对应平台单独微调了,还是全平台统一模型可维护性更高。

    所以这里单独补充MeshOpt asm版的decode性能

    【网格压缩测评】MeshQuan、MeshOpt、Draco

    但是有了奇怪的发现:第一次解析耗时很高,但是大概第3次接近未压缩的性能,第五次接近wasm的性能,这是为什么呢?是否说明一个潜在的优化方法呢?

    先看看火狐的这个第一个支持ASM的浏览器如何,是否有类似的情况出现?

    【网格压缩测评】MeshQuan、MeshOpt、Draco

    貌似在这个情况下火狐对js执行比chrome强不少,wasm反而没带来更好的效果,但是还是出现了类似的规律,是否说明decoder是需要一个预热,告诉浏览器decode的代码需要特殊优化?

    所以这个通过加载一个1.21kb的Triangle-meshopt.glb,5次,再加载测试模型,记录数据

    【网格压缩测评】MeshQuan、MeshOpt、Draco

    貌似莫得效果,估计是warm up的次数没够,Triangle-meshopt.glb,只有3个顶点,执行5次也就15个,量级没上去。这里就有空再深究了。

    火狐下asm第一次加载耗时是未压缩的1.5 ~ 2.3倍
    chrome下asm第一次加载耗时是未压缩的3.08 ~ 4.4倍

    当然由于只是微信小程序IOS下,IPhone的CPU本身比较好,所以还能接受,如果能找到warm up方法,第1次加载耗时等于第5次的就更好了。

    缺点

    向量化毕竟是丢失精度的有损压缩方法,但是也正如KHR_mesh_quantization所介绍,是一个精度和大小的妥协

    KHR_mesh_quantization的缺点是向量化参数固定,无法修改,好处也是,无需额外decoder,而EXT_meshopt_compression则其升级版,可自定义向量化参数,比如法线精度要求高的时候可以增大容量

    KHR_draco_mesh_compression这个比较知名的扩展,在这次测评下虽然纯顶点的模型压缩比最高,但是相比之下,其decoder大小和decode性能均不突出。

    KHR_mesh_quantizationEXT_meshopt_compression都是固定转换,比如模型本身如果尺寸很小,其使用到的浮点数范围也很小,这时候丢失精度的情况就比较大了,解决办法除了增加存储的容量,更简单的其实是,放大模型,让顶点之间的距离变大,使用的时候再缩小即可。文本描述可能没有那么直观还是看动图吧。

    【网格压缩测评】MeshQuan、MeshOpt、Draco

    模型放大10倍后,不是同一个模型版本忽略颜色变化

    【网格压缩测评】MeshQuan、MeshOpt、Draco

    中间包包的差异基本可以忽略不计,但是下面还是有纹理偏移出现。

    猜想未来改进方向

    由上面的固定向量化导致模型处于小浮点数范围出现的误差问题可以推测下一步可以优化:动态向量化+偏移,目测可以进一步提供精度和压缩比,但是decoder的耗时会增加。

    比如把模型的BoundingBox.xyz最大值作为映射到0-1,再映射到整型/自定义XByte,当然模型里面的子mesh也可以如此,也可以xyz分别维护等等。

    当然只是想法,本文其实目的就是因为发现一个牛皮的扩展MeshOpt,但是想相对严谨去测试验证引入到项目可用性的,也是一个探索的过程。

    总结

    MeshOpt牛皮


    起源地下载网 » 【网格压缩测评】MeshQuan、MeshOpt、Draco

    常见问题FAQ

    免费下载或者VIP会员专享资源能否直接商用?
    本站所有资源版权均属于原作者所有,这里所提供资源均只能用于参考学习用,请勿直接商用。若由于商用引起版权纠纷,一切责任均由使用者承担。更多说明请参考 VIP介绍。
    提示下载完但解压或打开不了?
    最常见的情况是下载不完整: 可对比下载完压缩包的与网盘上的容量,若小于网盘提示的容量则是这个原因。这是浏览器下载的bug,建议用百度网盘软件或迅雷下载。若排除这种情况,可在对应资源底部留言,或 联络我们.。
    找不到素材资源介绍文章里的示例图片?
    对于PPT,KEY,Mockups,APP,网页模版等类型的素材,文章内用于介绍的图片通常并不包含在对应可供下载素材包内。这些相关商业图片需另外购买,且本站不负责(也没有办法)找到出处。 同样地一些字体文件也是这种情况,但部分素材会在素材包内有一份字体下载链接清单。
    模板不会安装或需要功能定制以及二次开发?
    请QQ联系我们

    发表评论

    还没有评论,快来抢沙发吧!

    如需帝国cms功能定制以及二次开发请联系我们

    联系作者

    请选择支付方式

    ×
    迅虎支付宝
    迅虎微信
    支付宝当面付
    余额支付
    ×
    微信扫码支付 0 元