互联网时代的表情包或者是静态的 jpg,或者是动态的 gif。
人类进入 VR 时代后,打开 WeChatVR,输入的表情包也得是真三维的内容,转个身能看到不一样的风景。比如这样:
如果你属于以下几类人,那么别浪费时间在 Vulkan 上了:
输入的是对虚拟场景的描述,通常为多边形数组,而每个多边形由三个顶点组成,每个顶点包括三维坐标、贴图坐标、rgb 颜色等。输出的是图像,即二维像素数组。
[xyz xyz xyz ... xyz] -> 图片
输入的是图像或图像序列,通常来自相机、摄像头或视频文件。输出的是对于图像序列对应的真实世界的理解,比如检测人脸、识别车牌、区分猫狗。
图片 -> dog or cat?
图片 -> [xyz xyz xyz ... xyz]
准备好,中文互联网终于有人开始严肃地讨论 VR 技术了。纯干货文章,直奔主题。
左眼和右眼看到的场景是不同的,因此同样的 API 需要调用两次。以 Oculus DK2 为例,头戴显示器分辨率为 1920 X 1080,viewport 均分为左右两部分,各为 960 X 1080。这意味着 CPU 和 GPU 的工作量相比传统三维游戏都要增加,如何降低额外的一次绘制的开销是这篇文章的重点。
先来四层:
你打算花 150 元排 3 小时队只为淋 10 分钟雨?小张的这篇文章让你排队的时候多点谈资。这次分享的是关于九月份即将引爆上海滩和朋友圈的《雨屋》,也就是题图中的场景。
将覆盖以下技术点: