该数据集可用于学习6DOF相机位姿估计/视觉运动、图像匹配和各种三维估计。 例如下面的例子:
为了获得该数据集谷歌街景下载,斯坦福大学的研究人员开发了一个系统,该系统集成了来自谷歌街景图像的城际 GIS 和地理元数据,该系统不需要人工注释。
城市3D模型
该数据集涵盖纽约市中心及周边地区、芝加哥、华盛顿、拉斯维加斯、佛罗伦萨、阿姆斯特丹、旧金山和巴黎。 研究人员正在逐步发布这些城市的 3D 模型、街景图像和元数据。 该模型是通过地理注释和处理本身生成的,下面是 3D 模型的一些示例快照。
8个城市中的6个城市的覆盖范围如下:
数据集详细信息
该数据集由 2500 万张 街景图像组成的 1.18 亿个数据对组成。 研究人员收集了上述城市特定区域的图像。 基于城市的 3D 模型,他们对立面进行了密集采样和光线追踪,以找到所有街道场景中相同目标点的无遮挡全景图。
研究人员知道街景相机的地理位置以及每张图像的目标点的位置。 借助谷歌街景的 360 度全景图,研究人员计算了镜头方向和俯仰角,以捕获显示整个中心目标点的全景图像。
如果两个图像显示相同的物理目标点,则将它们配对。 一般来说,每个目标点通常由2到7张对应的街景图像来观察。 图像由同名的 jpg 和 txt 给出,其中包含相机和目标点的地理位置、距目标的距离或相机角度等元数据。 由于图像的文件名是编码街景位置和目标点的唯一ID,因此可以轻松识别相应的图像。 最后,图像被压缩成多个 zip 文件。
相关论文
关于这个数据集的相关研究可以追溯到去年。
在2016年欧洲计算机视觉会议(ECCV 2016)上,斯坦福大学的研究人员发表了一篇名为“3D VIA POSE AND”的论文。
在本文中,研究人员通过解决一组基本替代 3D 任务(即以对象为中心的相机姿态估计和宽基线特征匹配)来学习通用 3D 表示。
经过一年多的探索,研究人员迄今为止已经开发出独立的语义和3D表示。 他们在项目网页上表示,研究具体技术将它们整合起来是未来值得研究的方向。
下载
数据集地址:
斯坦福官方项目介绍:
论文地址:
城市3D街景示例:
祝你在3D世界里玩得开心~
- 超过-
标题:谷歌街景数据集包含2500万张图像和地理元数据
链接:https://www.gbbxw.com/news/xydt/12188.html
版权:文章转载自网络,如有侵权,请联系删除!