近几年,增强现实已经从一个新兴技术发展为最热门的交互技术之一。无论是前段时间世界杯节目的解说植入动漫人物,还是眼下各种展会所能见到的很炫的、带有神秘魔幻的汽车、工厂、建筑等,都像是在告知人们:AR是一项神奇的技术。今天就让小编带领大家一探究竟,梳理一下AR技术的实现方式。
AR技术
通过查阅相关资料,以及采访一些AR厂商发现:增强现实有多个重要的种类,比如说基于地理位置的,基于人脸识别的,基于图形识别的,定点识别的,卡片识别的,体感AR技术等,并且每个种类自身又是一个宽泛的主题。随着移动网络与设备的发展,在增强现实的实现方式上,目前主要有两种:基于移动设备实现的AR技术与基于计算机视觉AR技术。
基于移动设备实现的AR技术
基于移动设备实现的AR技术,就是利用移动设备(如智能手机、ipad等)的位置(GPS)、视野朝向(指南针)和方向(加速度传感器/陀螺仪)数据来向真实场景添加注释或者融入内容的一门增强现实技术。相应的应用技术知道你的智能手机上的摄像头观察的是什么,你的方位,以及智能手机正面对哪一个方向。基于这些数据,就可以把由集中式服务或者其他用户已上传的注释覆盖到你的摄像头场景上。
AR 浏览器作为一项手机应用产品,是基于移动设备实现的AR技术的典型产物。从国外来看,Metaio 、Layar 、Wikitude和Augment作为较早涉足增强现实领域的企业,其中,Metaio和Layar有许多相似之处,二者都有用户规模在千万级别的AR 浏览器,如junaio(魔眼,Metaio 的 AR 浏览器)推崇“手机用户应该能像浏览网页一样浏览生活”;从国内看,已经有一些厂商在积极探索移动领域,代表性的厂商比如说成都微力互动科技有限公司的天眼增强现实(AR)浏览器,苏州梦想人科技的【梦想拍拍】、【梦想点读书】等产品。此外,AR浏览器向可穿戴设备的移植发展,比如Layar已经移植到Google Glass,微力互动天眼AR浏览器正在向vuzix smart glasses 智能眼镜上移植。
图 1 移动终端增强现实技术的具体工作流程
移动终端增强现实程序的工作流程(具体工作流程详见图1):
1、手持设备的摄像头捕获真实世界的视频流。通俗地讲,就是通过手持设备上的摄像头(如智能手机)可以获得物理环境中的视频;
2、运用图像处理软件监控视频流中的图像帧(帧数就是在1秒钟时间里传输的图片的量,也可以理解为图形处理器每秒钟能够刷新几次,通常用fps表示),通过跟踪注册算法捕捉到特征点(二维码标记或自然图像特征标记);
3、通过运算检测出特征点所在的平面和摄像头的姿态,在检测出的平面上建立虚拟的三维坐标;
4、在虚拟的三维坐标上实现虚拟目标与真实世界的融合。随着摄像头姿态变化,摄像头拍摄视角也发生变化。程序通过摄像头姿态变化计算,实时更新虚拟目标定位所需的三维坐标,使虚拟目标与真实世界的三维空间中的变化一致,而达到融合叠加的效果。
上面叙述的工作过程比较抽象,对于用户来说关心的是怎么使用,我以国内微力互动的天眼AR浏览器为例,详细讲解一下AR浏览器的工作过程:天眼分为识别图AR功能和基于位置服务AR功能(LBS)。
识别图AR功能:用户打开天眼,点击右上角的二维码,扫描提供的二维码进入频道,扫描识别图片即可呈现出叠加在真实世界的AR信息(文字、图片、视频、模型、动画、声音等),这些AR信息都是通过在天眼云平台上传与管理。
基于位置服务AR功能(LBS):打开天眼,点击“街景信息”按钮(也可以通过扫描二维码)进入实景导航。此时,屏幕里呈现各个方位的导航浮屛,基于GPS和陀螺仪显示出浮屛方位和距离用户的距离,点击浮屛进入介绍页面(联系方式、网页链接、图片、跳转到地图、全景图片等等),这些信息通过天眼云平台上传,在地图上选取目标地点和添加一些信息,即可通过天眼呈现出来。
基于移动终端的AR技术最终呈现效果图例
基于计算机视觉AR技术
从国外看,比较有代表性的是Google Ingress,是Google推出的一款增强现实游戏 Ingress ,别具新意地在 Google Map 的基础上把游戏搬到了室外,此外位于洛杉矶的Specular Theory是一家可以为汽车企业提供网上“定制”汽车的服务。从国内看,有代表性的厂商主要有:中视典的ARP-FITTING 虚拟试衣产品、增强现实眼镜等。
另一个增强现实方式是使用由摄像头捕获的实际图像内容来确定摄像头观察的是什么,该技术被称为计算机视觉(computer vision),通俗地讲,是通过计算机通过视觉方法获得三维世界的几何特征和运动信息,然后对相应信息存储、分析与处理,最终实现对三维世界的认识。计算机会处理每个视频帧的每个像素,评估在时间和空间上该像素与相邻的像素之间的关系,并识别图案。此外,当前计算机视觉技术还包括精确的面部识别算法、识别视频中的活动物体,以及识别熟悉的标记(marker)或者使用一个非常强大的算法识别出特定的视觉图案的能力。
利用计算机视觉可以通过物体的二维图像信息获得其三维形状或位置等信息。三维信息可以从单镜头成像(单目成像)、双镜头成像(双目成像)或多镜头成像(多目成像)中获得,目前双镜头成像应用的较多。
图2 基于计算机视觉的AR技术工作流程
基于计算机视觉的AR技术工作流程(见图2):
1、 通过摄像头捕获到现实世界的影像,具体地讲,就是通过对目标上特定光点(Marker)的监视和跟踪来完成运动捕捉的任务,经典的跟踪算法有:CamShift算法、光流跟踪以及粒子滤波算法;
2、 利用图形识别技术(图形识别技术,即通过存储的信息与当前的信息进行比较的加工过程,实现对图像的再认的技术)如使用OpenCV开源库(OpenCV是一个用于图像处理、分析、机器视觉方面的开源函数库),识别出影像中的相关兴趣目标;
3、 从数据库获取与识别与目标相匹配的相关信息。对场景中的目标进行识别的过程,就是确定目标与先验知识中不同事物的相对应过程,而图像匹配则是把一个图像区域从不同的拍摄时间摄取的相应图像中确定出来,并且找到它们的对应关系;
4、 将影像与识别到的目标和信息进行融合(一般情况下,图像融合由低到高分为三个
层次:数据级融合、特征级融合、决策级融合,目前多采用特征级融合),并叠加到图像上。
同样地,为了让读者进一步的理解,以无人驾驶汽车AR应用的实例,来说明采用计算机视觉技术的AR实现过程:1)车载摄像头获取道路的图像序列(视频);2)计算机对这些图像进行去噪等、消除光照变化影响等预处理;3)图像处理,考虑到道路一般是两条平行线,则提取出图像中的直线这类特征,然后把直线包围的区域(可能是道路)分割出来;4)接着计算机对该区域进行识别,比如和数据库中已假设好为"道路"的图像进行匹配,如果有相当大程度的一致,则认为该区域就是道;5)最后根据摄像头和道路的姿态的关系,判断出车辆和道路之间角度,然后通过方向盘控制车辆前进方向和速度。
基于计算机视觉的增强现实技术既可以用于移动设备,又可以用于非移动设备。它既能够用来增强基于位置和方向的增强现实方法,又能够用来创建不会以任何方式依赖某个特定位置的增强现实应用。计算机视觉算法能够用来识别包装材料、产品、衣服、艺术品,或者在其他环境中的很多图案。
基于计算机视觉的AR技术最终效果图例
事实上,无论是基于移动设备的AR技术,还是计算机视觉的AR技术,两者的工作原理是一样的,不同之处在于采用的软硬件平台及算法不同,导致两者的处理方式不同,最终呈现的效果也不同。
目前,国外媒体已经将增强现实技术列为2014年15大科技发展趋势之一,市场调查研究公司Juniper Research则预计增强现实相关应用在2015年的全球下载量将高达14亿次,较2010年增长超过100倍,同时移动互联网的增强现实收入将从2010年的不到200万美元迈向15亿美元。带有增强现实元素的企业应用程序收入将排在第三位,仅次于位置搜索和游戏。所以我们有理由相信随着时间的推移,增强现实这门技术一定会大放异彩。
核心关注:拓步ERP系统平台是覆盖了众多的业务领域、行业应用,蕴涵了丰富的ERP管理思想,集成了ERP软件业务管理理念,功能涉及供应链、成本、制造、CRM、HR等众多业务领域的管理,全面涵盖了企业关注ERP管理系统的核心领域,是众多中小企业信息化建设首选的ERP管理软件信赖品牌。
转载请注明出处:拓步ERP资讯网http://www.toberp.com/
本文标题:增强现实实现方式探讨
本文网址:http://www.toberp.com/html/consultation/10839415980.html