未来世界的通讯计算机协同工作.docx

上传人:b****1 文档编号:10411950 上传时间:2023-05-25 格式:DOCX 页数:18 大小:903.16KB
下载 相关 举报
未来世界的通讯计算机协同工作.docx_第1页
第1页 / 共18页
未来世界的通讯计算机协同工作.docx_第2页
第2页 / 共18页
未来世界的通讯计算机协同工作.docx_第3页
第3页 / 共18页
未来世界的通讯计算机协同工作.docx_第4页
第4页 / 共18页
未来世界的通讯计算机协同工作.docx_第5页
第5页 / 共18页
未来世界的通讯计算机协同工作.docx_第6页
第6页 / 共18页
未来世界的通讯计算机协同工作.docx_第7页
第7页 / 共18页
未来世界的通讯计算机协同工作.docx_第8页
第8页 / 共18页
未来世界的通讯计算机协同工作.docx_第9页
第9页 / 共18页
未来世界的通讯计算机协同工作.docx_第10页
第10页 / 共18页
未来世界的通讯计算机协同工作.docx_第11页
第11页 / 共18页
未来世界的通讯计算机协同工作.docx_第12页
第12页 / 共18页
未来世界的通讯计算机协同工作.docx_第13页
第13页 / 共18页
未来世界的通讯计算机协同工作.docx_第14页
第14页 / 共18页
未来世界的通讯计算机协同工作.docx_第15页
第15页 / 共18页
未来世界的通讯计算机协同工作.docx_第16页
第16页 / 共18页
未来世界的通讯计算机协同工作.docx_第17页
第17页 / 共18页
未来世界的通讯计算机协同工作.docx_第18页
第18页 / 共18页
亲,该文档总共18页,全部预览完了,如果喜欢就下载吧!
下载资源
资源描述

未来世界的通讯计算机协同工作.docx

《未来世界的通讯计算机协同工作.docx》由会员分享,可在线阅读,更多相关《未来世界的通讯计算机协同工作.docx(18页珍藏版)》请在冰点文库上搜索。

未来世界的通讯计算机协同工作.docx

未来世界的通讯计算机协同工作

计算机越来越多地用于加强人与人之间的合作。

作为协作工具变得越来越普遍人机界面一个人介导的人机界面,通过计算机的方式。

这种强调人机介面的设计增加了新的技术挑战。

这些挑战是复杂的企图,支持三维计算机支持的协同工作(CSCW)。

面对面协作虽然使用空间线索和三维对象的操作中是常见的,三维的CSCW工具仍然很少。

然而,虚拟现实等新的3D界面隐喻可以克服这个限制。

三维协同设计,虚拟现实(VR)会出现天然的媒介,在此设置电脑可以提供相同类型的协作信息,人们在面对面的互动,如通信对象的操作,语音和手势[12]。

潜水项目的工作[3],绿地[6]和其他完全身临其境的多参与者的虚拟环境,在这样的环境中,协同工作确实是直观的。

然而,目前大多数的多用户虚拟现实系统是完全沉浸其中,分离的用户从真实的世界和他们的传统工具。

格鲁丁[4]指出,CSCW工具时,他们一般都拒绝强制用户改变他们的工作方式。

这是因为人们平时的工作和他们被迫工作,因为计算机接口之间的接缝或不连续的介绍。

石井中详细描述的优势无缝CSCW接口[5]。

显然,沉浸式虚拟现实界面引入一个巨大的现实和虚拟世界之间的不连续性。

另一种方法是通过混合现实(MR),叠加到现实世界中的虚拟对象。

在过去的研究已经探索了使用MR的方法,以支持面对面的合作。

的项目如Studierstube[10],运保[9],和AR 2曲棍球[7]让用户可以看到对方以及它们之间的空间三维虚拟对象。

用户可以与现实世界中的虚拟影像的同时,到现实世界中的VR接口带来的好处和便利很自然的协作。

在过去的研究中,我们发现,这意味着用户更好地进行合作的任务在一个面对面MR设定比完全沉浸的虚拟环境[2]同样的任务。

在本文中,我们报告的MR技术的应用,支持远程协作。

我们已经开发了一个的议员会议系统,可以让虚拟图像(虚拟显示器)的远程合作者用户的真实环境上叠加。

我们的混合现实会议系统试图克服目前的桌面视频会议系统的局限性,包括缺乏空间感[11],与共享3D数据的难度,而且需要是实际存在的会议在台式机。

在使用该系统,用户可以很容易地改变虚拟监视器的安排,将虚拟影像的远程与会者介绍他们在现实世界中,他们可以协同使用虚拟共享白板的二维和三维信息交互。

虚拟图像显示在一个轻量级的头盔显示器,穿戴式计算机与我们的系统可以移植实现协作,在工作场所的任何地方。

在一个多用户的混合现实的视频会议系统,虚拟与现实世界的图像的精确定位是面临的最大挑战之一。

在我们的工作中,我们使用计算机视觉技术,并已开发了一些优化算法,可快速,准确的实时注册。

在本文中,我们首先介绍我们的会议应用程序,然后使用基于视频的登记方法。

系统概述

我们的原型系统,支持用户穿着透视头盔显示器和那些比较传统的桌面界面之间的合作。

这模拟的情况可能发生在一台结合专家和远程现场工作人员之间的合作。

在本节中,我们首先描述的MR磁头的安装界面,然后在桌面上的接口。

由于硬件的限制,我们目前只能支持一个单一的MR用户与任意数量的台式机用户。

然而,随着更多的显示器和数码相机,我们可以增加这个数字。

混合现实界面

与MR接口的用户戴着对虚拟IOiglasses的头部安装的显示器(HMD),已被修改的,通过添加一个小的彩色相机。

iglasses是全彩色,可以使用在任何一个看透或闭塞模式,并有一个分辨率为263x234像素。

摄像机输出,SGI,O2(R5000SC180MHz的CPU)的计算机和视频输出的的SGI连接回入目连接到头盔显示器。

O2被用于两个图像处理的视频从头部安装的相机和虚拟图像生成的HMD。

性能速度是每秒7-10帧的完整版本,10-15fps的运行没有虚拟共享白板。

MR用户也有一组小标记的卡片和一张纸外周围用六个字母就可以了。

有一个小标记的卡,他们的名字写在每一个远程的合作者。

这些占位符(用户ID卡)的虚拟显示器显示远程的合作者,而较大的一张纸,是一个占位符的共享白板。

若要写入和与虚拟对象的交互,用户有一个简单的光笔,包括一个LED,开关和电池安装在一支钢笔在共享白板。

当LED接触的表面的开关被触发,它处于打开状态。

图1示出了观察员视图的MR用户使用的接口。

图1。

使用MR接口

软件组件的接口由两部分组成,虚拟监视器上显示的用户ID卡和虚​​拟共享白板。

当系统运行时,计算机视觉技术是用来识别特定的用户ID卡(卡上使用的用户名),并显示实时视频或3D头像对应的ID卡的远程用户。

视觉技术也被用来计算头的位置和方向相对于卡的虚拟图像,所以精确地注册与ID卡。

图2示出了一个虚拟监视器的一个例子,在这种情况下,在使用者保持的ID卡具有连接到它从远程的合作者的实况视频。

这种方法是类似的Rekimoto使用视觉技术识别二维矩阵标记在非合作混合现实应用[8]。

图2。

远程用户代表在MR界面。

如果远程系统有一个摄像头捕捉到的实时视频图像的用户,这显示实时视频图像,使用视频纹理映射技术。

否则,3D虚拟化身的远程用户显示。

化身的脸部角度的可以操作由远程参与者。

远程的合作者连接到物理网卡的虚拟图像的使用意味着本地用户卡可以安排他们在太空中创造一个空间的会议空间。

该卡也足够小,可以容易地进行,确保可移植性。

共享白板通常使用协作应用程序,以使人们能够分享笔记和图表。

在我们的应用程序中,我们使用一个虚拟的共享白板,如图3所示。

这是显示在一个更大的6个类似的注册标记的用户ID卡纸板。

被显示在它是由远程参与者的虚拟注解,精确地对准的平面的物理卡。

本地的参与者可以使用光笔的画在卡上添加自己的注解,这是在显示和转转移到远程桌面。

MR用户可以删除自己的注解,通过触摸一个角落的卡。

目前,我们的应用程序只支持虚拟与卡片表面的注释,但我们正在努力增加支持共享3D对象,类似于我们所拥有的与远程头像陈述。

图3。

虚拟共享白板

本文板的位置和姿态,可估计使用相同的视觉方法用于虚拟监视器。

然而,由于使用者的手经常阻塞的注册标记,只通过使用可见的标记,估计有许多工作要做。

我们可以可靠地估计只使用六个标志之一,卡位置。

LED光笔是当它接触的纸板。

发生这种情况时,系统的位置估计的相对笔尖,笔尖是与电路板接触相机的图像和知识的LED的2D位置的纸板。

用户可以拿起卡在虚拟白板上的影像,仔细一看,和他们的实际工作空间内可以自由定位。

桌面界面

的MR用户与远程桌面用户有一个更传统的接口。

台式机用户都在网络SGI电脑,一些视频输入一些没有。

与他们的计算机上的视频摄像机的用户看到,他们的相机正在发送的视频图像的一个视频窗口,安装从MR磁头的远程视频摄像头和一个共享白板应用程序,如在图4中示出。

MR用户头安装摄像头的视频信号,使桌面用户更有效地开展合作,与他们对现实世界的任务。

他们可以自由地利用共享白板使用鼠标,并从他们的相机白板注释和视频帧发送到MR用户使用UDP网络套接字传输。

图4。

桌面用户界面

没有视频摄像头的用户看到相同的白板应用程序,并查看从MR用户头部安装摄像头,但也看到了自己的3D图形头像。

头像上单击并移动鼠标,使得它在桌面上的和看到的MR用户改变其方向。

图5示出的化身界面的视图。

图5。

阿凡达的桌面用户界面

用户还可以相互使用音频通信。

我们使用的是增值税,一个免费的程序,使用多播音频,使音频组远程机器之间的通信。

我们计划在未来添加其他的桌面应用程序,这将使上的共享虚拟白板共享和互动的3D对象。

初始用户展示

我们的3D非正式会议应用程序已被几十个用户在我们的实验室和游客到我们的实验室测试。

在这个过程中,我们进行正式的用户研究,看看如何影响合作会议与我们的MR接口不同于传统的视频会议。

在一般用户的接口是非常耐看的自然,特别是在多么容易的遥控器的合作者可以定位他们在空间和他们对现实世界中的行动自由,同时还会议。

用户还喜欢在会议参加者的同时,能够与真实世界互动,他们发现,遥控头安装摄像机视图,使他们能够有效地与MR用户。

白板是不太成功的。

虽然台式机的用户可以很容易地利用他们的白板上,MR用户有时会发现很难使用光笔。

准确地跟踪光笔需要良好的照明条件,并没有提供相同级别的分辨率,鼠标的输入。

然而,MR用户能够轻松地查看和发表评论的台式机用户的注释,并作出贡献时的视野例程,运作良好。

这是一个面积为今后改进,尤其是当我们开始使用白板的交互与共享的3D虚拟对象。

有趣的是,我们发现,用户自然表现出行为不可能在传统的视频会议,远程用户表示,他们一对一谈,或定位用户组模拟交谈。

通常,用户位置的虚拟监视器的虚拟白板,就好像他们有一个面对面的会议。

这表明,我们的接口,可以支持许多面对面的行为不可能捕捉到在桌面会议。

这些非正式的试验也发现了一些未来的改进方向。

许多议员的用户,远程用户可以看到一个视频图像从自己的头像代表性的观点。

他们有时会说“看看”,而在此拿起头像表示,并指出对一些真正的对象。

我们计划把小相机的用户ID卡,支持这种自然的行动。

这允许桌面用户有一个观点的MR用户所面临的额外的好处。

目前,该接口是不对称的,MR用户看到所有其他用户的面孔,但他们看到的只是对现实世界的MR用户视图。

可以作出的另一项改进是通过使用空间音频。

当用户斜靠头像表示,他们的声音应该得到更响亮,就像在面对面的合作。

同样多的人都在说一次,空间感,应使用,使用户能够很容易区分它们。

计算机视觉技术

我们的议员会议界面在很大程度上依赖于计算机视觉技术的身份识别和用户头部位置和姿态确定。

在剩余的纸张,我们勾勒出基本的计算机视觉的方法,我们已经开发来完成,这。

这些方法是一般的,足以适用于范围广泛的混合现实应用。

混合现实系统使用的HMD可以分为两组,根据所使用的显示方法:

A型:

视频通过混合现实

B类:

光学透视式混合现实

在A型中,被叠加在由照相机捕获的现实世界中,附着到HMD的直播视频图像的虚拟对象。

由此产生的复合视频图像被显示给用户的眼睛都。

在这种情况下,与真实世界的交互是有点不自然的HMD中所示,因为摄像机视点偏移从该用户自己的眼睛,并且该图像是不立体图。

性能还可以通过视频帧速率下降显着影响。

然而,这种类型的系统可以容易地实现良好的图像配准,因为只需要2D屏幕上的坐标之间的关系是已知的在真实世界中的图像和3D坐标。

在类型B中,虚拟对象是直接在现实世界中所示,通过使用透视显示器。

在这种情况下,用户可以看到的真实世界直接和立体虚拟图像可以产生这样的相互作用是很自然的。

然而,图像配准的要求是一个更具挑战性的,因为它需要之间的关系的摄像头,的HMD屏幕和的眼睛被称为A型系统所使用的关系。

因此,该系统的校准是非常重要的,精确的登记。

在混合现实的登记和校准所面临的问题是一个很好的审查工作中发现的东[1]。

我们已经开发了一个精确的登记方法,请参阅通过混合现实系统的光学。

我们的方法解决两个主要问题:

HMD和摄像头的校准,估计一个准确的位置和姿态的基准标记。

它也可以被用于视频透视系统,我们可以运行我们的会议应用在光学或视频的请参阅通过配置。

HMD和摄像机标定

我们校准的系统,使用图6中所示的校准工具。

这是一个简单的纸板帧格网格线是连接到如图所示的前面的HMD。

通过附加到HMD的校准工具,磁头位置不改变相对于网格的行,所以我们可以找到的相机之间的关系中,HMD屏幕和眼睛。

有两个关键的转变,我们需要找到之间的HMD屏幕坐标和校正工具的坐标(Ţ ST),和相机之间的协调和校准工具坐标(Ţ 克拉)。

图7显示了这些变换,并使用不同的坐标系。

图6。

在我们的校准方法校准工具。

图7。

在我们的校准过程中的坐标框架。

的HMD校准寻找Ţ ST

在看到通过HMD,光从一个物理对象达到的焦点的眼睛通过HMD屏幕。

因此,一个3D的眼睛坐标,其原产地是在眼睛的焦点位置可以被投射在HMD屏幕坐标的透视投影模型。

这假定Z轴垂直相交的HMD的屏幕,和在X轴和Y轴平行于X和Y轴的HMD屏幕坐标帧分别,如在图7中示出。

因此,由下面的等式表示的校准工具坐标和HMD屏幕坐标之间的变换T日。

(方程式1)

其中( X S , Y S)是在HMD屏幕坐标,f是焦距, S X是在x轴的方向的比例因子[像素/毫米],S y是在y轴方向上的比例因子,(x 0,y 0)是帧通过的眼睛,Z轴坐标位置(X Ê,Y Ë,Z Ê)是用眼的3D位置的坐标坐标框架(X 吨,Y 吨,Ž 吨)表示的校准工具坐标帧的相同位置的坐标,R 和 T分别代表从校准工具的转动和一个翻译的坐标的眼睛的坐标分别。

这可以简化通过组合两个变换矩阵该所示的公式(公式2)

(方程式2)

使用校准工具,准确地找到所需的矩阵Ť 日的值。

穿着此工具时,用户看到的虚拟线的网格,如在图8中所示,在纸板上的帧重叠。

要校准T 日,用户适合虚拟到相应的线段绘制的线条的HMD屏幕上的物理校准工具。

虚拟线可以由键盘操作的移动和旋转。

所有的真正的线段的交点的位置是已知的在校准工具坐标系。

此用户操作找到相应的位置,在HMD屏幕坐标框架。

通过使用该数据,变换矩阵 T 日可以进行估计。

用户执行在此过程中对每个眼睛,生成两个矩阵。

所得Ť 第一矩阵作为虚拟的3D坐标系统和HMD屏幕坐标系之间的变换。

图8。

用户可以看到的图像在校准过程中。

摄像机标定寻找Ţ CT

在类似的方式中的摄像机的屏幕坐标之间的关系,在相机坐标和校准工具坐标可以表示为:

(公式3)

其中P表示的透视变换, T 克拉表示从校准工具的平移和旋转变换的坐标到相机坐标,C是通过结合P 和T 克拉获得的变换矩阵。

要查找矩阵 C ,使用如上所述的相同的过程,但在这种情况下,来自摄像机的视频被显示在计算机显示器上,用户在屏幕上对齐的假想线。

这台相机校准过程的主要目的是要找到矩阵P和Ţ 克拉。

然而, 矩阵 C 不能被分解成P和ţ 克拉一般,因为矩阵 C有11独立的变量,但矩阵P和ţ 克拉 4和图6分别,这样的独立的变量P 和T 克拉的总和是不等于C的其中一个。

的标量变量k被加入到 P ,使这些数字等于如下面的:

(公式4)

其结果是, 矩阵 C 可以分解成 P 和T 克拉。

变量k应为零的理想的,但它可能是一个小的噪声值。

的变换矩阵P被用于估计标记坐标之间的关系和通过图像分析相机坐标。

有关详情载于下一节。

Ţ Ţ ST CT使用的HMD屏幕上相应的代表在相机坐标系的位置,在后面的章节中所描述的坐标系中的位置确定。

标志物的位置和姿态估计

估计的变换矩阵

大小已知的正方形标记被用作表示的坐标框架,在其中虚拟显示器(图9)的基极。

从这些标记的变换矩阵坐标到相机坐标( T 厘米)式中表示。

5估计的图像分析。

 

(公式5)

图9所示。

标记之间的关系的坐标和相机坐标估计的图像分析。

的输入图像的阈值后,可安装区域的轮廓的轮廓提取由四个线段。

这些四个线段和找到的线段的交点的区域的四个顶点的坐标的参数被存储购买过程。

的区域被归一化和由模板匹配的模式,给出了系统之前,以确定特定的用户ID标记区域内的子图像进行比较。

目前我们的系统上的用户名和字符匹配,但可以使用的图像图案。

当两条平行的边的方形标记的投影图像上时,这些线段在相机中的屏幕坐标的方程如下:

(公式6)

对于每一个的标记,这些参数的值已经线拟合过程中得到。

鉴于eq.7在相机校准是通过以下方式获得的透视投影矩阵 P,分别包含这些双方的平面方程可表示为式8在相机坐标代以当量的X C和y c在帧。

7为x和y在eq.6。

(公式7)

 

(公式8)

鉴于这些平面的法线向量是 n 1 和n 2分别平行的两条边的平方的方向矢量的外积Ň 1 XN 2由下式给出。

鉴于两个后所取得的单位方向矢量从两套的两条平行的边的平方是 u 1 和u 2,这些载体应该是垂直的。

然而,图像处理错误的意思是不会完全垂直的载体。

为了补偿这两个垂直的单位方向矢量, 由 v 1 和v 2的定义,包括ü 1和u 2,如在图10中所示的平面中。

鉴于它垂直于v 1 和v 2的单位方向矢量是v 3,旋转分量V 3×3中的变换矩阵T 厘米从标记坐标到相机坐标中指定eq.5[ V 1吨 V 2 吨 V 3 吨。

图10。

两个垂直的单位方向矢量:

v 1,v 2是从 u 1 和u 2的计算。

的四个顶点的坐标的标记,由于在变换矩阵的旋转分量V 的3x3给出,由使用eq.5,eq.7,在标记坐标帧和那些在相机屏幕坐标系的坐标,包括平移分量的8方程(宽)xW生成YW Ž和这些翻译分量W x宽 YW Ž的价值,可以从这些方程。

发现从上述方法中的变换矩阵可以包括错误。

然而,这可以减少通过以下过程。

标记坐标系中的标记的顶点坐标,可转化为在相机屏幕坐标系的坐标,通过使用所获得的变换矩阵。

然后,变换矩阵的优化这些转化的坐标和从所述图像测量的坐标之间的差异的总和进入到最低限度。

虽然也有六个独立的变量的变换矩阵中,只有旋转组件进行了优化,并然后重新估计的平移组件,通过使用上面提到的方法。

通过这个过程的迭代数量的次变换矩阵被更准确地发现。

一个扩展的虚拟共享白板

记载的方法进行跟踪的用户ID卡的扩展用于跟踪共享白板卡。

有六个标记在虚拟的共享白板,周围的外部董事会一致,如图11所示。

白局的取向被发现通过拟合线周围的基准标记和使用所描述的技术的扩展,用于跟踪的用户ID卡。

图11。

共享白板上的标记的布局。

所有六个标记板的方向和调整内部的虚拟图像产生非常好的登记结果。

然而,当用户绘制一个虚拟的注解,某些标记可​​能被遮挡由使用者的手,或者它们可以移动他们的头部,以便只有一个子集的标记是在视图。

虚拟共享白板的变换矩阵可见的标记,以便进行估计错误时引入较少的标记。

误差的大小增加了进一步从可见的标记,要被绘制的虚拟对象,并作为白板是旋转。

为了减少误差线的拟合方程考虑个别的标记,并设置对齐标记。

每个标记都具有一个唯一的字母,在其内部,使系统识别标记应水平或垂直地对齐,以便估板旋转。

虽然在相机屏幕坐标线方程帧独立地生成的每个标记的,在虚拟共享白板的六个标记装置的取向的一些线方程是相同。

因此,通过线性拟合可见的标记提取出所有的排列两侧,各线方程的计算方法是用所有的轮廓信息的提取双方。

此外,通过使用所有检测到的平行线方程的方向向量估计和电路板的方向发现。

笔检测

光笔在触摸共享白板板。

笔尖的位置估计被发现在以下方式。

首先,在图像中最亮的区域被提取和检测到的重心。

由于笔的位置(X ,Z ,Y 瓦特瓦特瓦特)表示相对于虚拟共享白板,白板坐标系中检测到。

eq.9相机屏幕坐标和白板坐标之间的关系由下式给出。

( X C , Y C)是通过图像处理来检测重心的位置的。

Ž 瓦特等于零,因为笔在黑板上。

通过使用这些值在eq.9,生成包括X 瓦特和Y 瓦特作为一个变量的两个方程,并通过求解这些方程,它们的值可以很容易地计算。

(公式9)

虚拟物体进行渲染

虚拟对象,如虚拟显示器上呈现相应的标记标记坐标框架。

从标记坐标的变换的HMD屏幕的坐标很重要,这样可以出现在合适的位置上的标记在现实世界中的虚拟对象。

从校准工具坐标系的变换矩阵T 日到HMD 校准工具从屏幕坐标所示eq.2 和T 克拉坐标到相机坐标在等式3所示,我们的校准方法是通过以下方式获得。

此外厘米从标记的变换矩阵 T的坐标到相机坐标所示eq.5得到上一节中提到的由图像处理。

最后的变换矩阵Ť 平方米的 标记坐标的HMD屏幕的坐标表示通过这些矩阵页所示。

该矩阵用于渲染虚拟对象,以确保它们出现相对于基准标记的固定。

(方程式10)

上面的矩阵表示是适合我们使用我们开发应用程序的OpenGL图形库。

OpenGL使用既是modelview矩阵和投影矩阵来渲染3D图形, 所以 T 日 Ť 克拉-1可被视为一个投影矩阵和T 厘米 modelview矩阵。

不改变校准后的矩阵Ť 日的 Ţ 克拉-1。

它仅需要计算一次。

然而, 矩阵 T 厘米改变每个用户移动时,其头部(和摄像机)的位置。

因此,一个虚拟的对象可以注册标记的坐标框架,通过不断更新的模型视图矩阵Ť 厘米。

 

结论

在本文中,我们描述了一个新的混合现实会议中的应用和计算机视觉技术在应用中使用。

这个系统是有趣的方面是相反的,传统的视频会议。

我们的目标是把一个虚拟的远程用户到本地用户真实世界的位置,使他们能够拥有一个视频会议无论身在何处,表示。

相比之下,目前的视频会议要求用户移动到一台台式电脑或视频会议套件,往往将他们从他们的工作场所。

该系统还恢复了传统视频会议系统中丢失的空间感。

有代表的远程用户在物理环境中的对象是指他们的虚拟化身还可以手势和互动视觉上与其他对象的用户空间中。

这是一个潜在的强大的新的互动技术协作MR接口。

但是,我们才刚刚开始探索潜在的新的互动技术,使用该接口。

我们的接口中使用的光笔有通过其它输入设备的限制,可能会被克服。

也需要开发其他输入隐喻,当用户的合作与共享的虚拟3D对象,而不是只是2D注释。

我们的计算机视觉的方法提供了良好的结果时,标记是贴近用户的,但其精确度卡从相机。

对于我们的议员会议应用程序,这已被证明是一个问题,但是我们需要精确地测量登记错误,所以我们可以理解我们的做法是什么类型的应用程序最适合和提高配准精度的方法。

另外,我们要发展的是把我们的接口可穿戴式计算机,利用它的便携性。

在未来,我们设想一个场景时,用户在现场可以启动一个视频会议会话的远程合作者只要拉一个基准标记出他们的后面的口袋里,看着它,。

目前这一代的可穿戴式电脑,几乎有足够的CPU处理能力,使之成为可能。

参考文献:

1.东,R. SIGGRAPH'95课程注:

增强现实的调查。

洛杉矶,计算机,1995年。

2.比林赫斯特,M.,Weghorst,S.,弗内斯,,T.共享计算机支持的协同工作空间:

增强现实(AugmentedReality)方法。

虚拟现实卷。

3

(1),1998年,第25-36

3.卡尔森,C.,并Hagsand的,O.(1993)DIVE-多用户虚拟环境的平台。

计算机和图形。

月/1993年12月,。

17(6),第663-669页。

4.格鲁丁,J.为什么的CSCW应用程序失败:

组织界面的设计和评估中存在的问题。

在诉讼的CSCW88,波特兰,俄勒冈州,1988年,纽约:

ACM出版社,页85-93。

5.石井,H.,小林,M.,有田,K.,迭代设计的无缝协作媒体。

通讯的ACM , 1994年8月8号,第37卷,页83-97。

6.曼德维尔,J.,戴维森,J.,坎贝尔,D.,达尔,A.,施瓦茨,P.,和弗内斯,T.一个共享的虚拟环境建筑设计评审。

在CVE96 1920 研讨会论文集, 1996年9月,英国诺丁汉。

7.大岛,T.,佐藤,K.,山本,H.,田村,H.AR 2曲棍球:

协同增强现实的案例研究,在法律程序中的VRAIS'98,pp.268-295,1998。

8.Rekimoto,J.矩阵:

A实时目标识别和增强现实注册方法。

的亚洲太平洋电脑人机交互1998(APCHI'98),日本,1998年07月15日至17日进行的法律程序中。

9.Rekimoto,J.运保:

手持式增强现实系统的协同设计。

在出发的虚拟系统和多媒体96(VSMM96),岐阜,日本,9月18日至二十零日,1996年。

10.Schmalsteig,D.,FUHRMANN,A.,Szalavari,Z.,Gervautz,M.,Studierstube-增强现实的环境中进行协作。

在CVE96 1920 研讨会论文集, 1996年9月,英国诺丁汉。

11.Sellen,语音模式介导的视频对话。

在论文集, 1992年5月3-7日,92CHI,ACM:

纽约,页49-59。

12.Wexelblat,A.,合作方式:

虚拟现实技术和协同工作,在虚拟现实的应用和探索的现实。

编辑A.Wexelbl

展开阅读全文
相关资源
猜你喜欢
相关搜索
资源标签

当前位置:首页 > 经管营销 > 经济市场

copyright@ 2008-2023 冰点文库 网站版权所有

经营许可证编号:鄂ICP备19020893号-2