文献翻译

学习心得链接:
1.https://blog.csdn.net/qq_43383599/article/details/88820031
2.https://blog.csdn.net/qq_41643318/article/details/88839366
3.https://blog.csdn.net/weixin_40211853/article/details/88963183

Multisurface Environments(多面环境)

——Teddy Seyed and Frank Maurer

介绍

传统上,用户在一台计算机上使用一个或多个遵循键盘和鼠标模式的显示器与信息进行交互。这种模式反映在保持相对一致的硬件环境上。例如,文字处理应用程序的用户可以在家里或办公室工作,而不用过于担心使用的电脑技术和与信息本身交互的变化。最近,随着交互技术的更新,计算机技术发生了模式转变,新形式的交互技术也变得司空见惯。现代计算环境包括台式电脑,笔记本,智能手机、平板、数字桌面和高分辨率墙壁显示器——数据交互可以在一系列步骤中同时涉及其中的几个。

计算环境的概念最初由马克.维泽尔(1999)提出,包括许多具有不同形式因子的不同设备。这种类型的计算环境——自动计算环境——这样描述环境中的机器:“有不同的大小,每个都适合于特定的任务”,且“在网络中相互连接”。回到单词处理的例子,在这样的环境中(在家庭或办公室设置中),用户有很多选择:在哪里进行文字处理;应使用什么设备(例如平板,笔记本,手机);以及他们想要完成的文字处理任务的类型——阅读、编辑或创建文档。毫无疑问,在这样的环境中,每一款新的平板、手机、壁挂式显示器或其他新设备的互联,都让我们更接近维泽尔所描述的“自然人类环境”。

构建“自然人类环境”所面临的主要困难是设备需要特定的信息,以便在物理或空间上感知它们彼此以及它们所处的环境。人和设备的位置、每个设备相对于其他设备的方向和距离等信息,都是构建“自然人类环境”的重要组成部分。虽然这些信息大多可以通过外部传感器和内置设备传感器单独获得,但它们与“自然人类环境”的结合尚未完全实现。这种结合称为多面环境(MSE),我们将在本章中讨论。接下来,我们定义和描述MSEs的发展,然后评估它们提供的设计空间。

定义多面环境

由多个显示器组成的更传统的环境可以描述为“具有两个或多个显示器的交互式计算机系统,这些显示器位于相同的一般空间(例如相同的房间),并且在某种程度上彼此相关”(Nacenta,Gutwin, Aliakseyeu,& Subramanian, 2009)。它还包括“多个显示器连接到一台计算机的系统和联网计算机连接显示器的统”(Nacenta等,2009)。在这个定义中,显示被定义为输出机制,而不一定是输入机制。这是我们为MSEs所提供的定义中一个重要而独特的方面,定义如下:

多面环境是一种空间感知环境,其中与信息的交互分布在几个不同的设备上,如数字桌面、墙壁显示器、平板和手机,以及设备之间的空间。这种相互操作的分布意味着该环境中的多个用户可以使用任意数量或不同组合的设备执行多种活动。

在这个定义中,重点提到了为信息交互提供不同输入方式的设备和传感器,例如多点触控和3D交互。在这个定义中,交互还意味着多面环境中的显示和设备不仅仅是输出的手段,还是相互观察对方和人的交互表面。这“强调了当今许多交互式墙壁、桌子、平板、桌面显示器、笔记本和pda(掌上电脑)的本质,这些设备除了具有显示作用,还可以进行交互”(Shen, Esenther, Forlines,& Ryall, 2006)。使用MSEs后,应用程序和内容不再绑定到单个设备,而是分布在环境中的设备和空间本身之间。

图22.1,一个具有不同显示方式和设备的多面环境例子

图22.1突出显示了一个包含数字桌面、墙壁显示器、平板和手机的MSE示例。在这个环境中,用户可以自由地为任务选择特定的显示方式或设备。然而,并不是所有的任务都适合所有的设备或显示器。例如,需要检查大量信息(例如地理空间数据)的用户可能会选择更大的交互界面,例如数字桌面或墙壁显示器,而不是小得多的平板和手机。

在MSEs的定义中还强调了空间意识的概念,这意味着显示器和设备知道彼此的位置、空间中的人以及其他属性(如方向)。空间意识应用到图22.1中,就意味着手机可以意识到墙壁显示器的位置,如果用户拿起手机并将它指向墙壁显示器,墙壁显示器本身会意识到它被手机指着。这个例子说明了用户交互会被环境的空间布局影响,并且对于我们在本章后面详细讨论的几种交互非常重要。

多面环境的演变

MSE的一个早期示例是1999年创建的Cyworld控制室(图22.2),它由大量的单个工作站(每个工作站有一个显示器)和一个大的墙壁显示器组成,用户可以使用自己的工作站与之交互(http://www.cyworld.com/cymain/?f=cymain)创造这个环境的目的是允许管理员监视名为Cyworld的虚拟游戏世界的各个方面。这种类型的环境和研究文献中的其他环境都是在多用户会议室或工作区中发现的,用户通常在这些地方拥有自己的工作站(Stefik等,1987)。

图22.2 位于韩国首尔的Cyworld控制中心。

另一个早期MSE原型是Courtyard (Tani,Horita, Yamaashi, Tanikoshi, & Futakawa, 1994),它通过将单个工作站与大型共享显示器组合在一起来支持协作工作,这种大型共享显示器可以通过单个工作站的传统键盘和鼠标进行输入。大屏幕作为一个共享工作区,用户可以在其中放置自己的内容,从而促进环境中其他用户之间的协作讨论。在这些类型的早期环境之前,用户通常需要移动到其他独立工作站进行协作,这对于合作的大型用户组(如城市规划者)来说是不可行的。为了支持一些技术,共享工作区的概念也得到了扩展,例如允许大屏幕用于显示概述,而小屏幕用于显示详细信息。这些技术在几个研究原型中加重了单个显示器的任务,允许用户为各种任务同时使用多个显示器(Cook, Ellis, Graf, Rein,& Smith, 1987)。

在工作区和会议室中使用多个不同种类屏幕(显示器和大型墙壁显示器)的一个关键好处是允许用户适当地、更有效地划分和组织任务,尤其是在协作任务中(Bandelloni & Paterno, 2004)。早期的研究文献和原型大多集中于多显示器环境,这些环境是为使用固定工作站(或显示器)进行协作任务而设计的,主要使用键盘和鼠标进行交互。根据这一早期文献和研究,对多显示器环境的更正式描述如下:

定义1——多显示器环境:多显示器环境是指用户可以与多个显示器(如壁式显示器和计算机显示器)进行交互的环境。用户通常通过键盘和鼠标输入与这些不同种类的显示器交互。此外,环境中的显示器通常位于固定的位置。

多显示器环境早期原型的一个明显问题是,用户的许多交互都与固定的显示器捆绑在一起,限制了它们的移动(Bolt,1984)。在这些环境中,限制用户到工作站的移动和限制他们根据任务移动自己的能力是极其有害的(Luff & Heath, 1998)。为了解决这个问题,环境原型开始使用摄像机(移动或固定的)来扩展单个工作站的工作空间(Heath, Luff,& Sellen, 1995)。这些摄像机将位于不同位置的用户的各个工作站组合到一个供所有用户共享的工作区中。然而研究强调,这些技术对用户在环境中如何移动以及他们如何与其他用户合作产生了负面影响,因为由于相机的存在,他们在移动时感到不舒服(Gaver,Smets,& Overbeeke, 1995)。协作的重要性使得用户移动性在MSEs中扮演着至关重要的角色。

为了解决多显示器环境中缺乏移动性的问题,有人建议将具有移动特性的设备与固定工作站和墙壁显示器结合使用(Gaver et al.,1995)。多面环境支持用户和设备的移动性,超越了鼠标和键盘的交互。几种不同的结合了移动技术的MSEs原型——如个人数字助理(pda)、手持平板和笔记本——开始出现。Rekimoto利用移动的概念引入了一个原型的多面白板应用程序,用户可以使用一个手持平板绘图,然后将他们的绘图转移到一个共享的墙壁显示器(Rekimoto, 1998)。手持设备作为用户创建图纸的私人工作区,而墙壁显示作为一个公共空间,图纸可以共享。类似地,增强的桌面环境集成了笔记本、共享墙壁显示和物理桌面(Koike, Nagashima, Nakanishi,& Sato,2005)。拥有笔记本的用户有不同的工作空间,可以将内容传输到共享显示器上,这些显示器通过投影仪和手控跟踪系统的增强实现了互动。需要注意的是,在增强桌面中,尽管笔记本在环境中具有可移动性,但桌面仍然是共享的协作中心,这一点在其他几个试图在MSEs中解决移动性问题的原型中得到了反映(Sugimoto, Hosoi,& Hashizume, 2004)。这突出了MSE与早期原型的相似之处,在早期原型中,固定的显示器被安排在一个桌子周围,而桌子间接地充当了一个协作中心(Elwart‐Keys, Halonen, Horton, Kass, &Scott, 1990)。

将数字桌面集成到MSE中,支持了“自然人类环境”的概念(Weiser, 1999),因为人们发现用户在使用MSE时可以反映和扩展他们现有的工作实践(Brignull, Izadi, Fitzpatrick, Rogers,& Rodden, 2004)。这意味着用户同时通过物理和数字桌面实现类似的实践。i‐Land项目是一个早期的MSE原型,包括一个数字桌面(Streitz et al.,图22.3)。以前固定的工作站被集成到椅子上,可以移动到环境中的任何地方,还可以与高分辨率的大型墙壁显示器交互。数字桌面作为协作中心,用户可以在这里(通过触摸输入)实现内容共享和交互。类似的技术也用于更小、更便携的数字桌面,这些桌面可以与其他表面连接,形成另一个共享的数字大桌面。i‐Land允许的移动性和数字桌面作为共享空间的使用为随后的其他几个研究原型提供了动力(Everitt,Ryall, & Forlines, 2006)。此外,MSEs还开始整合不同的输入方法,如指向手势和语音命令,以创建更自然的MSEs。

图22.3 i-Land MSE 来源:Streitz等(1999)

使用更新的移动技术——笔记本、pda、平板和数字桌面——以及不同的输入模式(键盘和鼠标、触摸输入或空间手势)的趋势突出了多显示器环境向多面环境的演变。定义如下:

定义2——多面环境:多面环境是指用户可以与多个显示器、一些移动和固定的壁式显示器、笔记本、pda、平板、数字桌面和计算机显示器进行交互的环境。用户通过键盘和鼠标、触摸输入、多点触摸手势或语音命令与这些不同的表面进行交互。

定义2带来了两个关键的变化:可移动性和输入的多样性。显示器不再位于固定的物理位置,而是通过各种输入源创造交互性。

在如i‐Land (Streitz et al.), CoMem‐iRoom (Fruchter, Saxena, Breidenthal,& Demian, 2007)和其他一些的MSEs中的另一个重要概念是空间意识(Kohtake等,2005)。

在MSEs的环境中,空间感知指的是环境对用户位置、显示器以及位置对交互影响的感知程度。在i‐Land中,不存在空间感知,因为用户可以用显示器进行移动,也不需要知道环境中其他显示器的信息(图22.3)。例如,i - Land的用户可以通过在椅子上的图形菜单中选择目的地,将内容从椅子移动到墙上。这种交互意味着在选择目标设备之前,必须在用户的头脑中形成空间意识——系统不需要理解空间性。这种空间意识的缺乏也意味着i - Land上的用户无法将便携式数字桌面带到墙壁上显示和传输基于物理距离的内容。

在几个MSEs原型中,跨显示器的交互是用具有显示器和环境图形表示的接口创建的(一个“微型方法中的世界”),环境中可用显示的列表菜单(基于菜单的方法),或如“门户”一样的新方法,允许用户在显示器之间拖动内容(Wigdor.Shen.Forlines & Balakrishnan, 2006)。MSE最近的一个例子是微软的智能眼镜应用程序(https://gizmodo.com/5915553/what‐is‐xbox-SmartGlass),它允许用户创建一个由游戏控制台(通常连接到显示器)和任意数量的手机或平板组成的连接环境。平板电脑和手机可以用来控制连接到游戏控制台或的显示器,反之亦然。

空间感知意味着MSE中的所有表面(显示设备)都能够在任何时间访问所有其他表面和空间用户的绝对物理位置。有限的空间感知削弱了这种能力——表面可能知道一些设备的相对位置,或者能够在特定的时间点识别特定的设备。例如,在空间信息有限的MSE中,不可能随时知道其他设备的确切物理位置(或方向)。

基于陀螺仪、加速度计、RFID标签或二维码等传感器的信息,可以创建有限的空间知识。例如,平板电脑的摄像头可以识别附着在其表面的二维码,并利用这一知识将内容传输给它。尽管这些MSEs中的空间信息有限,但有研究表明,在多显示器环境中,空间感知显示器为与其他显示器的直接交互提供了自然的补充或替代(Fitzmaurice, 1993)。例如,Yee使用配备传感器的PDA在自定义设计的应用程序中进行导航(例如地图应用程序)(Yee, 2003)。一项可用性研究的结果发现,用户更喜欢这种浏览数字信息的方法,而且与该研究中使用的键盘、鼠标或触摸等其他输入方法相比,这种方法的效率要高得多。

空间感知环境的一个重要结果是用户与显示器交互方式的变化。一种常见的技术是移动设备利用模拟空间感知来控制大型数字显示器上的内容(Ballagas,Rohs,& Sheridan, 2005)。这些技术包括通过不同的物理输入机制使用移动显示来传输内容,如扫描、指向和拍摄。类似地,抛掷交互将触摸与移动设备上的加速度输入结合起来,让用户在不同的位置将内容物理性地“扔”到显示器上(Hassan, Rahman, Irani,& Graham, 2009)。其他被提议的与移动设备的额外交互包括投掷和倾斜,以将内容传输到大型数字显示器(Dachselt & Buchholz, 2009)。这些类型的交互——与显示器或设备而不是在其上的交互——只有在显示器或设备本身的空间感知下才可用,这突出了与定义2的不同,在定义2中,显示器的唯一输入机制是键盘和鼠标、触摸输入或手势。因此,进一步修订的定义如下:

定义3——空间感知的多面环境:空间感知的多面环境是指用户可以使用空间中的物理位置和移动与多个显示器交互的环境,包括移动或固定墙壁式显示器、笔记本、pda、平板和计算机显示器。由于其中一些设备具有空间感知能力,用户可以通过不同的输入模式(键盘和鼠标、触摸输入、身体动作、3D手势)与不同显示器进行交互,或通过投掷或指向等直观手势与显示器本身交互。

任天堂(Nintendo)的Wii U游戏平台最近提供了一个例子,用户可以通过辅助显示器和摇动手势控制屏幕上的内容(http://www.nintendo.com/wiiu)(图22.4)。

图22.4 通过一个“摇动”手势在掌上控制器上摇动任天堂Wii U电视上的内容

虽然在MSEs中并不是所有的显示器都是空间感知的(根据定义3),但是为了达到真正的“自然人文环境”(Weiser, 1999),重点应该放在“人”上。也就是说,用户和他们的动作应该在被认可的过程中扮演重要的角色。从MSEs的角度来看,这意味着环境在空间上可以感知所有设备和用户。商业上的新技术,如微软Kinect传感器(https://developer.microsoft.com/en-us/windows/Kinect)和Vicon动作捕捉系统(http://www.vicon.com/products/camera-systems),允许对个人进行空间跟踪,当与来自设备本身的方位和位置等传感器信息相结合时,就有可能创建多面环境,用户和设备都可以被设备跟踪。这些多面环境还可以考虑代理,即用户和设备之间的空间关系,以增强交互性(Ballendat,Marquardt,& Greenberg, 2010)。

LightSpace是MSE的一个例子,它利用用户和投影表面的空间跟踪,实现直观和新颖的交互(Wilson & Benko,2010)。用户可以在桌面上操作内容,然后通过同时触摸内容和目标显示器来进行传输。或者,该环境中的用户也可以用手拿起内容并将其放到另一个目标显示器上。

Code Space MSE是为了支持并行的小型开发团队会议而构建的,它结合了具有空间感知的移动触摸设备、微软Kinect传感器和多触摸屏(Bragdon, DeLine, Hinckley,& Morris, 2011)。用户可以通过空气指向(有或没有设备)和触摸的组合来进行跨设备交互。

最后,空间关系在MSEs中也得到了探索,用户可以在MSEs中与带有触控功能的墙壁显示器交互,该显示器可以对用户的距离、身份、物理位置、方向,甚至是移动电话或平板电脑等设备作出反应(Ballendat等,2010)。这些MSEs,交互技术以及其他技术强调了在多显示器环境中全空间感知的潜力,还强调了重视用户和“自然人类环境”的定义3(Weiser, 1999)。同样重要的是要注意到,随着多面环境的不断发展,尤其是随着可穿戴设备等新技术的兴起,它们的定义也将不断发展。

交互空间

在MSEs中,任何数量的用户和设备都可以同时存在,交互设计人员面临的一个固有问题是如何在不同的显示器之间移动内容并控制。在具有多个监视器的传统环境中,内容的移动通常用键盘和鼠标完成。在一个交互分布在多个不同设备上的MSE中,移动内容仍然是一个挑战,环境本身的设计也是一个挑战。在本节中,我们将讨论在研究MSE交互的文献中建立的一些独特而有效的方法,通常可以分为使用图形用户界面(GUI)、实体或对象(物理)、手势或空间关系。之后将讨论影响设计MSE输出的重要因素。

图形用户界面(GUIs)
在上一节描述的许多早期MSEs中,GUI是用于在显示器之间传输内容的最常见方法。无论MSE中使用何种技术,GUI方法一直是用户最熟悉的界面。始于20世纪60年代中期Douglas Engelbart的窗口、图标、菜单和指针(WIMP) GUI范例,在现代操作系统中依旧很常见(Engelbart & English, 1968),是一个在WIMP中建立良好的范例和组件,可以用于许多为MSEs服务的 GUI方法。

传统菜单 GUI中的菜单为应用或计算机系统提供了一个选项或命令列表。在MSE中,可以使用类似的方法在设备和显示器之间传输内容。TeamSpace MSE包括几台笔记本电脑和一个共享的墙壁显示器,并利用基于菜单的GUI方法在协作环境中传输内容(Hebert & Chen, 2005)。用户可以从菜单中选择其他设备和显示器,并将内容发送到所选的设备或显示器。用户还可以通过菜单控制共享的墙壁显示器。基于菜单的方法也用于在为MSEs设计的地理空间应用程序中驱动交互。平板电脑上的菜单用于控制出现在数字桌面和墙壁显示器上的信息(Forlines, Esenther,Shen,Wigdor, & Ryall, 2006)。该菜单会显示设备与显示器当前显示的信息,用户可以通过在菜单中选择添加或删除特定显示器的信息。Dynamo使用基于菜单和图标的GUI方法让用户传输内容(Izadi, Brignull, Rodden, Rogers, & Underwood, 2003)。这些图标表示环境中的单个显示器,在菜单中,用户可以将内容(网页、图片、视频)拖动到适当的目标设备图标上。

通常,用于多显示器环境的GUI方法列出设备,并在基于文本的菜单中显示环境中的设备,或者使用菜单中的图标来表示设备。然后使用单击或拖动作为交互的一种方式,以促进内容的传输。这种方法在消费领域非常普遍,通过苹果的Airplay等技术,用户可以通过各种苹果产品分享音乐和视频内容。

微型世界 用于GUI的世界微缩(WIM)方法将物理交互空间映射到2D GUI。这些类型的接口通常出现在“自顶向下”视图中,图标或文本在空间上映射到环境中的特定设备或用户。这种类型的空间映射允许用户轻松理解环境中其他用户和设备的空间关系。因此,与基于菜单的方式相比,用户向目标设备发送内容的速度要快得多(Gostner, Rukzio,& Gellersen, 2008)。先前的MSE研究表明,用户倾向于从自身或环境的角度考虑与设备的空间关系,就像他们与现实世界中的物体(如杯子或书)一样(Ha, Wallace, Ziola, & Inkpen, 2006)。然而,在设备数量非常少(例如1或2台设备)或高到足以扰乱接口的情况下,WIM方法可能不会更快。对于多显示器环境,WIM方法的一种替代方法允许用户从空间映射的WIM GUI中选择一个显示器,然后选择要发送到目标显示器的内容或命令(图22.5)(Biehl & Bailey, 2006)。WIM的另一种方法使用新的接口元素来提供不同显示器之间的链接,来允许用户拖动映射到不同显示器的管道(称为软线),或者匹配不同显示器的颜色和形状(Wigdor et al.,2006)。

图22.5 选择显示器的WIM方法。来源:Biehl和Bailey(2006)。

物理交互
用户在没有技术的情况下进行的交互主要会考虑到物理交互,物理交互可能包括物理对象,例如挥动高尔夫球杆或扔球。将这些物理交互映射到多面显示器环境中的可用设备和用户,会产生从概念上映射到现实世界的交互。然而,在物理方法中使用设备的技术可能有很大的不同。

物理对象作为媒介 在多面显示器环境中,物理对象既作为一种媒介,又作为一种传输手段,这对于MSE设计人员来说是一种很有用的技术。因为通常这种类型的交互会映射到用户熟悉的概念。

图22.6 交互的例子。(a)用钢笔进行选择删除交互(Rekimoto &Nagao, 1995);(b)桌面和墙壁显示器之间的直接接触交互(Wilson&Benko, 2010)。

例如,“选择-删除”交互技术允许用户通过笔轻击一个设备来选择内容,然后可以用同样的笔再次轻击另一个设备(Rekimoto & Nagao, 1995)。在这种情况下,笔提供了一个物理媒介来传输信息(如图22.6(a)所示)。另一个使用物理媒介作为交互方法的例子是前面提到的i‐Land,在这里用户可以将信息链接到任意对象(例如键、手表或木块),然后将其放置到数字桌面,用于识别和传输与该对象链接的数据 (Streitz et al., 1999)。

直接接触 在MSEs中,直接接触意味着直接接触一个或多个设备来传输或控制内容。这种直接接触交互方式的一个例子是在LightSpace中提供的,用户可以同时接触墙壁显示器和桌面来传输内容(Wilson & Benko, 2010)。用户通过直接同时接触两个显示器而成为通道,如图22.6(b)所示。另一种技术是增强触屏,用户可以直接接触设备来传输内容 (Rekimoto & Saitoh, 1999)。

手势与空间关系
手势动作为MSEs中的交互提供了额外的好处,特别是因为它们可以与基于触屏的显示器相结合(Krahnstoever, Kettebekov, Yeasin,& Sharma, 2002)。空间心理学是一门研究人们的私人空间和社会互动的社会学领域,它的定义是基于距离的物理交互范围(Hall, 1968)。空间交互是基于这一领域,更关注影响设备之间空间关系的因素,如位置、方向和运动 (Ballendat et al., 2010)。手势和空间技术的结合产生了一种强大的内容传输机制,因为手势和设备都能在空间上感知环境。

在设备上的手势 MSE中直接在设备上的手势(通常通过触屏输入)是一种用户可以用来选择和传输内容的方法。例如,在Code Space中,用户可以将内容从移动显示切换到墙壁显示或使用移动显示的其他用户(Bragdon et al., 2011)。用户还可以通过向下滑动手势从其他显示中检索内容。还提供了用于发送内容的反向交互,用户可以选择带有移动显示的内容,然后执行向上滑动手势将内容发送到墙壁显示。图22.7显示了在平板电脑上做一个轻弹手势将内容发送到数字桌面的示例。

图22.7 轻弹手势

设备动作 在MSEs中的设备动作通常涉及设备的物理运动。设备的旋转是该领域首次探索的动作之一(Bhandari & Lim, 2008)。为了触发这个动作,用户将手机从水平位置旋转到垂直位置。研究的其他动作包括摇晃动作,即移动设备沿轴来回摇晃(Bhandari & Lim, 2008)。然而,这项工作是有限的,因为它触发了设备上的动作,并不影响环境。随后的研究将这些动作与MSEs联系起来,并添加了一些动作,如从移动设备到数字桌面的“扔”,以及从数字桌面到移动设备的“拖”(Doring, Shirazi, & Schmidt, 2010)。在文献中“扔”动作及其后续动作是使用设备作为动作机制的典型例子(Dachselt & Buchholz, 2009)。

没有设备的手势 在MSEs中,没有设备的手势通常是用手指、手和手臂来完成的,还可以通过语音命令和眼球跟踪等技术进行进一步增强(Bolt, 1984)。LightSpace还提供了这种技术的另一个例子,该系统内置的位置跟踪和屋顶安装的投影仪允许用户将一个数字对象从环境中的一个位置带到另一个位置(Wilson & Benko, 2010)。指向是另一种不需要设备的常见交互技术,如Code Space(Bragdon et al,2011)。表22.1总结了交互空间部分中描述的系统。

表22.1 交互空间中描述的系统的摘要

环境设计

在MSEs中,环境的空间布局以及静态显示、移动显示和用户之间固有的空间分离在交互级别上是极其重要的(Su & Bailey, 2005)。这种分离被定义为无显示空间(设备或显示器之间的空间)(Nacenta et al., 2009)。在环境的空间布局中如何看待它是环境设计中的一个制约因素。MSE中的设备(或显示器)可以在一个公共空间(也称为空间连续)中连接在一起,该公共空间被认为是独立的(也称为空间不同的),或两者的组合(混合)。

连续性
在传统的基于PC的环境中,多个显示器可以以多种物理形式存在,用户通常将显示器链接到一个连续的显示空间中。然后,应用程序可以将一个连续的信息空间映射到这个连续的物理空间。连续的物理空间允许跨显示器进行交互,因为用户可以连续地向任何目标显示器的方向移动鼠标指针。显示器通常映射到一个概念性的物理位置,一些现代操作系统在链接多个显示器时使用这种技术(图22.8a)。此外,软件解决方案也允许PC、笔记本电脑等类型的显示器创造出连续的显示空间。(Microsoft Garage“车库”团队的无界鼠标
https://www.microsoft.com/en-us/garage/wall-of-fame/mouse-without-borders/

类似的技术应用于移动显示,用户可以将显示面板物理地附加到其他显示面板上,创建共享的连续空间(Kohtake et al., 2005)。这个特殊系统的一个优点是,它允许用户为不同的任务空间配置移动显示器(Hutchings, Smith, Meyers, Czerwinski, & Robertson, 2004)。这个概念是建立在空间连续的交互式工作空间上的,包括笔记本、挂壁显示器和桌面(图22.8b) (Rekimoto & Saitoh, 1999)。这些交互工作区将每个单独的组件映射到一个表示其关联物理位置的共享空间中。用户可以通过简单地将内容拖动到空间连续的下一个显示器来在显示器之间移动内容(Hinckley, Ramos,Guimbretiere, Baudisch,& Smith, 2004)。

为了在MSE中正确地跨多个物理上独立的设备显示连续的信息空间,需要充分处理设备之间的空白空间。图22.9突出显示了一个MSE,它显示了单个连续的信息空间,比如一张地图。不同的显示器显示大地图的不同部分,突出显示空间的连续性和物理性。

投影表面(Pratte, Seyed,& Maurer, 2014)或类似RoomAlive(微软空间投影)的方法(Jones et al., 2014)可用于填充显示之间的空白空间,输出显示信息空间的连续性。

图22.8工作区示例。(a)各种操作系统的连续桌面配置;(b)一个空间连续的工作空间,允许用户拖拽到不同的设备和对象。资料来源:Rekimoto & Saitoh(1999)。


图22.9 (a)一张共享的地图可以映射到一系列空间连续的MSE设备中。如果设备在(b)中被物理移动,则该设备显示与其空间相连的地图位置。

不连续性
多个显示器还可以显示不同的信息空间,以一种使用物理的方式突出不同类型的信息。这方面的一个示例是包含笔记本、手机和运行媒体应用程序的大型显示器的桌面的工作区。笔记本和手机都有不同的方法来控制大屏幕上的媒体应用程序,尽管每个设备包含不同的内容,这突出了相关的不连续显示的本质。

包括i‐Land (Streitz et al.,1999)在内,另一个不连续工作空间的例子是,纽约警察局(Wigdor et al.)使用数字桌面来促进合作评估和做决策(Wigdor et al., 2006)。在这个工作区中,提供了两个挂壁显示器和一个数字桌面——每个都有不同的数字工作区,有不同的菜单和内容。虽然显示在空间上是不连续的,但是用户可以通过表示每个显示器的图标在显示器之间共享内容(一种WIM方法)。在这种多显示器环境中,可能的交互包括选择、删除、轻击、发送,将不同的地图映射到多面显示器中。

图22.10空间不连续的MSE。每个设备显示不同的映射,突出显示每个设备在环境中是不连续的概念。

混合型
混合MSE是空间不连续和空间连续显示的组合。如图22.11所示,将显示不同地图的空间离散显示与显示共享地图不同部分的空间连续显示相结合。

The WILD Room(视频链接 https://www.youtube.com/watch?v=G5icm6sgkt8 )是一个将空间离散显示和空间连续显示结合到一个独特的交互环境中的MSE (Beaudouin‐Lafon et al.,2012)。它由超高分辨率的墙壁显示器、数字桌面和众多移动设备组成。这种混合的MSE允许用户在环境中拥有两个不同的工作区:一个空间上离散的私有工作区,其中单个用户可以查看和操作内容;另一个空间上连续的共享工作区,其中用户可以共享内容和协作。混合环境可以为用户提供私有和公共工作区(Lee et al.,2011)。

MSE环境的选择取决于显示器的性质和移动性、提供的空间感知以及用户预期在环境中执行的任务类型。表22.2总结了“环境设计”一节中描述的系统。

图22.11混合MSE。环境的一部分包含离散的设备,而另一部分则位于连续空间中。

表22.2“环境设计”中描述的系统摘要。

结论

在这一章中,我们首先对多面环境进行了定义,然后讨论了它们的演变,重点讨论了显示器从静止到移动的演变,以及空间跟踪系统可用性的增加。

多面环境正变得越来越普遍,随着新型显示器(如可穿戴设备和其他新型外形)的增加,中小企业的作用将不断发展和变化。 今天几乎所有的技术交流展都展示了可以集成到多显示环境中或被视为多显示环境的一部分的技术,就像当前一代的游戏机一样。 此外,这些有潜力的多面环境正应用于各种领域——例如医药,石油和天然气以及紧急情况管理(Chokshi,Seyed,Marinho Rodrigues,&Maurer,2014)。

文献翻译——The Wiley Handbook of Human Computer Interaction,Multisurface Environments相关推荐

  1. 《The Wiley Handbook of Human Computer Interaction: Multisurface Environments》多面环境 学习心得

    Multisurface Environments--多面环境,简称MSEs 介绍 在介绍中,文章提到了文字处理工作者的例子: 文字处理应用程序的用户可以在家里或办公室工作,而不用过于担心使用的电脑技 ...

  2. 《The Wiley Handbook of Human Computer Interaction》翻译之Part XI

    <The Wiley Handbook of Human Computer Interaction>翻译之Part XI(Application)--40.Motor Vehicle Dr ...

  3. 《The Wiley Handbook of Human Computer Interaction》Part V Input / Output 以身体为中心的听觉反馈设计原则 翻译

    该文章内容翻译自<The Wiley Handbook of Human Computer Interaction>P371-P403 以身体为中心的听觉反馈设计原则 文章目录 以身体为中 ...

  4. 《The Wiley Handbook of Human Computer Interaction》——Task Load and Stress  文献翻译

    任务负载和压力 引言 从人机交互的角度来看,"任务"是人类活动的基本单位.虽然人类任务的定义并不明确,但任务负载的概念很容易定义.如果我们观察某人完成了任何类型的任务,我们就可以相 ...

  5. 《The Wiley Handbook of Human Computer Interaction》翻译(冰山一角)

    一.翻译原文定位: Part VII Interaction,A Quick Look at Game Engagement Theories 中间一部分 二.翻译原文链接(英文): https:// ...

  6. 《The Wiley Handbook of Human Computer Interaction 》 中Accessibility章节(690-702页)翻译

    无障碍性 介绍和背景 在人机交互学科中,一个重要的实现是人们使用技术的能力各不相同.这种实现随着学科的成熟而增长,但随着用户范围的扩大,它也变得更加重要.过去,计算机数量很少,只有专家才使用,但现在, ...

  7. 《The Wiley Handbook of Human Computer Interaction》中“企业客户在线社区和虚拟团队的可行性”章节翻译

    目录 介绍 为什么要构建虚拟团队和在线社区? 如何设立团队以取得成功? 如何管理社区以获得成功? 结论                         企业客户在线社区和虚拟团队的可行性 Tharon ...

  8. The Wiley Handbook of Human Computer Interaction翻译

    游戏应用用户研究 介绍 历史 起点(1970年代) 1980年以后 什么是游戏用户研究? 应用与基础研究 游戏用户研究的三个关键 我们的游戏用户研究方法 准确的用户反馈循环 研究者/游戏开发者关系的重 ...

  9. 交互媒体专题设计------《The Wiley Handbook of Human Computer Interaction》

    现代医疗保健和(再)能力培养中的HCI方法 目录 序章 历史背景 从最初的概念评估到定制和商用仪器的系统 应急模型:优化激励区(缩放) 机器人照明设备的无障碍手势控制 视频游戏无障碍手势控制 结论 终 ...

最新文章

  1. Cocos2dx游戏开发系列笔记6:怎样让《萝莉快跑》的例子运行在vs和手机上
  2. mysql socket错误_解决Can’t connect to local MySQL server through socket ‘/tmp/mysql.sock’错误...
  3. 使用ubuntu16.04对NVIDIA Jetson Xavier NX使用刷机:两种刷机方式:SD卡镜像法 和 NVIDIA SDK Manager法
  4. Oracle中主键自增长
  5. usb2.0、usb3.0、usb3.1、type-c 接口含义与区别
  6. Pytorch register_forward_hook()简单用法
  7. csrf防御 php,跨站请求伪造CSRF的防御实例(PHP版本)
  8. 2020离散数学系列
  9. SAP常用TCODE
  10. 福禄克光纤OTDR测试原理
  11. PX4模块设计之九:PX4飞行模式简介
  12. 石墨烯和富勒烯的区别?-供应石墨烯微片粉末/单层的多孔石墨烯前驱物/三维石墨烯网络结构复合材料块体定制
  13. 图片放大模糊怎么办,Python无损清晰放大,360P变4K
  14. 加息+四巫日铁矿石大跌,棕榈油认沽最高30倍,豆一09-01继续反套2022.6.15
  15. 镂空三角形(for循环找规律)
  16. Linux中的setenv与export
  17. 唐诗三百首加密软件如何使用_文档文件加密及设计图纸加密的防泄密软件怎么部署和使用...
  18. BZOJ 2448: 挖油
  19. 小程序 微信位置详情页打开小程序
  20. 多多情报通:拼多多48小时发货怎么设置?最晚多久发货?

热门文章

  1. 单片机开发教程5——51单片机驱动TFT彩屏
  2. 微信小程序开发之小程序框架表单
  3. 从零开始构建Linux
  4. Imagex 安装 WIN7/8 系统
  5. 优秀程序猿因何而优秀?
  6. 【教程】PHP快速学习教程(语法篇)
  7. python numpy.power()函数的用法
  8. 2022山东省安全员C证考试模拟100题及答案
  9. 关于主板不支持SAS硬盘求解大佬
  10. 高斯若尔当法算法matlab,大规模问题的分解法-D-W分解法