您的位置: 旅游网 > 生活

耳朵交互基于电容屏图像分析的智能算法让盲

发布时间:2020-01-17 03:06:00

耳朵交互基于电容屏图像分析的智能算法,让盲人轻松使用

在飞速发展的信息时代,已经成为盲人与世界沟通的重要工具。盲人用手指触摸屏幕时,读屏软件能够把触摸到的内容转化为语音读出来。在中国,预估有600万盲人正在以这种方式使用智能。然而,如果说要与明眼人相比,盲人使用还有很多不方便的地方。其中一个问题就是单手交互。正如上图中所示,盲人使用时主要采用的姿势为一只手握持,将扬声器贴近耳朵,用另一只手的手指摸索屏幕,听取语音反馈。当被问及平时会不会单手交互时,除了极个别的专家级用户,大多数盲人表示根本没想过:要么尽量避免手里拿东西,要么就耐心点,等到双手都空出来时再使用。但是这样并不能从根本上解决问题。出行在外时,一手拿着盲杖或牵着导盲犬,或者在公交车上扶着扶栏,想使用就不是那么方便了。另外在公共场合时输入密码、听取私人信息时,扬声器放得声音再小,周围离得近的人也能听到内容,具有隐私性的问题。

单手交互是备受关注的一个用户体验设计问题。针对明眼人,的设计在界面设计、交互方式上做出了很多优化。盲人应该同等地参与和体验到设计和科技发展带来的便利。为此,清华大学计算机系人机交互课题组设计了一套用耳朵与屏幕接触的新颖交互方式,并开发了一种基于电容屏图像分析的智能算法,使得盲人也能轻松单手使用。以打的姿势使用,语音反馈可以从听筒播放,也解决了隐私性的问题。这项技术,虽然是为盲人开发,但也具有通用性,明眼人在需要单手交互时,同样可以使用。

那么,到底如何用耳朵来与交互呢?

对应于“手势”的概念,耳朵交互中对于不同“耳势”的设计。

用户通过耳朵与屏幕接触进行输入,听取语音反馈做为输出,完成完整的交互过程。对应于“手势”的概念,从耳朵本身的特性出发,耳朵交互也具有一套丰富的“耳势”设计,用户可以用耳朵在屏幕上执行单击、滑动、旋转、按压、触摸浏览等多种操作。用手指和屏幕交互,是保持不动而移动手指,与此完全不同的是,耳朵交互是保持头部不动,挪动使得耳朵与屏幕的接触方式发生变化。

单击:用屏幕轻触耳朵后马上抬起。

滑动:用屏幕接触耳朵后,可以向不同方向快速移动后抬起。

按压:屏幕轻触耳朵后,施加压力,使得耳朵的全部结构与屏幕完全接触。

旋转:屏幕轻触耳朵,以接触点为轴,向前或向后旋转。

触摸浏览:与盲人用手指时所采用的方式类似,将耳朵贴在屏幕上一会儿,震动后,即进入触摸浏览模式。这时屏幕类似一块触控板,用耳朵在屏幕上移动,即可听到不同坐标点的内容,如果听到了想要交互的目标,就可以通过按压来选中。

基于这些操作,用户基本上可以完成日常生活中所涉及到的交互任务,如拨打、发送信息、浏览应用等等。

一位盲人用户正在用耳朵交互完成日常交互任务,很快学会并成功后,他露出了一丝笑容

那么,支撑这些交互方式的算法是如何实现的呢?

首先,需要对电容屏的原理有简单的了解,以手指为例,人体作为导体与屏幕接触时会产生微弱的耦合电流,如果我们将感知到电容信号的强度由低到高转换为黑色到白色的像素数值,可以看到接触得越好的地方颜色越亮。同理,当耳朵靠近、接触屏幕时,也会在屏幕上产生信号图像。我们就将这些图像提取出来,进行分析和处理。

耳朵贴在触摸屏上产生的电容图像以及经过算法处理过后的图像

耳朵与手指完全不同:手指具有一定硬度,与屏幕的接触面积小而规整,而从生理结构上讲,耳朵非常软、由多个部分构成、表面不规则、高低不平。这对图像算法的设计提出了一系列全新的挑战:当用户用耳朵碰触屏幕时,到底哪一点才是他的意图点?用户用耳朵接触屏幕并移动时,耳朵可能会卷起,导致图像发生形变,怎么样才能比较稳定地跟踪耳朵的移动?等等。清华大学喻纯课题组一方面开展多人次的用户实验,分析用户的心理模型,收集用户的意见;另一方面不断优化高速目标跟踪算法的设计,使得耳朵的移动轨迹能被稳定获得,各种操作都能被稳定识别。

用户使用耳朵交互中的触摸浏览方式访问屏幕上的应用

目前,耳朵交互已申请专利。在设计和开发的过程中,清华大学课题组的师生们接触到了大量的盲人朋友,他们积极乐观的精神令人感动。信息无障碍领域还存在很多根本性的问题亟待解决,如各类应用程序的无障碍开发意识不足,导致信息读取不出来、交互无法完成等问题。这些问题都应该得到重视。科技应以人为本,盲人应该和明眼人一样拥抱同等自然的交互体验。通过设计和开发这样一种新颖的耳朵交互,我们不仅希望能够改善盲人朋友在单手交互上的无障碍体验,更希望能够引起更多人对于信息无障碍的关注,一起推进更加平等的社会环境建设。

上海传染病科医院哪家好
苏州圣爱植发医院怎样
济宁哪些医院看癫痫病好
湖南好的癫痫病专科医院
张家口白癜风治疗需要多少钱
猜你会喜欢的
猜你会喜欢的