残疾人人脸识别功能(面向残疾人的人机交互界面是什么)

中国论文网 发表于2022-11-17 21:18:14 归属于电子论文 本文已影响251 我要投稿 手机版

       中国论文网为大家解读本文的相关内容:          

摘 要:本文结合实例从历史的角度分析了早期和当前的面向残疾人的人机交互界面的主要特性,并对未来的人机交互界面提出了展望。

关键词:残疾人;人机交互
  引言:自从世界上第一台数字计算机ENIAC诞生以来,人类与计算机之间的交互便从未停止过。纵观人机交互方式的发展过程,从手工的卡片输入到终端字符界面,再到图形化的多窗口交互系统,乃至现在仍然在探索中的语音输入,行为识别等,我们可以看到人机交互的过程中人的因素越来越被看重,每一次交互方式的革新都是朝着便利人的方向发展。
  人的因素所涉及的范围极其广泛,生理,心理,行为等等,每一个方面都有其研究的价值。而我们在文中所要探讨的只涉及到其中一个很小的方面——面向残疾人的人机交互界面,通过一些专门针对残疾人的人机交互方法,来探讨人机交互界面的发展。
一、早期面向残疾人的人机交互:
  早期其实是一个相对的概念,在本文中的早期指的是90年代以前的人机交互。这一时期的普通的人机交互还是主要通过键盘,鼠标和显示器来进行的。这使得当时的人机交互几乎都与眼睛有关,而当时针对残疾人的人机交互也主要集中在与视力有关的方向之上,主要对象是全盲和半盲。
  由于受到技术和工艺的制约,这一时期的前期的尝试主要集中于将视觉转化为触觉的方面,就像当初人们发明盲文来帮助盲人阅读一样。当然,也有很大一批成功的面向盲人的人机交互界面被发明出来。
  在将屏幕文本转化为可触摸的文本方面,Optacon和Versabraille都是成功的典范。前者可以利用特定设备将文字扫描并用一块充满针的垫子来模拟他们的形状,或者是通过一个摄像头扫描CRT显示器上的文本;后者则是通过特殊的终端将文字输出为可以更新的盲文。
  但是,如同盲文一样,触摸文本只能使得很少一部分盲人受益,于是,另一种更加实用的方法——声音,浮出了水面。用合成语音读出部分屏幕上的文字的应用程序被大量发明,他们被叫做屏幕阅读器(Screen Reader)。
随后,随着WIMP(Windows, Icons, Menus and Pointers)的大量使用,基于WIMP的面向视力有缺陷用户的人机交互界面也随之出现。在这样的系统中,需要解决的关键问题就是实现对于整个窗口的模拟,包括文本,图标等等。通过利用数据库存储窗口在内存中的位图以及对于数据库的访问,在特殊的硬件和软件条件下能够解决大部分情况的模拟,包括新窗口的打开和其他窗口变为不活动的窗口等情况,可以为用户提供大部分信息。
二、当前面向残疾人的人机交互:
  从90年代开始到现在的这些年间,在摩尔定律的作用之下,计算机硬件和电子技术有了飞速的发展,与之相应的软件性能也得到了提高,新的人机交互方法层出不穷,针对残疾人的也有了很多新的创意,当然也变得更加复杂了:有的是利用眼球的运动和眨眼(eye movements and winks),有的利用大脑电波(Electroencephalograph), 有的利用肌肉控制器(Electromyograph), 还有的利用红外线,等等。
  首先,让我们先看一下利用肌肉控制器的这种方法。其基本思想就是首先将肌肉的物理运动通过传感器(包括表面电极,和信号放大器等)收集起来并转化为适当的数字形式以便于处理,之后通过特征提取器(feature extractor)进行预处理,一旦预处理结束,类型识别系统(classifier)就把这些行为分成不同的类。在最后的分类过程中,classifier采用最大程度相似评估的办法(Maxmium likehood measurement), 将不同的行为根据统计的结果分类,并且可以根据实际进行调整。
  接下来一个也是和EMG(Electromyograph)有关的一个尝试,叫做基于面部方向的人机交互界面。随着计算机性能的发展,科学家很早就开始把计算机视觉(Computer Vision)用于人机交互界面的设计了,但是只用摄像头给计算机硬件带来了很大的压力,因为毕竟要达到很好的反映速度需要很快的图像处理能力,同时,由于计算机摄像头的视野局限,单纯的计算机视觉方法并不是很有效。于是后来,科学家开始把EMG和计算机视觉相结合来进行设计,对于很小范围颈部肌肉活动,只需要用计算机的图像观察器来判断脸部转动的角度;如果大的话就可以用EMG来判断脸部转动的角度;如果处于两者之间,就用两者的线性组合决定。用这种方法,计算机可以根据人的面部方向来决定下一部的响应,这显然对于面向残疾人的人机交互界面的设计有很大的意义。
  语音是人类沟通的自然方式,在经历了前期的发展之后,自然在当前依然有很大的用武之地。我们下边所要说的就是一个基于语音控制的人机交互界面。它由六部分组成,鼠标和键盘的规划,语音识别器,带麦克风和两个开关的耳机,键盘和鼠标的电路,鼠标控制电路和微控制器。在这个系统中,键盘按键和对鼠标的被规划成不同的不同的语音指令,耳机上的两个开关一个是用于重置语音识别器,一个是用于切换对于键盘或是鼠标的控制,微处理器接受来自语音识别器的命令,并转化为对鼠标和键盘的控制,从而完成用户想要的操作。
三、未来面向残疾人的人机交互:
  尽管当前的人机交互界面有了一定的进步,但是由于成本和适用范围的原因,还不能被广泛的投入使用。但是在将来,随着计算机科学相关技术以及生物技术的发展,人的整个身体包括器官,肌肉,活动以及眼神等还有人所处的环境都将作为因素被考虑到人机交互界面的设计当中去。未来面向残疾人的人机交互界面,将会利用残疾人所能感受外部环境的全部方式,与计算机进行交互,从而使残疾人能够最大限度的利用计算机。
四、结论:
  科技的力量不仅在于它对于工业领域的巨大推动作用,而且更重要的是它的社会影响。设计出便利的人机交互界面,让残疾人能够方便地控制计算机是这一领域的科学家不可推卸的责任之一。
参考文献:
[1]王巍,王志良,郑思仪,谷学静.人机交互中的个性化情感模型[J].智能系统学报,2010(1).
[2]张利刚.面向人机交互的姿态信息与语音信息关系研究[D].天津:天津大学,2007.

  中国论文网(www.lunwen.net.cn)免费学术期刊论文发表,目录,论文查重入口,本科毕业论文怎么写,职称论文范文,论文摘要,论文文献资料,毕业论文格式,论文检测降重服务。

返回电子论文列表
展开剩余(