我之前反复提过,我们体验设计现在的主流研究方法大部分从社会学或者心理学里移植而来,而可用性测试就直接脱胎于认知心理学的看家研究方法“实验法”。假如有读者小时候上幼儿园的职业理想曾经是“做实验、当科学家”,那么恭喜你,当设计师会做可用性测试,某种程度上也算是部分实现了你当年的心愿。先给自己一点鼓励。
可用性测试方法
认知心理学的基本思路是把人的心理活动理解成一套像精密机械一样的信息加工系统,里面的各个零件可以拆开来各自研究的:比如人的注意力、记忆,或者某种感受。它有许多的研究内容都是很微观的概念和现象,这些(短期)现象发生得非常快、并且在自然环境下受各种因素影响干扰,很难测量。因此为了在现象或概念间建立有力的因果关系,认知心理学作为横跨社科和自然科学两个领域的一门学科,向自然科学取经从而发展出了很成熟的控制实验技术(包括咱们比较常见的眼动仪实验)。这个方法后来辐射到了各个其他社会学科中,又诞生了“实地实验”(field experiments,自然实验/社会实验)的说法,其思路很像我们今天经常做的 AB test。
还是拿我们上篇文章的“可爱小猫论”作案例,假设你是一个很有才华的心理学家,发现小猫可爱程度会影响人的身心健康,养越可爱的猫越有利于身心健康。你要如何证明这一点?
首先我们需要确定这个现象普遍广泛存在,而不是仅仅存在在你这个猫奴身上的个例,因此一定需要通过定量的方法做验证。
其次,在现实生活中能对人的身心健康产生影响的东西太多了,比如这个月老板老给你穿小鞋,导致你身心受到了巨大打击;下个月你苦练搏击,身心健康又增长不少,那么如何从这么多因素中抽离出猫咪对你的影响,而过滤职场/锻炼/饮食等其他因素的影响?
最后,也许养猫和身心健康是有关系,但其实是身心健康较弱的人更不愿意养猫,而非反过来——如何能准确探究这两个因素的关系?
答案是在实验室环境下严格地控制变量,通过对实验环境和环节的科学设置、对被试者情况的筛选和抽样来确保得到精准的结果。比如你可以假设被试对猫的喜爱程度、猫的可爱度都可能影响实验结果,所以你可以被试分成 4 个单元小组:不可爱的猫配不喜欢猫的人、可爱的猫配不喜欢猫的人、不可爱的猫配喜欢猫的人、可爱的猫配喜欢猫的人。
在测量了人的初始身心健康程度后,让他们与猫呆 3 小时,然后再次测量人的身心健康程度。此外还需要配备一个对照组,这个组的人只能看 3 小时动画片——这就是一个很简单的小实验。
由此可以看出控制实验法和其他的研究方法相比,完全脱离了情境,所以实验室内的结果是否可以推广到实际生活中去,是需要打一个大大的问号的,但正因为如此,实验法也为验证因果关系创造了可能性。这一点也就是我之前在不要从“交互设计定理”入门交互设计中强调的。
说回到咱们的可用性测试,根据《人因学手册》的说法,可用性测试在 80 年代初被提出后马上在 80~90 年代风行于业界,影响了施乐(Xerox)、苹果、IBM 等一代明星公司的产品评估流程。在可用性测试引进之初从业者仍然比较严格地遵守控制实验的方法,对测试的环节设计、环境设置要求十分严格,是一种主要用于评估/对比设计方案的、定量的、脱离情景的手段。举个例子,为了得到比较严谨的结果,可用性测试应该:
做预测试:在设计完实验流程后需要先找一些被试,看看控制变量的手段是否有效
考虑组内实验还是组间实验:比如是找同一个用户测试 3 组设计图,还是 3 个不同的用户每人测试 1 组设计图
考虑实验顺序:假如找同一个用户测试 3 组设计图,那么先看哪个、后看哪个
……
此外,各个公司会为了可用性测试搭建专门的、昂贵的可用性实验室。在实验室环境下对用户发布任务、进行测试,主要是为了规避噪音、灯光、外来人员打断等干扰因素对实验结果的影响。比如下图就是一个典型的可用性测试实验室。
90 年代后随着可用性测试相关的应用和研究快速发展,可用性测试的概念也从验证性研究逐渐扩展到形成性的、探索性研究。对可用性测试的要求也远远没 80 年代那么高了,到今天据我所知很多厂的用户研究部门把可用性测试理解地很宽泛,只要和用户有接触、只要设置了任务,都可以勉强讲是“可用性测试”。这样做测试不再需要严格的实验室环境与变量控制技术,反而更加偏向实地调研,让用户在自己熟悉的环境中完成任务。造成这个发展的原因其实有很多。
首先,软件开发模式变了。70~80 年代盛行的瀑布流式开发,要求软件的设计开发者一次性完全完成一个环节后,再迈入下一个环节。比如你做设计时,需要提前想好未来需要应对的所有场景,一次把几千张设计图全部交付开发,开发开始写所有的页面,写完了这几千张图再上市。这种开发模式在 90 年代被敏捷开发或迭代开发逐渐替代,这要求设计者出一版能用的先做出来,根据用户反馈再迭代之前的想法。因此,设计师对于快速定位设计问题的诉求大大提升,而可用性测试作为一种有用户参与的评估方式(可能是唯一一种),可以满足这种诉求。
其次,从调研目的的角度上来讲,我们作为设计者说到底和科学家做的事儿是不同的。对于科学家来讲研究概念之间的相互关系是有意义的,其最终的目的是形成一个具有解释力的学说。但对于设计师来说我们需要选出更优的设计,但并不关心究竟是哪个变量导致了设计最优、变量之间相互的关系。比如你可能做了两个稿子,A 稿红色按钮放右边、B 稿橙色按钮放左边,最终用户觉得 B 稿好,你的研究就结束了;而心理学家需要去思考到底是位置、颜色,还是别的什么因素影响了用户的什么体验,最终导致用户的决策。
对控制变量的严格要求,最终导致做一场严格的控制实验成本超高,除去复杂的控制变量带来的成本以外,为了让整个实验可以使用统计学分析,一般会要求每个单元小组的样本量大于 30——做学术也许可以不那么考虑成本,但企业总是会思考投入产出比。
比如 90 年代软件业界就曾经把当时出现的专家启发式评估、认知走查这些无需用户参与、专家进行即可的方法当成可用性测试的廉价替代品。虽然后来被证实没有方法可以替代用户评估——专家走查出来的问题往往不是真实用户遇到的问题,而往往是一些无伤大雅的小细节。
最后,90 年代尼尔森写了一篇关于可用性测试样本量的文章,极大地鼓舞了用可用性测试做探索性研究、寻找可用性问题的做法。这篇文章我最开从《用户体验度量》里读到,我把这个理论叫“5 个就够了”论。
尼尔森将此前为一些产品做的可用性测试与专家评估结果整理了一下,用一个泊松模型来预测参与可用性测试的用户数或参与评估的专家数与最后找到的可用性问题的比例之间的关系,最终“发现 5 个用户就能发现 83%的问题”。下面这张图能看出来假如拆分了可用性测试和专家评估,那么可用性测试需要的人数稍微多一些,5 个用户大约能发现 70%的问题。
现在看来尼尔森这个模建得说不上多么精细。注意这个图里的因变量是百分比,“1”代表“所有被发现的问题”,而不代表“本系统所有可能存在的问题”,所以尼尔森这个结论正确的解读方式是,假设他们测试了 20 个用户最终发现了 10 个问题,那么 5 个用户就能发现其中 8 个问题。
这种问题的重叠很有可能是因为对用户的不当抽样带来的。比如我们现在很多系统存在不同的用户角色与用户场景,用户个体的技能水平也有差异,因此不同用户组的关注点、问题点可能都是不一样的,很可能这一组用户找不到另外一组的问题,这一点在《用户体验度量》也有所说明。
后来尼尔森在他公司的网站上对“5 个就够了”论做出了补充,当前版本的可用性测试结合了设计迭代的动作,更偏向定性的、个案研究的思路。按他现在的话来讲,可用性测试这个事情应该多次多轮的进行:首先选取 5 个人可用性测试-然后马上对设计进行修改和迭代-再找另外 5 个人重复进行可用性测试,看看他们有没有新的观点,如此多轮往复,最终打磨出一版好设计。
对尼尔森这套想法感兴趣的看这里: https://www.nngroup.com/videos
我们总结一下:假如你不太熟悉可用性测试的发展脉络,那可能会对这个东西有点犯迷糊:一会要设置任务,一会要发问卷,一会又要观察用户的动作;一会 5 个就够了,一会又要多找几个人。简单来讲:
假如你做可用性测试是为了发现问题,5 个人够了。虽然要设置任务但不需要太严谨,以快取胜;假如你做可用性测试是为了对比方案/评估方案的优劣程度,5 个人不够。严格来说每个组至少 30 人,但我们毕竟不做学术,少一点也勉强可接受。虽然今天已经基本不做严格的实验设计,但应该尽量减少对用户的言语干扰、指导,让用户自由体验产品。
最后关于样本量的事情我再多说两句。虽然调研的用户数量是一个困扰大部分设计师的问题,但根据我个人的经验来看,可用性测试是“多做比少做好,但做了一定比不做好”的一件事。对上线前的飞机稿来说,即使你只找 1 个用户看了你的设计,甚至你只找同事看了一眼你的设计,都会比你闭门造车要更好。不要惧怕做体验调研,也不要认为非要花多大代价才算在做体验调研。
欢迎关注作者微信公众号:「白话说交互」
复制本文链接 文章为作者独立观点不代表优设网立场,未经允许不得转载。
发评论!每天赢奖品
点击 登录 后,在评论区留言,系统会随机派送奖品
2012年成立至今,是国内备受欢迎的设计师平台,提供奖品赞助 联系我们
AI绘画创意与实战
已累计诞生 655 位幸运星
发表评论 已发布1条
↓ 下方为您推荐了一些精彩有趣的文章热评 ↓