设计模式
如今,许多应用会基于用户的个人数据对其偏好做出假设,如Google Now,Spotify和Amazon等。它们甚至可能提前替我们做决定,而不需要我们做任何主动的信息输入。譬如facebook的订阅新闻信息流和Amazon的推荐产品。它们都主动隐藏了“无关紧要”的信息,只显示它们认为我们会喜欢的内容。
这种免除了用户选择的设计模式,最近被冠名为先行设计(或预期设计)——利用收集到的用户行为数据,在用户界面上自动进行一些决策。它减少了人们目前面临的过度决策的数量,降低了疲劳感,整体上提高了决策效率。
尽管预期设计充满善意,但也可能引起信任问题,特别是在用户界面设计的“黑暗模式”泛滥,用户信任已被破坏的时候。本文将着眼于分析如何利用“光明模式”提升用户决策的信心,即使在推动用户做出更好决策时,也确保用户界面是诚实透明的,而不像“黑暗模式”那样欺骗和诡诈用户。
为什么替你的用户做决定?
在今天的网络世界,消费者面临着比以往更多的选择。例如,在亚马逊和eBay这样的网站购物时,即使我们清楚的知道我们想要什么——换个新的苹果耳机,我们仍然可以得到海量的选择结果:
在Amazon和eBay上,同一产品有海量的购买选择
另一个例子是海量音乐服务,例如Spotify。不需要支付什么费用,我们用手指点点就能听大量的音乐,但需要做的选择也迅速增加。
有更多选择很不错,但过多的选择令人生畏。因为这时候要做出决定会变得非常困难。很多理论和文章都强调了这个问题,譬如:
Barry Shwartz的选择悖论:有大量选择使得人们趋向于不做任何选择,即使做出了选择也不那么快乐。
希克法则:每一个额外选择都会增加人们做出决定的时间。
这两项研究都说明,通过减少用户界面上选择的数量,可以帮助提升用户做出决策的能力,从而减少挫折并带来更好的体验。关于“决策疲劳”的文章也支持这个结论。如果人们在生活中要做出大量决策的话,那么在面临重要抉择时决策效率会变得低下。这也是马克·扎克伯格每天都穿相同风格的衣服的原因:
“我非常希望能清空我的生活,平时尽量做更少的决定,用更多精力贡献社会。”
如何减少选择
因此,减少用户面临的选择成为了如今很多产品的关注点。做法有很多种,下面将讨论两种:
1. 使选择的相关性更强
许多产品基于个人偏好进行个性化处理,为当前用户展示与之相关的有限选项。Amazon采用的这种做法,无论在网站上还是定制电子邮件中都基于收集到的用户信息来展示数据:
Amazon为用户调整过的推荐
2. 预测用户的决定
上述的推荐可能不足以降低选择的难度,因为即使在筛选后,用户依然会面对大量的选择。此时产品可以更进一步,代替用户决策以帮助他们彻底卸下选择的负担。
比如Google Now在用户未进行任何输入前,就给出了越来越多的操作行动点。
Google Now 中的先行设计范例
Google Now在后台做出了很多决策,从发现用户把车停在哪里,到搜索足球成绩。即使未收到提问,它也会在恰当的时间主动通知用户关注可能需要的信息。
Google Now:“What you need, before you ask.”
Spotify则以另一种假设的方式运用了该方法,他们在用户进行任何思考前就为他们创建了播放列表。正如它宣传的:这就像你最好的朋友每周为你定制一份个性化混搭风格的音乐。
Spotify 的个性化推荐歌单“Discover Weekly”
搜索新音乐、选择添加播放列表的工作,都帮用户做了。
这种为用户做选择的设计概念被称为先行设计。因为蕴含道德风险,从一开始这就是一个充满争议的话题。
为先行设计建立信任
使用上述方法达到减少选择,并为用户做决策的产品,容易被指责太过专横冒昧。如果应用没有真的符合用户的预期,也会引起用户的不信任。尤其在今天,许多产品被爆出使用黑暗模式欺骗用户去做他们不想做的事情。
为了保持用户对产品的信任感,产品为用户做的决定越多,就越应该显得透明诚实。设计时应该避免“黑暗模式”,即使要采用先行设计的方案,也让用户了解并掌握控制权,即“光明模式”。下面,让我们讨论集中光明模式的设计策略:
避免限制信息
如果因为自动选择而不展示过滤选项,只为用户展现他们可能会喜欢的内容——如个性化和推荐系统。这会带来一个问题:用户会开始看到越来越多的单一的内容:
Amazon根据浏览历史提供的推荐商品
这反而使发现新内容变得很更麻烦了。这种情况不仅出现在Amazon这样的电商网站上,同样也出现在Facebook这样的社交媒体网站上。时代周刊曾这样报道过:
“Facebook给点击链接的人提供更多链接,也给看视频的人展示更多视频。”
很多用户对此可能并不高兴,因为他们不希望由品牌来决定他们看到什么。Stack Overflow的CEO Joel Spolsky就曾责备Facebook隐藏信息:
Facebook没有展示所有帖子。它是有选择的给你展示内容。问题在于,Facebook的算法会强化用户的偏见,这里的界限在哪里?要知道,机器算法会被训练的越来越强大。
给用户控制权
通过反馈机制让用户进行一些控制,是一种避免信息限制的方法。它容易提高基于用户偏好所做假设的准确度。这有好几种做法,有的很明显的,有的则比较隐晦。
Google Now (左上图)在Now Card上直接询问用户,以获知所显示的信息是否符合其自身偏好。
Facebook(右上图)则没那么明显,用右上角的下拉符号进行设置,它在每个新闻条目的右上角使用了一个下拉符号,单击该符号会显示隐藏选项,让用户隐藏不想看的新闻。
亚马逊(下图)调整推荐内容的方式更复杂。用户需要一步步的点击“你的账户”→“你的推荐”→“改善推荐内容”来调整它展示内容。
这三个例子中,谷歌提供的反馈机制是最透明的。它给了用户多个明显的交互点,让他们在卡片上进行反馈,确保一切尽在用户掌控中:
Google Now,由你控制
除了轻扫(swipe)卡片,你也可以通过点击菜单图标对每张卡片进行定制化设置:
Google Now个性化设置
根据Joel Spolsky的说法,在Facebook和Amazon上,即使用户可以提供反馈去影响他们所看到的内容,在新闻信息流和推荐内容底层的算法依然拥有更大的控制权。
不要将广告当做真正的内容来呈现
把广告当做内容展示,是常见的“黑暗模式”。它不需要用户明确同意就会产生并展示。
比如,Google Now最近跟Lyft、airbnb、Uber和Instacart进行了合作,通过提供这些APP的服务促进用户使用产品,这时候系统认为用户需要这些服务。虽然第三方服务的卡片可能有用,但当他们是付费服务时,看起来也像是另一种形式的广告了。
Google Now 合作方服务
其他相关产品中也可以见到类似的黑暗设计。先行设计背后的动机显得更令人怀疑。譬如谷歌地图在地图搜索结果中将广告伪装成定位针:
Google Maps将广告伪装为定位针展示在地图上
利用已有的用户已输入的内容
先行设计时,预测内容的准确性非常重要。一种比较好的方法是利用用户以前输入的信息,如表单预填充,或记住信用卡详情和密码:
Google Chrome 浏览器中提前填充好的表单
这可以避免用户进行同样的重复操作,以节省时间。同样的设计思路也可以用在整合多种数据的复杂假设上。campaign Live 曾介绍过一个例子:出租车服务商Hailo的Google Now卡片可以结合时间、地理位置和用户过往输入的内容在Google Now当中再次预定出租车。
假设你来到伦敦并预定了一辆Hailo出租车,然后在7点到10点之间进去了某个区域。如果你下午5点还在那儿,有可能你正需要离开。这时Hailo的Now Card将提示您预定一辆出租车。
在这种假设可能比较准确(并且它的出现看起来不像是一种变相的广告),因为这个推荐是基于用户行为——之前曾通过相同的服务进行一次预订——并且考虑了一个合理的时间因素。
Hailo 根据过去的用户行为主动提示用户
让用户可以选择退出
尽管能够给出到用户个性化推荐,但有时人们就是不希望应用程序为他们做决定。在这种情况下,必须能够轻松退出。即使你不能删除Google Now这个App,你可以在设置中禁用Now card:
Google Now 允许用户禁用Now card功能
相比之下,用户没有办法关闭Amazon的建议机制,除非你完全退出登录——这对于亚马逊是合理的,因为35%的产品销量来自推荐结果的导流(数据来源Venture Beat)。
是否应该默认记录和使用用户数据是一个尚无定论的问题。让用户主动选择还是假定用户允许,两者间存在很大区别。如“黑暗模式”网站中的器官捐赠者案例:
在器官捐献中,主动选择捐献和被动同意捐献两种制度的差别
基本上,如果捐赠是默认项时,几乎100%的人会选择进行器官捐赠,但当捐赠不是默认项时,愿意捐赠器官的比例会变得非常低。
运用黑暗模式来帮助用户
很明显,一些公司利用黑暗模式来推进自己的议程,而且在今天有各种工具技术来帮助公司替用户做决定。然而,类似的方法可不可以帮助人们为自己做出更好的决定呢?目前,人们就常常因为缺乏自我控制或关注短期收益等弱点做出了很多糟糕的决定。
推动人们做出正确的选择
在Richard Thaler 和 Cass Sunstein 所著的《推动:提升人们对于健康,财富和幸福感的决定》一书中提到,应该创建一个伦理道德“选择架构”,来推动人们着眼长期利益做出整体层面上的最佳选择。
《推动:提升人们对于健康,财富和幸福感的决定》
在这种情况下,那些我们用以创造黑暗模式的技术,也可以被用来打造光明模式,从而推动用户做出更好的选择。
自动注册
泰勒和桑斯坦举例说,由于人类预期寿命更高了,通过像美国的401(k)这样的养老金计划为自己存养老金变得非常重要。然而,尽管这些计划提供“免费的养老金”,但许多人仍然选择不去存钱。泰勒和桑斯坦提出了以下可能的解决方案来帮助人们存养老金:
默认注册(类似于器官捐献者的例子);
迫使人们在是否存养老金这事儿上进行简单的认同,或是不让他们自己做决定。
这些方法是使用光明模式的范例。因为它们有利于用户,促使人们采取行动并做出长期有利的决策。虽然第二种方案迫使人们做出决定,但它将决定过程简化为简单的二选一,鼓励了人们的参与性。
创造好的行为习惯
Alan Shapiro表明带有预期选择的应用可以有助于一些用户行为习惯的形成。通过不断被建议去哪里、买什么,人们会慢慢习惯于被程序通知以及这些帮他们做的决定信息。
这可能会带来一些可怕的情况。比如当一个公司的主要目标是销售商品时,它会更倾向于不断灌输某些信息,以刺激用户的购物欲,让他们不断使用自己的服务。例如亚马逊新的Prime Pantry服务,从它的Pantry Box功能开始,始终在鼓励人们购买那些原本不需要的东西,充斥着黑暗模式。
Amazon Pantry Box 鼓励用户形成购买习惯
正如Circadia的产品主管Matt Crowley所说的:亚马逊已经将话题从“我需要这个吗?”更改为“为了填满这个箱子我还需要买什么?”
亚马逊甚至申请了一个系统专利,该系统利用用户数据,在用户下单前就预测用户的购买行为并调整仓储,亚马逊称其为预期出货(anticipatory shipping):
Amazon的预期出货专利图表
把这些动机搁置一旁,能不能采用相同的策略帮助人们形成良好的行为和习惯呢? 现在有很多促进个人进步和习惯养成的app,在这方面有很多例子了。
stickK通过利用厌恶损失的心理和责任感的力量,驱动行为变化,从而帮助你摆脱坏习惯。
stickK 帮助你戒掉坏习惯
Duolingo 提醒用户每天练习新语言,从而帮助用户形成一个好习惯。
Duolingo帮助你形成语言学习习惯
产品所属商业公司的道德伦理,决定了人们能够从App的先行设计中获得什么好处。公司为了自身利益会在多大程度上利用客户数据,以及用户为了方便愿意给出多少个人数据?
如上所述,给予用户控制力和保持透明是在先行设计种保持用户信任的关键。 你对先行设计中使用的黑暗模式有什么看法? 光明模式是否真的存在?在设计假设时是谁掌握了控制权?欢迎讨论。
相关阅读
每一天,我们每一个人都会做各种各样的选择、判断和决定。但是,大多数人都会仅凭一些表象或感觉就做出判断,我们的感觉决定了最终判断
决策树分类(decision tree classification)和python实
决策树分类很符合人类分类时的思想,决策树分类时会提出很多不同的问题,判断样本的某个特征,然后综合所有的判断结果给出样本的类别。
由seo实验室与腾讯大讲堂联合主办的2017中国产品经理大会:解码未来产品经理在深圳宝立方国际博览中心如期举行。神策数据CEO,前百度
A5创业网(公众号:iadmin5)11月20日报道,最近,新东方董事长俞敏洪因为“现在是因为中国女性的堕落导致整个国家的堕落。”
决策树(decision tree)是一个树结构(可以是二叉树或非二叉树)。其每个非叶节点表示一个特征属性上的测试,每个分支代表这个特征属性在