让互联网更有人情味-读《Technicallywrong》
今天谈的这本书不厚,今年9月新出的,作者是美国的一位科技产品设计咨询师,讲述的内容如同书的副标题所写,包含性别歧视的APP,自带种族偏见的算法,以及其他的政治不正确的数码科技。我知道这本书,是因为Science杂志每周的书籍推荐,还有就是读过的另一本相关内容的书《Weapons of Math Destruction》,比较来看,《Technically wrong》的作者的文科背景使她更关注交互设计,好的设计要求设计者具有同理心,而这也是我选择看这本书的另一个理由,我想看看缺乏同理心会带来什么样的后果。
一本好书的开篇一定要有几个吸引人的故事,《Technically wrong》就是这样的。作者一开始讲了这样的一个故事,一个父亲在他的facebook界面看到了社交网站常见的历史上的今天,也就是将你前几年在这一天发布的内容给你回放。然而若是你是一位在某一天失去了患病的女儿的父亲,你肯定不希望去重新经历过去的痛苦,尤其是当facebook以廉价的气球装饰后的照片。这件事想想就令人不舒服。
上述的场景,虽然可以看成是特例,但是对用户的影响是很大的。而从技术上解决这种问题,并不是很难的,自然语言中的情感分析,在有了足够的标注数据的支持后,是可以识别出用户在社交媒体上的发布是Ta不想重新体验的。为什么facebook没有试图解决这一问题的,作者给出的解释是这些科技巨头关心的普遍用户,他们会通过给用户画像的方式,根据他们心目中的典型用户来设计交互场景,下面是一个用户画像的例子,这里给出了很多杜撰的个人经历。
然而这样去设计用户交互场景,其实是不正确的。去年的一本书《平均的终结》讲述了这样一个故事,空军招飞行员时希望每个人都有相同的身高体重,但根据之前的飞行员的身高体重等数据平均出来的典型飞行员,其实是找不到的,在十项身体指标中,没有一个人可以满足所有十项指标。飞机的设计者于是改变了思路,选择根据极端情况进行飞行设计,即让飞机能接受的飞行员尽可能的广泛,不让有天赋的飞行员因为身体条件不够标准而落选。
在设计用户交互的时候,《Technically wrong》提倡类似的极端情况考虑法,**不是针对一个虚构的用户画像,而是去问自己,一个带着好意开发出的功能,在什么样特殊的情景下会给用户带来伤害,**然后按照墨菲法则,设定这些场景肯定会发生,并通过迭代,逐步去解决这些问题。在互联网产品中,由于用户的数量足够多,所以只要一个产品流行起来,就一定会遇到被误用的问题。所以好的产品经理就要用自己的同理心去设想,然后去做出那些看起来不明显,但却能防止一旦病毒式的传播,就会对产品形象造成严重伤害的改进。
针对典型用户的问题,这本书还举了当前流行的低幼化的设计方式,通过卖萌或者孩童般的语言,APP的设计者试图让用户感受到一些人性化的待遇,最好让你能觉得他们是你的朋友。然而这往往会事与愿违,比如说QQ宠物。而书中举的例子是Twitter中生日那天会在你的界面上飘上粉红的气球。然而这对于那些在生日时丢了工作或者发现自己得了重病的人,这些气球就显得特别讨厌。真正的朋友不会在你难过的时候去提醒你今天是你特别的日子,只有想收集你个人信息的广告商才会这样。
机器人中有恐怖谷的概念,说的是那些看起来像人但时不时表现的特别不信人的机器人最容易引起人们的恐惧, 我觉得现在的很多试图表现的有人情味的APP就是处在像人但又不是人的阶段,而唯有自然语言处理技术的运用,以及技术本身的设计中多一些伦理的考量,才能解决这些问题。
考虑的用户应该包含极端情况,那么在界面设计的时候,就不应该特意的低幼化。这里举一个我熟悉的例子,像微基因这样的面向个人的基因检测,就不应该假设用户是好奇心强烈的年轻人,因为当产品打开市场,就会有些人因为检测中的用药指导去买了给他们患慢性病的父母,甚至还有人是给自己患上绝症的爱人购买了,用来做纪念的。当你考虑到这样的场景时,你就需要在产品界面的设计上做的中性化一些,而不是只考虑检测报告是否便于传播和分享。
考虑极端情况,也意味着不做出先验的假设,书中举了一个智能体重秤的例子,不管你的目标是什么,当你的体重下降时,这个APP就会给你推送这样的一则消息。但如果这个体重秤的用户是一个正在接受化疗的癌症患者了?健康意味着有正常的体重范围,这是人人都知道的常识。之所以会出现这样的问题,正是因为设计师使用的典型的用户画像,而没有考虑到特例。
接下来说这本书中第二个设计上的启示,**即通过对话来收集信息,而不是让用户做非黑即白的选择。**比如一个让用户举报社区的可疑人员的APP,最初的设计,被举报人的肤色等种族相关的信息是通过下拉框进行选择的,可以想象,这会让人们容易根据种族,直接做出带有偏见的选择,而改进后的设计,则让举报者通过对话先描述觉得可疑的行为,之后再让用户填写种族等信息。如果用户一开始就写肤色,系统也会给出修改的提示。这样的设计可以收集到带着背景的用户信息,虽然会使体验不够流畅,但是这些信息是可以进行深度挖掘的,更具有长期价值。
通过对话来收集信息,还可以避免设计者本身所包含的偏见。这本书举了一个大姨妈记录APP的例子,这个APP一开始就要用户去选择为什么要记录,而且只有三个选项,备孕,避孕,体外授精治疗。这自然是一个完全由男性设计的APP,其中将女性仅仅当成是生育机器的陈腐观念这里就不吐槽了。这个例子想说的是一个好的交互设计应该不带对用户使用心态的任何假设,而抱着开放的心态去倾听用户。
这本书讨论的第二部分是算法中的偏见,例如预测犯罪的算法的准确度对于黑人和白人都是61%,但对于黑人来说,66%的错误是将清白的人预测成嫌疑犯,从而让他们接受调查,而对于白人,绝大多数错误是没有预测出事后被查出的嫌疑犯。问题不出在算法上,而是由于训练数据本身就带着偏见。
例如上图是谷歌自动提供的图片标签,俩个黑人的自拍被标记成了黑猩猩,这对于不了解计算机视觉的用户会觉得受到了羞辱。但若是了解卷积神经网络的原理,出现这样的结果就不难理解了。而可能的解决的方式包括数据增强,也就是通过将训练数据中的黑猩猩的颜色进行人为的改变,如果训练数据中包含足够多的黑猩猩,那么这样的问题就不会出现了。
类似的例子还有自然语言中的词向量,作为NLP中通用的开源工具,词向量可以被用来自动对简历和求职信进行打分。而现行的词向量中,会将男性和医生关联起来,将女性和护士关联起来,将男性和管理者关联起来,将女性和支持者关联起来。而这些偏见不是算法引入的,所以作者强调对词向量的训练数据要审查,看看其中是否会包含足够多的对女性和少数族裔友好的言论。
书中举的另一个例子是推荐算法还识别不出你为什么去搜索,所以会向一个写二战历史的学生推荐新纳粹的素材,这也是可以通过技术解决的问题,但是推荐者不会有动力,他们在意的是如何让你更多点击,而不是关注你因为错误的推荐被冒犯了多少次。但长久来看,所有的不舒服都会反映到用脚投票上。
这本书接着谈论的是网络暴凌,英文叫harresment。微博上的言语的暴力,这些对于中国网民来说并不陌生。只是美国多了打着言论自由旗号的不作为。这些情节,在黑镜中,我们看到了戏剧化的体验。最典型是黑镜第三季第六季中的叫某个你不喜欢的人去死的标签# 。书中写道无论是twitter还是raddit(相当于中国的百度贴吧),还是facebook。**其在机制的设计就使得网络暴凌变得很容易,而要想改变,只有依靠制度上根本的变革,**而不是志愿者的聚沙成塔,对于这一洞见,我是认同的。
为什么会有这样的观点,我忍不住想说一件我最近看到的事。这件事中最令人失望的还不是那些自以为自己占了便宜的群众演员,而是一个行业大佬的扭曲价值观。我反对以暴制暴的态度,对于那些在李的微博上留言的那些人,我也不赞赏,但有那么多人还没有忘记两年前的一件小事,这还是可喜的。最关键的是要从下而上的推动制度的变革,应该有类似征信制度似的网络暴凌的黑名单,对屡次犯规者终身封号。
最后,作者最为一名女性,自然谈起了科技行业中男女比例失掉的问题。解决的办法不是程序员鼓励师,也不是抱怨学计算机的女生太少,叫更多的女生去学习计算机,这里我很想@万门的童校长,能不能对于计算机大数据相关的课程,搞一个女性特价,来吸引更多的女孩参加。
书中提到一个简单却被很多科技巨头选择性忽视的事实,多样化的团队可以提高工作效率,就像俗话说的男女搭配,工作不累。对于创造性的工作,更需要团队成员能有着不同的经历,创造性意味着信息的整合,工作需要的不止是专业技能,更是一整套的价值观和默会假设。
从这个话题延伸出去,作者对硅谷流行的任人唯才的meritocracy进行了批判,这个本来来自于英国的反乌托邦小说中为了讽刺而创造出的词,却由于美国人习惯性的缺少对英式幽默的感知力,成为硅谷招聘的金科玉律。如果只是根据资质等硬条件去选择,那么这对于那些起点本来就低于平均水平的弱势群体是不公平的.
所谓的阶级固化,值得担心的不是上升的通道变小,而是挑选态度,培养能力的招聘观成为了一种不被接受的观念。如果一个社会主流的价值观是只看简历,那么对于那些有上进心却仅仅因为出身的原因简历不好看的人是不公平的。国内也有这样的趋势。如果有足够多的雇主能够改变自己的选择标准,给那些非名校的学生一些机会,而不是逼得他们只能通过考验来获得上升通道,那么也许能将真正想从事科研的人和仅仅因为高考不理想而不得不考研的学生区别出来,从而为整个社会节约教育成本。
说了这么多,总结一下。上面所说的包含着偏见和歧视的算法,让我们难受的设计,你可能会觉得是小事,事不关己,何必开口。但是想一想黑镜吧,或者想一想美丽新世界,再不然,想一想双十一你收到了多少促销的提醒短信和推送,数字化将会入侵我们生活的方方面面,而且其影响只会越来越广。每个人都需要考虑科技可能会被如何用来做恶,如何让我们陷入一个肤浅满足的局部最优,只有更多的人发出自己的声音,才能够看到有希望的改变。
原创不易,随喜赞赏
扩展阅读
sukha2017-11-12 22:47:32
放大了工具万能,也放大了人性!基本上幽暗复杂的人性是机器无法揣测的,同样人也无法深刻准确的去了解他人,所有智能化工具遭遇的都是人类社会天天发生的,人类生命一天不终结,这种流动的矛盾体就会迭代的基准在人性上各种想不到的毁灭你的幻想!人不是万能……赞 1