SensePath: 通过分析出处理解意义建构过程(SensePath: Understan

栏目:可视化资讯丨时间:06-19丨来源:未知丨作者:admin

28

SensePath: 通过分析出处理解意义建构过程(SensePath: Understanding the Sensemaking Process through Analytic Provenance) | PKU Visualization Blog

刚过双十一,又迎双十二,互联网上购物热潮此起彼伏,电商究竟是如何“抓住消费者的心“的呢?从海量浏览数据中发现消费者最终购买商品的因素,这个分析过程涉及算法、人机交互、社会学、心理学等范畴。就人机交互领域范畴中,术语”Sensemaking”表示构建信息与意义之间关系的概念性工具。通过分析网页浏览历史记录、总结出某种操作模式、理解其行为背后的含义,就属于一种Sensemaking过程。Sensemaking,“意义构建”,是指在不确定的情况下,通过发现信息以获取知识达到理解,从而做出决策的过程。想要理解淘宝网上的用户决定购买商品的行为,数据分析研究者首先要收集用户在淘宝网上浏览的过程、做了哪些逗留和比较等等,然后需要翻译和揣测这些动作行为背后的含义与逻辑,最后得出影响用户购买行为的决策因素。了解sensemaking的过程很有意义,因为这可以帮助广大数据分析研究者建立有效的模型和分析工具,从而再服务于应用于分析大型和复杂的数据集。然而就目前而言,sensemaking仍然需要大量的人为观察和记录,十分费时费力:研究人员采集观测数据、录制屏幕视频、录下思考过程语音、找出循环模式,并最终抽象出某种通用的行为模式,从而得出结论。为了帮助sensemaking过程,来自伦敦密德萨斯大学的研究团队推出了他们的研究成果SensePath,一种基于浏览器的在线sensemaking分析工具。他们在今年的国际可视化顶级会议IEEE VIS 2015上报告了这一成果[1],让我们一起来看一下这个SensePath的设计和界面吧。

SensePath是一个Google Chrome的插件[2],它支持浏览器上sensemaking过程的可视化分析。它分为后台捕捉与前台分析两部分:被实验者在谷歌浏览器中所做的诸如搜索、高亮、筛选等任务都会被SensePath的后台线程捕捉并保存,之后分析专家在SensePath的前台可视化界面中浏览保存的数据从而得出结论。

使用SenthPath分析网页浏览数据

在获取数据的阶段,SensePath会收集2类用户关于网页内容的操作:搜索和阅读。其中搜索包括4种:关键字搜索、地点搜索、路线搜索和过滤筛选;阅读包括2种:高亮文本、标注文本(SensePath附带功能)。SensePath把每一个操作都称为一个Action,并同时收集这个Action的相关属性,比如:访问模式(是链接跳转、直接输入网址、还是直接回到历史记录?),具体的搜索关键字、过滤筛选的参数、高亮文本内容、开始和结束的时间等等。如下图所示是一部分例子,左边两列分别是搜索类和阅读类动作所包含的意义,最右列是访问模式。SensePath在捕获用户操作过程的同时,也支持截屏录制和用户录音。收集视频和音频可以记录下一些不容易被机器理解的操作(比如鼠标轨迹、页面滚动等),为分析提供更多的素材。

action

数据收集阶段完成后就可以导出并保存这些实验数据了。在真正的sensemaking分析阶段,数据分析者导入之前收集的数据,就可以通过可视化方便地进行分析啦。下图是SensePath的可视化界面,它包含了4个相互链接的视窗:时间视窗(A图,Timeline view)、浏览器视窗(B图,Browser view)、重放视窗(C图,Replay view)和脚本视窗(D图,Transcription view)。

sensemaking_interface

时间视窗中,Action按照时间先后顺序排列成一个个小标钮,宽度对应着这个Action经历的时间长度。每个Action标钮上画着对应的类别、访问模式、页面标题和关键字等信息。这样,用户可以对整个数据有大致的概况:用户访问了多少页面?分别作了哪些搜索和哪些过滤筛选?最后在哪几个页面上停留并高亮了什么内容?如果要分析具体的某个Action,用户可以通过点击这个标钮,那么对应在浏览器视窗和回放视窗就会自动跳转到相应的页面和截屏处,供分析着做更详尽的观察。下图是高亮一个Action时的效果,鼠标在悬浮时。相同页面的Action也会同时被突出,还有悬浮的文字显示详细内容。

highlight

用户可以缩放Action标钮调节显示的个数,合并相同页面的Action让整个界面更清楚,或者通过调节最短时间来滤除短时间Action,只保留花费时间长的操作。下图分别是调节Action大小、合并Action、以及过滤Action这三种交互的效果。

zooming

merge

filter

为了验证SensePath的效果,作者邀请了两位实验者和一人工智能领域资深学者来做用户测试(视频演示地址交互示范http://vimeo.com/groups/vis2015previews/videos/136206061)。首先两位实验者被分派任务:使用浏览器为某个会议预订酒店,他们可以选择自己的策略,整个过程被SensePath记录。之后,人工智能学者用SensePath分析收集到的数据,并总结二人各自的策略和行为规律。实验的结果显示,人工智能学者可以快速利用SensePath总结出二人都想要选择相对便宜、离会场距离近的酒店,因为学者观察到他们只过滤出2星和3星的酒店、且在谷歌地图上反复对比了它们到会场的路线距离。这个总结出来的规律和两位实验者描述的策略十分吻合。比起以往的靠人工观看视频做记录的方法,SensePath大大节省了时间分析成本。作者在报告中提出,分析同一个数据,他们的方法可以比传统分析提高一倍的时间,原先2小时的分析现在仅用1小时就可以完成。人工智能专家认为SensePath中时间视窗的概览功能和快速对应到其他视图的重播和回放是这个工作的一大亮点,让他们的分析效率大大提高。

总结来说,SensePath引入了可视分析的方法,针对sensemaking分析中最耗时的动作提取和理解步骤,利用自动化捕获方法和可视界面的便捷性,大大提高了分析的效率。在大数据时代的今天,让我们期待将有更多精巧优秀的可视分析方法被融入数据分析过程中帮助我们窥探海量信息中的奥秘。

p.s. SensePath现在可以在Chrome网上应用店下载了,感兴趣的童鞋可以试着体验一下哦。

[1] Nguyen P H, Xu K, Wheat A, et al. SensePath: Understanding the Sensemaking Process through Analytic Provenance[J]. Visualization and Computer Graphics, IEEE Transactions on, 2016, 22(1): 41-50.
[2] https://chrome.google.com/webstore/detail/sensepath/dfdhiidbggkijecneejnnmbfenenkmnk

——来源:北京大学可视化与可视分析博客

光环IT学院,专注IT培训16年,培养IT行业精英! —

光环IT学院

注:本站文章采用原创+网络转载两个方式,对于转载的文章,由于网络信息过多,无法100%找到原始出处。如果本站文章有侵犯了您的权益,请联系我们删除或授权。

请遵守理性,宽容,换位思考的原则

2017-06-19 16:27 发布 丨 人浏览

热点推荐

微信
公众号

微信扫码,即可关注

反馈
意见
回到
顶部