微信号:bigdatalab

介绍:宽客俱乐部旗下美国大数据实验室,大数据研究应用.

数据科学中的“数据智慧”

2016-02-09 08:55 大数据实验室

在大数据时代,学术界和工业界的大量研究都是关于如何以一种可扩展和高效率的方式对数据进行储存、交换和计算(通过统计方法和算法)。这些研究非常重要。然而,只有对数据智慧(data wisdom)也给予同等程度的重视,大数据(或者小数据)才能转化为真正有用的知识和可被采纳的信息。换言之,我们要充分认识到,只有拥有足够数量的数据,才有可能对复杂度较高的问题给出较可靠的答案。“数据智慧”对于我们从数据中提取有效信息和确保没有误用或夸大原始数据是至关重要的。


“数据智慧”一词是我对应用统计学核心部分的重新定义。这些核心部分在伟大的统计学家(或者说是数据科学家)约翰·图基(John W. Tukey)的文章1和乔治·伯克斯(Geogre Box) 的文章2中都有详细介绍。


将统计学核心部分重新命名为“数据智慧”非常必要,因为它比“应用统计学”这个术语能起到更好的概括作用。对于这一点,最好让统计学领域之外的人也能了解到。因为这样一个有信息量的名称可以使人们意识到应用统计作为数据科学一部分的重要性。


依据维基百科对“智慧”词条进行解释的第一句话,我想说:“数据智慧”是将领域知识、数学和方法论与经验、理解、常识、洞察力以及良好的判断力相结合,思辨性地理解数据并依据数据做决策的一种能力。


“数据智慧”是数学、自然科学和人文主义三方面能力的融合,是科学和艺术的结合。如果没有实践经验者的指导,仅通过读书很难学习到“数据智慧”。学习它的最好方法就是和拥有它的人一起共事。当然,我们也可以通过问答的方式来帮助你形成和培养“数据智慧”能力。我这里有10个基本问题,我鼓励人们在开始从事数据分析项目或者在项目进行过程中要经常问问自己这些问题。这些问题是按照一定顺序排列的,但是在不断重复的数据分析过程中,这个顺序完全可以被打乱。


这些问题也许无法详尽、彻底地解释“数据智慧”,但是它们体现了“数据智慧”的一些特点。
 

1.要回答的问题

数据科学问题最初往往来自统计学或者数据科学以外的学科。例如,神经科学中的一个问题:大脑是如何工作的?或银行业中的一个问题:该对哪组顾客推广新服务?要解决这些问题,统计学家必须要与这些领域的专家进行合作。这些专家会提供有助于解决问题的领域知识、早期的研究成果、更广阔的视角,甚至可能对该问题进行重新定义。而与这些专家(他们往往很忙)建立联系需要很强的人际交流技巧。


与领域专家的交流对于数据科学项目的成功是必不可少的。在数据来源充足的情况下,经常发生的事情是在收集数据前还没有精确定义要回答的问题。我们发现自己处在图基所说的“探索性数据分析(Exploratory Data Analysis, EDA)”的游戏中。我们寻找需要回答的问题,然后不断地重复统计调查过程(就像乔治·伯克斯的文章中所述)。由于误差的存在,我们谨慎地避免对数据中出现的模式进行过度拟合。例如,当同一份数据既被用于对问题进行建模又被用于对问题进行验证时,就会发生过度拟合。避免过度拟合的黄金准则就是将数据进行分割,在分割时考虑到数据潜在的结构(如相关性、聚类性、异质性),使分割后的每部分数据都能代表原始数据。其中一部分用来探索问题,而另一部分通过预测或者建模来回答问题。
 

2.数据收集

什么样的数据与第1条中要回答的问题最相关?

实验设计(统计学的一个分支)和主动学习(机器学习的一个分支)中的方法有助于解决这个问题。即使在数据收集好了以后考虑这个问题也是很有必要的。因为对理想的数据收集机制的理解可以暴露出实际数据收集过程的缺陷,能够指导下一步分析的方向。


下面的问题会对提问有所帮助:数据是如何收集的?在哪些地点?在什么时间段?谁收集的?用什么设备收集的?中途更换过操作人员和设备吗?总之,试着想象自己在数据收集现场。
 

3.数据含义

数据中的某个数值代表什么含义?它测量了什么?它是否测量了需要测量的?哪些环节可能会出差错?在哪些统计假设下可以认为数据收集没有问题?(对数据收集过程的详细了解在这里会很有帮助。)
 

4.相关性

收集来的数据能够完全或部分回答要研究的问题吗?如果不能,还需要收集其他什么数据?第2条中提到的要点在此处同样适用。
 

5.问题转化

如何将第1条中的问题转化成一个与数据相关的统计问题,使之能够很好地回答原始问题呢?有多种转换方式吗?比如,我们可以把问题转换成一个与统计模型有关的预测问题或者统计推断问题吗?在选择模型前,请列出与回答实质性问题相关的每一种转化方式的优点和缺点。
 

6.可比性

各数据单元是否是可比的,或经过标准化处理后可视为可交换的?苹果和橘子是否被组合在一起了?数据单元是否是相互独立的?两列数据是不是同一个变量的副本?
 

7.可视化

观察数据(或其子集),制作一维或二维图表,并检验这些数据的统计量。询问数据范围是什么?数据正常吗?是否有缺失值?使用多种颜色和动态图来标明这些问题。是否有意料之外的情况?值得注意的是,我们大脑皮层的30%是用来处理图像的,所以可视化方法在挖掘数据模式和特殊情况时非常有效。在通常情况下,为了找到大数据的模式,在某些模型建立之后使用可视化方法最有用,比如计算残差并进行可视化展示。
 

8. 随机性

统计推断的概念(比如p值和置信区间)都依赖于随机性。数据中的随机性是什么含义呢?我们要使统计模型的随机性尽可能地明确。哪些领域知识支持统计模型中的随机性描述?一个表现统计模型中随机性的最好例子是因果关系分析中内曼-鲁宾(Neyman-Rubin)的随机分组原理(在AB检验中也会使用)。
 

9.稳定性

你会使用哪些现有的方法?不同的方法会得出同一个定性的结论吗?举个例子,如果数据单元是可交换的,可以通过添加噪声或二次抽样对数据进行随机扰动(一般来说,应确定二次抽样样本遵守原样本的底层结构,如相关性、聚类特性和异质性,这样二次抽样样本能较好地代表原始数据),这样做得出的结论依然成立吗?我们只相信那些能通过稳定性检验的方法,稳定性检验简单易行,能够抗过度拟合和过多假阳性发现,具有可重复性(要了解关于稳定性重要程度的更多信息.

请参看文章“Stability”(http://projecteuclid.org/euclid.bj/1377612862))。

可重复性研究最近在学术界引起了很多关注.

(请参照《自然》(Nature)特刊(http://www.nature.com/news/reproducibility-1.17552))。《科学》(Science)的主编玛西亚·麦克纳特(Marcia McNutt)指出“实验再现是科学家用以增加结论信度的一种重要方法”。同样,商业和政府实体也应该要求从数据分析中得出的结论在用新的同质数据检验时是可重复的。
 

10.结果验证

如何知道数据分析做得是不是好呢?衡量标准是什么?可以考虑用其他类型的数据或者先验知识来验证,不过可能需要收集新的数据。


在数据分析时还有许多其他问题要考虑,但我希望上面的这些问题能使你对如何获取“数据智慧”产生一点感觉。作为一个统计学家,这些问题的答案需要在统计学之外获得。要找到可靠的答案,有效的信息源包括“死的”(如科学文献、报告、书籍)和“活的”(如人)。出色的人际交流技能使寻找正确信息源的过程简单许多,即使是在寻求“死的”信息源的过程中也是这样。因此,为了获取充足的有用信息,人际交流技能变得更加重要,因为在我的经验中,知识渊博的人通常是你最好的指路人。


作者:郁彬;译者:张心雨,吕翔;

来源:《中国计算机学会通讯》2016年第1期




理论实战名师荟萃,知识技能证书校友面面俱到

量化投资专业人士不可错过!!

中国人民大学量化对冲高级研修班·精读模块招生简章


全面深入了解量化对冲策略与技术
掌握实战量化思想及交易策略
掌握包括量化投资在内的资产管理实务
赠送经典策略、分析文档、分析工具源码
结识学术专家及业界精英
加入老师、同学量化社交圈,持续助力个人发展
中国人民大学结业证书


学习时间5天,费用:14800元


报名咨询手机/微信:13061694649

点击“阅读原文”可了解详情


 
大数据实验室 更多文章 用户画像数据建模方法 李光斗:警方是如何利用大数据抓到王全安的 降楼价,新加坡居然靠的是无人驾驶! 小数法则和经验主义 什么性格的人适合 Quant 这个职位?能否描述一下 Quant 一天的生活是怎样的?
猜您喜欢 文本挖掘:情感分析详细步骤(基础+源码) go语言中的interface使用实例 iOS开发生涯的初恋:详解Objective-C多项改进 超细致的产品设计流程技巧解析 MySQL 5.7新特性--支持原生JSON格式