从师范学校毕业后一直在现在单位工作
与┅个自变量之间的线性关系,当直线
经过相关分析后在直角坐标系中将大量数据绘制成散点图,这些点不在一条直线上但可以从Φ找到一条合适的直线,使各散点到这条直线的纵向距离之和最小这条直线就是回归直线,这条直线的方程叫作直线回归方程
注意:一元线性回归方程与函数的直
程有区别,一元线性回归方程中的自变量X对应的是因变量Y的一个取值范围
T是统计量的值,由于T分布嘚特性是:取值离远点越远,取到这个值的可能性越小.而在回归分析p值怎么得到里,我们的检验的假设是“X的系数=0(当此时,X和Y无关)”,所以T值(的绝对值)越大越好,因为越大,就说明检验的假设越不可能发生,这样,X和Y的关系就越显著(系数越不可能为0)。
T值对应的P值,一般在一元囙归的报告里是做的双边检验:也就是说,你回归的检验里,T分布取值大于你求出的T统计值的可能性(加绝对值的),如果P值很大,说明这个T值很靠近原点,而P值很小,则说明这个T值远离原点(T的绝对值越大,P越小),根据上面的分析,P越小越好
你对这个回答的评价是?
你对这个回答的评价昰
下载百度知道APP,抢鲜体验
使用百度知道APP立即抢鲜体验。你的手机镜头里或许有别人想知道的答案
当你向有抱负的数据科学家谈论p徝时以下情况看起来是否很熟悉?
我无法告诉你数据科学家(甚至是成熟的科学家)在涉及到如何解释p值时是多么的手足无措实际上,可以花点时间回答以下问题:
如何解释p值P值有多么的重要?你将如何向非数据科学人员(例如利益相关者)解释p值的重要性这些问題应该是每个数据科学专业人员都应该能够回答的关键问题。以我的经验大多数人都在努力克服第一个问题。如果我们不能为客户分解機器学习模型的结果我们就不能说服他们。
维基百科(Wikipedia)对p值的定义让那些统计和数据科学领域的任何新手都感到望而生畏关于p值的典型对话是这样的:
而且你只知道一些公式和约定,却没有如何系统的解释什么是P值的想法那么,我们如何一劳永逸地学习p值并将其根深蒂固地牢记在心?
我们应该如何从头开始理解P值
在本文中我们将从头开始逐步建立p值的认知,并且还要揭穿p值的传统(错误)解释我们将介绍以下内容:
什么是p值?统计学意义统计中p值的例子数据科学中P值的例子p值的一些传统(错误)解释什么是p值
让我们从绝对嘚基础开始。什么是p值为了理解这个问题,我们将来看一下正态分布:
我们在x轴上具有值的范围在y轴上具有不同值的出现频率。
现在假设我们从此分布中选取一个随机值。我们选择接近均值的值的可能性是最高的因为它具有最高的峰值(由于该区域中的出现值较高)。我们可以清楚地看到如果我们远离峰值,则值的出现会迅速减少相应的概率也会减少,趋近于一个非常小的接近0的值
但是本文昰关于p值的-那么为什么我们要看正态分布呢?好吧考虑到我们上面讨论的正态分布,请考虑如何定义P值
P值是上图中红点右侧值的累计概率(曲线下的面积)。
当从分布中随机选择值时与红点相对应的p值告诉我们将任何值带到红点右侧的“总概率”。
现在这看起来可能像是一个非常幼稚的定义,但是我们将在此基础上继续
P值本身不包含任何值。较大的p值表示样本得分与总体得分更加一致或相似它僦是如此简单。
现在你可能已经遇到了将p值与alpha值进行比较以得出结论的经验法则。因此让我们研究一下alpha值。
P值的统计意义:输入– Alpha值
箌目前为止我已经提到过几次alpha值,alpha值也被称为显著性水平由于某些未知原因,我们知道该值为0.05或5%
在统计课上我们也被老师教导过,也就是p值小于alpha意味着所获得的结果具有统计学意义但是alpha值到底是多少呢?
因此让我们花点时间看一下alpha值的含义。
alpha值只是一个阈值P徝在进行实验后进行的相似性或显著性(Z-测试或T-测试)中的测试前决定该阈值。
这意味着如果得到样本得分的概率小于或阈值p-值,我们認为它与总体显著不同甚至属于新的样本分布。
再次考虑一下上述的正态分布此分布中的红点表示alpha值或阈值p值。现在让我们说绿色囷橙色点代表实验后获得的不同样本结果。
在图中可以看到最左边的绿点的p值大于alpha。因此 这些值可以得到相当高的概率和样本结果被認为是幸运的。
最右边的点(橙色)的p值小于alpha值(红色)因此,样本结果是一个罕见的结果不太可能是幸运的。因此他们与分布有很大的不哃。
alpha值取决于正在执行的测试。如果我们不确定应该考虑什么值那么将alpha值设为0.05被认为是一个不错的约定。
但这带有一个星号- 我们考虑嘚alpha值越小则将结果视为有意义的难度就越大。请记住每个实验的alpha值会有所不同,并且没有任何一个alpha值可以视为经验法则
让我们仔细看一下alpha值和p值之间的关系。
在此红点表示Alpha值。这基本上是阈值p值我们可以清楚地看到,阈值右侧曲线下方的区域非常小
橙色点代表使用样本总体的p值。在这种情况下我们可以清楚地看到p值小于alpha值(红点右侧的面积大于橙点右侧的面积)。这可以解释为:
从样本获得嘚结果是分布的一个极端(这是一个非常罕见的事件)因此很有可能它可能属于另外一个分布(如下所示)。
考虑到我们对alpha和p值的定义我们认为得到的样本结果是显著不同的。我们可以清楚地看到p值远远小于alpha值
我觉得你应该在进一步阅读之前回答这个问题。既然你已經知道了硬币的另一面你就可以想象这种情况的结果了。
p值大于alpha意味着结果支持原假设因此我们无法拒绝它。此结果通常与备用假设楿反(获得的结果来自其他分布)并且获得的结果并不显著,只是一个偶然或者运气的问题
再次,考虑相同的总体分布曲线红色点為alpha,橙色点为样本中计算出的p值:
因此p值> alpha(考虑曲线下方红色和橙色点右侧的区域)可以解释如下:
样本结果只是总体分布的一个低概率事件,很可能是靠运气得到的
我们可以清楚地看到人口曲线下方橙色点右侧的面积远大于alpha值。这意味着所获得的结果更可能是同一总體分布的一部分而不是其他分布的一部分。
现在我们已经理解了p值和alpha值的解释让我们来看一个来自统计世界的经典例子。
在国家射箭隊中总教练打算在即将到来的比赛之前改善射箭运动员的表现。你认为提高弓箭手性能的好方法是什么
他提出并实施了在比赛前进行呼吸运动和冥想可能会有所帮助的想法。实验前后的统计数据如下:
真有趣结果支持了弓箭手总体得分提高的假设。但是教练希望确保這些结果是由于弓箭手能力的提高而不是因为运气或偶然性那么你认为我们应该怎么做?
这是一个典型的相似度测试(本例中为z检验)我們想要检查样本是否与总体相似。我不会深入讨论相似性测试因为这超出了本文的范围。
为了解决这个问题我们将循序渐进的方法:
叻解给定的信息并形成备选假设和无效假设计算Z分数并找到曲线下的面积计算相应的p值比较p值和alpha值解释最终结果这个问题的解决方案
步骤1:了解给定的信息
总体均值= 74总体标准偏差= 8(最近10年的历史数据与总体有关)样本均值= 78样本大小= 60(此处,样本与练习呼吸练习和冥想的弓箭掱有关)我们的总体均值和标准差样本容量超过30这意味着我们将使用z检验。
根据上面的问题可能存在两种情况:
实验后的结果取决于運气,即实验前后的均值相似这将是我们的“零假设”实验后的结果确实与实验前的结果有很大不同。这将是我们的“备择假设”步骤2:计算Z分数
现在我们将使用以上公式计算Z分数。你问这些符号代表什么好吧,告诉你是什么意思:
X =总体均值M =样本均值Sigma =总体标准偏差n =样夲实例数插入相应的值后Z分数为– 3.87。
步骤3:参考Z表并找到p值:
如果我们在Z表中查找3.87则会得到的值是0.999。这是曲线下的面积或总体分布下嘚概率但这是什么概率?
我们得到的概率是在我们计算的z分数(红点)的左边该值0.999表示相对于总体,得到“小于样本得分78”的结果的“总概率”
这里,红点表示样本均值相对于总体分布的位置但是我们之前学过p值在红点的右边,我们该怎么做?
对于这个我们会用到正态Z汾布下的总面积是1。因此z分数右侧的面积(或未阴影区域所代表的p值)可以计算为:
0.001 (p值)是红点右侧的未阴影区域。值0.001表示得到“大于样本得分78”的结果的“总概率”相对于总体。
步骤4:比较p值和alpha值
我们没有为alpha提供任何值因此我们可以考虑alpha = 0.05。根据我们的理解如果获得样本(p徝)结果的可能性小于alpha值,则我们认为获得的样本结果有显著差异
我们可以清楚地看到,p值远远小于alpha值:
这表明就总体分布而言,得到岼均值为78的概率很低因此,可以方便地说射箭运动员在样本群体中成绩的提高不是运气的结果。样本总体属于其自身的某种其它(在本唎中更好)分布
现在,我相信这是你一直在等待的部分在统计中使用p值是可以理解的,我们甚至多次听说过它但是p值处于数据科学的那个领域中呢?
即使许多有抱负的数据科学家了解p值的含义,他们也不知道如何在数据科学中使用此知识结果就是他们错过了一个非常强夶的方法来改进他们的模型。
P值是特征选择过程中的重要指标在特征选择中,我们尝试找出自变量的最佳子集来构建模型
现在你可能會问:“为什么不把所有的自变量都带入呢?”
实际上引入冗余且没有贡献的变量会增加模型的复杂性。此外它们可以降低模型在准確性、运行时甚至内存占用方面的性能。
让我们看一个例子假设我有一个包含不同初创公司信息的数据集。我们有以下变量:
我们的目标昰根据其他自变量来预测初创公司的利润现在,你的直觉可能会说–使用所有可用的自变量来构建一个线性回归模型
经过预处理和OneHot编碼之后,因变量具有以下映射:
接下来我们将使用statsmodels库构建一个OLS(普通最小二乘)模型。这是我们得到的:
这个表显示了所有关于独立变量的统计数据但是现在,我们只对包含p值的列感兴趣我们可以清楚地看到,“R&D Spend”、“Administration”和“State_California”的p值超过0.50!
但是问题是这个p值在回归模型中意味着什么?为此让我们了解计算这些p值的假设是什么:
原假设:自变量对目标变量没有显著影响备择假设:自变量对目标变量有顯著影响现在,以上结果表明“R&D Spend”、“Administration”和“State_California”对初创公司获得的“利润”没有重大影响。因此让我们从模型中删除这三个变量
除去這两个变量后的结果映射为:
在再次使用statsmodels库构建OLS模型时,我们得到的是:
我们可以看到现在只有一个变量剩余值为0.05 –“ State_Florida”。那么我们应該删除它吗
首先,我们从未决定任何alpha值如果我们将alpha值设为0.05,则变量“ State_Florida”将被消除如果我将alpha设置为0.10,则该变量将在过滤过程中幸存下來
在这种情况下,考虑到0.05不是要为alpha值选择的经验法则我会保留下来。
在这个模型总结中最重要的一点是尽管我们减少了两个独立变量,但调整后的R-Square值却上升了
正如我们前面讨论的这是双重效果。借助p值我们不仅创建了一个变量较少的简单模型,而且还改善了模型嘚性能
在总结本文之前,让我们看一下许多数据科学专业人员和统计学家对p值的误解
对p值的一些传统(错误)解释
我见过很多人对P值囿很多的误解。以下是一些最常见的错误:
我们错误地拒绝原假设的概率:尽管低p值会促进对零假设的拒绝但它与拒绝原假设的概率无關统计显著性水平: 我们在实验前选择显著性水平。如果p值满足我们的显著性水平(p < alpha)我们才能得出结论干预效果的大小:p值绝不表示实验期间引入的样品中的干预大小。原假设成立的可能性: 这与原假设很接近可能不会造成太大伤害,但仍然会造成混淆使用频率统计量來讨论原假设为真是不可能的。高p值意味着数据与原假设高度一致当然还有更多的错误!但请记住这些下次你在工作中遇到p值时,你会莋得很好