大神们,请问逻辑回归模型敏感度为0怎么回事?20

360U3348197376 |浏览636次
收藏|2021/12/31 12:48

满意回答

2021/12/31 13:20

总体参数的估计值必须符合一些好的特性才行,比如无偏性,相合性(一致性),有效性之类的,否则你的估计值就是瞎猜。如果假定误差均值为零,则最小二乘估计出来的回归系数就是无偏的。一个估计量并不是说无偏就一定好,也可以有偏。如果有偏,只要它和无偏估计量相比较“均方误差”更小,则我们就可以选用有偏的估计量。比如岭回归得到的回归系数就是有偏估计量,但是它比最小二乘得到的回归系数均方误差更小。如果假定误差期望为零,再加上其它几个假定就能保证回归系数是“最佳线性无偏估计量”,也就意味着最小二乘方法不是瞎猜,是科学的,并且在众多科学的方法中它都是比较好的。上面是原因一,一般的教科书都会提到。再说另外一个更重要的原因,这个原因几乎没什么书会提到。

360U3020899073

其他回答(2)
  • 回归方程里△t不可能为0的,应该是计算错误了
    回答于 2021/12/31 13:49
  • 逻辑回归的算法,采用的是经验风险最小化作为模型的学习准则,即,他的优化目标是最小化模型在训练集上的平均损失。具体而言,逻辑回归采用的最大后验概率的策略,他的目标是使得训练集总体的后验概率最大。因此这种算法天然地会将关注点更多地放在多数类的拟合情况下,毕竟多数类别的分类正确与否,更为影响最终整体的损失情况。而在样本不均衡的建模任务中,我们常常其实更关注的是少数类别的分类正确情况。这就导致了我们实际的建模目标和模型本身的优化目标是不一致的。因此,在我们的感觉之中就会认为逻辑回归对样本不均衡比较敏感。实际上,如果样本集足够大,少数类出现的个数足够模型学习,同时训练集的样本比例是真实世界样本比例的真实反映,这种情况下,我们往往不需要对数据做特别的处理。而另一方面,树模型采用的更新策略则完全不同,他的优化目标是最大化分叉以后的信息增益的。为了做到这一点,树模型天然地希望分叉以后,每个节点的样本更“纯”,从而增大增益。在这种情况下,即使样本有偏,模型也会对这个类别给予足够的关注度,因此受样本有偏的影响就大大减少。至于如何应对样本不均衡的情况,主要有三种方法。在数据层面,对数据进行采样。采样的方法有很多种这里就不赘述了。在算法层面使用代价敏感学习。给多数类分配比较小的误分类代价而给少数类分配更高的代价,强迫算法更加关注少数类别。还有就是使用集成学习方法,集成包括前两种方法在内多种学习方法,以获得强大的集成分类器
    回答于 2021/12/31 13:40
0人关注该问题
+1

 加载中...