sklearn“RidgeClassifier”有什么作用?

我想了解的区别RidgeClassifier逻辑回归sklearn.linear_model。我在文档中找不到它。

我想我很清楚 LogisticRegression 的作用。它计算系数和截距以最小化half of sum of squares of the coefficients + C times the binary cross-entropy loss,其中 C 是正则化参数。我从头开始检查一个幼稚的实现,结果一致。

RidgeClassifier 的结果不同,我无法弄清楚,系数和截距是如何计算的?查看 Github 代码,我没有足够的经验来解开它。

我问的原因是我喜欢 RidgeClassifier 结果——它对我的问题概括得更好。但在我使用它之前,我至少想知道它是从哪里来的。

感谢您提供可能的帮助。


慕姐8265434
浏览 222回答 1
1回答

翻过高山走不出你

RidgeClassifier()LogisticRegression()与 l2 惩罚相比,工作方式不同。的损失函数RidgeClassifier()不是交叉熵。RidgeClassifier()以Ridge()下列方式使用回归模型来创建分类器:为简单起见,让我们考虑二元分类。将目标变量转换为+1或-1基于它所属的类。建立一个Ridge()模型(这是一个回归模型)来预测我们的目标变量。损失函数是MSE + l2 penalty如果Ridge()回归的预测值(基于decision_function()函数计算)大于 0,则预测为正类,否则为负类。对于多类分类:使用LabelBinarizer()创建多输出回归的情况下,再培养独立的Ridge()回归模型,每一个类(一-VS-休息建模)。从每个类的Ridge()回归模型(每个类的实数)中获取预测,然后用于argmax预测该类。
打开App,查看更多内容
随时随地看视频慕课网APP

相关分类

Python