(solver='liblinear',max_iter=10).fit(trainingSet, trainingLabels)test_accurcy = classifier.score(testSet, testLabels) * 100print('正确率:%f%%' % test_accurcy)
if __name__ == '__main__':colicSklearn()
运行结果如下:
可以看到,正确率又高一些了 。更改参数,比如设置为sag,使用随机平均梯度下降算法,看一看效果 。你会发现,有警告了 。
显而易见,警告是因为算法还没有收敛 。更改=5000,再运行代码:
可以看到,对于我们这样的小数据集,sag算法需要迭代上千次才收敛,而只需要不到10次 。
还是那句话,我们需要根据数据集情况,选择最优化算法 。
五、总结1、回归的优缺点
优点:
缺点:
【三Logistic回归实战篇之预测病马死亡率】2、其他
- 了解5G技术
- 三 交易系统架构演进之路:微服务化
- 三 数据治理之死
- 【咸鱼之王】《食神》联动活动联动答题三
- 含程序 区间线性回归 巧用Excel求解NTC 10K 温度传感器 (升级版
- 对话小牛电动CEO李彦:更看重长期价值 上市募资用于三方面
- TVS二极管的三大亮点,订购不用愁
- 三 微软HololensMR的介绍_如何将微软Hololens的视频导出
- 学习和计算时特别常用的三角公式
- 二极、三极管 电子器件笔记