学员成果分享:有关机器学习算法两种后融会策略的总结

小微 科技学员成果分享:有关机器学习算法两种后融会策略的总结已关闭评论122字数 614阅读模式
摘要影像组学路径图影像组学工作站:实验结果验证服务感谢《poppelmann》同学分享的机器学习算法两种后融合策略采用案例乳腺癌自动诊断及数据分析一、首先是staking策略,其基本思...

影象组学路径图

影象组学工作站:试验结果验证服务文章源自微观生活(93wg.com)微观生活-https://93wg.com/13085.html

感谢《poppelmann》同窗分享的机器学习算法两种后融会策略文章源自微观生活(93wg.com)微观生活-https://93wg.com/13085.html

采取案例文章源自微观生活(93wg.com)微观生活-https://93wg.com/13085.html

乳腺癌自动诊断及数据分析文章源自微观生活(93wg.com)微观生活-https://93wg.com/13085.html

一、首先是staking策略,其基本思想就是将不同模型得到的结果拼接在一块儿,拼接完成后再放到下一个模型里进行预测。至关于给原始数据增添不同维度的解读,由此提高模型的精度。主要步骤如下:(在这里以XGB融会SVM dt KNN rf et LGB为例)文章源自微观生活(93wg.com)微观生活-https://93wg.com/13085.html

1.得到拼接后的训练集以及测试集。为此,首先需要得到每一个模型结果所对应的id,用X_train_id进行保留,一样的测试集用X_test_id 保留。文章源自微观生活(93wg.com)微观生活-https://93wg.com/13085.html

from sklearn.model_selection import train_test_splitX_train_colums = [&文章源自微观生活(93wg.com)微观生活-https://93wg.com/13085.html

二、对于ensemble操作,与stacking的思想基本相同。不同点在于,对每一个拼接的模型得到的结果进行平均或者softmax等操作。具体实现如下:文章源自微观生活(93wg.com)微观生活-https://93wg.com/13085.html

可以看到,fusion后的模型精度有所提高。文章源自微观生活(93wg.com)微观生活-https://93wg.com/13085.html

同时,因为每一个模型的精度不同样,因而可以对不同模型给予不同权重,进一步增添训练精度。具体施行如下:文章源自微观生活(93wg.com)微观生活-https://93wg.com/13085.html

weights = soft_max(acc)all_predictions = [model.predict(X_test)*weight for weight,model in zip(weights,models)]

这一次的分享就到这里,谢谢大家。如有问题,欢迎大家批判指正。

 
小微
  • 版权声明: 本文部分文字与图片资源来自于网络,转载此文是出于传递更多信息之目的,若有来源标注错误或侵犯了您的合法权益,请立即通知我们(管理员邮箱:81118366@qq.com),情况属实,我们会第一时间予以删除,并同时向您表示歉意,谢谢!
  • 转载请务必保留本文链接:https://93wg.com/13085.html