RMSE xgboost的feature importance

RMSE计算
from sklearn.metrics import mean_square_error
这个现成的包可以计算square error的平均,需要再开方一个得到RMSE。math.sqrt(mean_square_error(a,b))
自己写RMSE的计算也非常简单,
np.sqrt(((pred-actual)**2).mean())

xgboost绘制feature importance
fig, ax = plt.subplots(figsize=(12,18))
xgb.plot_importance(model, max_num_features=100, height=0.8, ax=ax)
plt.show()
但是昨天画出来的图,背景style变化了,太忙,暂时没寻求解决方案

尝试了合并9月/10月的数据进行建模,rmse并没有降低,我的一种猜想是维度太简单了

学习了一下当时移动推荐算法大赛和jdata的比赛的一些解决方案,有一些不明确的地方,关于滑窗的设定问题,他们设定的一些滑窗不那么make sense啊,我自己有下一步的思路,就是干!!!肝他妈的!利用强大的算力和工程化方案进行大规模的特征工程!

留言

熱門文章