lightgbm参数lambda_l2\top_rate、valid_sets、lightgbm变量重要性

lightgbm参数params可以设定最大迭代次数num_boost_round

lightgbm参数params中有一个lambda_l2,这个是l2正则

lightgbm参数params中有一个top_rate,这个参数根据文档上的说明只有boosting方式是goss的时候才有用,这里我不明白为什么作者会设置这个参数

lgb.train(params, dtrain, valid_sets=[dtrain, dvalid], verbose_eval=100)训练中valid_sets参数会输出training rmse 和 valid rmse,如果valid_sets = [dvalid],那么只输出valid rmse。

lgb的训练和CV方法都可以设置最大迭代次数和early stop

model.predict(二维array),这里作者用的model.predict(dvalid.data),转换成lightgbm的Dataset可以直接dvalid.data还原成原始数据

lightgbm变量重要性输出优雅的写法是
ft = pd.DataFrame({'feature':model.feature_name(), 'split':model.feature_importance('split')}).sort_values('split', ascending=False)
除了split这个重要程度,还有gain,split只是次数,gain是一次划分的收益

留言

熱門文章