老师,有几个关于project 1的问题
-
notebook 3
Importances = pipeline.steps[3][1].feature_importances_
这个[1]指的是第四步‘model’中的feature列吗?我在K-nearest 的python note也看到类似label[0][0]的写法,这里label和step都是list,如果只有一个[ ] 表示indexing, 那两个[ ] 怎么理解? -
notebook 3
老师您把F1 value的standard deviation也加在里面,对比keras classifier vs gradient descent的时候,你说keras 的F1 std小一些,并不比gradient descent差。这里的F1 std和我们讲的model variance 算一个概念吗?如果feature 多,容易overfitting,overfitting时候test error会大即F1 value应该小,over fitting的时候F1 value的standard deviation也很高吗? -
notebook 3
这个project我们并没有用到regularization,您在课上提到feature selection个数要结合F1 value和业务逻辑一起看。那如果想用regularization,sklearn哪里可以实现? -
notebook 2
用户购买最多的dow,用了Lamda x: x.mode()[0],我不太理解这个lamda函数,特别是()[0]这部分,老师能否解释一下这个?
谢谢老师!