建设银行官方网站买五粮液酒烟台福山建设工程监测网站
机器学习面试笔试知识点-线性回归、逻辑回归Logistics Regression和支持向量机SVM
- 一、线性回归
 - 1.线性回归的假设函数
 - 2.线性回归的损失函数(Loss Function)
 - 两者区别
 
- 3.简述岭回归与Lasso回归以及使用场景
 - 4.什么场景下用L1、L2正则化
 - 5.什么是ElasticNet回归
 - 6.ElasticNet回归的使用场景
 - 7.线性回归要求因变量服从正态分布?(持保留态度)
 
- 二、逻辑回归(Logistics Regression)
 - 1.本质:极大似然估计
 - 2.激活函数:Sigmoid
 - 3.损失函数:对数损失函数(log loss)
 - 4.代价函数:交叉熵(Cross Entropy):
 - 5.可以进行多分类吗?
 - 6.逻辑回归优缺点
 - 优
 - 缺
 
- 7.逻辑回归有哪些应用
 - 8.逻辑回归为什么要对特征进行离散化。
 
- 机器学习中的最优化方法
 - 1.梯度下降法
 - 2.牛顿法
 - 3.拟牛顿法
 - 4.共轭梯度法
 
- 三、支持向量机(SVM)
 - 函数间隔
 - 几何间隔(geometrical margin)
 - 1.损失函数:合页损失函数(Hinge loss)
 - 2.为什么要将求解SVM的原始问题转换为其对偶问题?
 - 3.支持向量
 - 4.带核的SVM为什么能分类非线性问题
 - 5.SVM的应用
 - 6. 如何选择核函数?
 - 7.LR和SVM的联系与区别
 - 8.加入松弛变量的SVM的训练误差可以为0吗?
 
一、线性回归
1.线性回归的假设函数

2.线性回归的损失函数(Loss Function)
MSE(均方误差)

通过梯度下降法或正规方程
 
 求出使得代价函数最小的参数
两者区别

3.简述岭回归与Lasso回归以及使用场景
目的
