Python-sklearn模型介绍
⼀、模型开发
sklearn为所有模型提供了⾮常相似的接⼝,这样使得我们可以更加快速的熟悉所有模型的⽤法。在这之前我们先来看看模型的常⽤属性和功能
# 拟合模型
model.fit(X_train, y_train)
# 模型预测
model.predict(X_test)
# 获得这个模型的参数
<_params()
# 为模型进⾏打分
model.score(data_X, data_y) # 线性回归:R square;分类问题: acc
1. 线性回归
from sklearn.linear_model import LinearRegression
# 定义线性回归模型
model = LinearRegression(fit_intercept=True, normalize=False,
copy_X=True, n_jobs=1)
"""
参数
---
fit_intercept:是否计算截距。False-模型没有截距
normalize:当fit_intercept设置为False时,该参数将被忽略。如果为真,则回归前的回归系数X将通过减去平均值并除以l2-范数⽽归⼀化。
n_jobs:指定线程数
"""
2. 逻辑回归
from sklearn.linear_model import LogisticRegression
# 定义逻辑回归模型
model = LogisticRegression(penalty=’l2’, dual=False, tol=0.0001, C=1.0,
fit_intercept=True, intercept_scaling=1, class_weight=None,
random_state=None, solver=’liblinear’, max_iter=100, multi_class=’ovr’,
verbose=0, warm_start=False, n_jobs=1)
"""参数
---
penalty:使⽤指定正则化项(默认:l2)
dual: n_samples > n_features取False(默认)
C:正则化强度的反,值越⼩正则化强度越⼤
n_jobs: 指定线程数
random_state:随机数⽣成器
fit_intercept: 是否需要常量
"""
3. 朴素贝叶斯算法NB
from sklearn import naive_bayes
model = naive_bayes.GaussianNB() # ⾼斯贝叶斯
model = naive_bayes.MultinomialNB(alpha=1.0, fit_prior=True, class_prior=None)
model = naive_bayes.BernoulliNB(alpha=1.0, binarize=0.0, fit_prior=True, class_prior=None)
"""
⽂本分类问题常⽤MultinomialNB
参数
---
alpha:平滑参数
fit_prior:是否要学习类的先验概率;false-使⽤统⼀的先验概率
class_prior: 是否指定类的先验概率;若指定则不能根据参数调整
binarize: ⼆值化的阈值,若为None,则假设输⼊由⼆进制向量组成
"""
4. 决策树DT
from sklearn import tree
model = tree.DecisionTreeClassifier(criterion=’gini’, max_depth=None,
min_samples_split=2, min_samples_leaf=1, min_weight_fraction_leaf=0.0,
max_features=None, random_state=None, max_leaf_nodes=None,
min_impurity_decrease=0.0, min_impurity_split=None,
class_weight=None, presort=False)
"""参数
---
criterion :特征选择准则gini/entropy
max_depth:树的最⼤深度,None-尽量下分
min_samples_split:分裂内部节点,所需要的最⼩样本树
min_samples_leaf:叶⼦节点所需要的最⼩样本数
max_features: 寻最优分割点时的最⼤特征数
max_leaf_nodes:优先增长到最⼤叶⼦节点数
min_impurity_decrease:如果这种分离导致杂质的减少⼤于或等于这个值,则节点将被拆分。
"""
5.⽀持向量机SVM
from sklearn.svm import SVC
model = SVC(C=1.0, kernel=’rbf’, gamma=’auto’)
"""参数
---
C:误差项的惩罚参数C
gamma: 核相关系数。浮点数,If gamma is ‘auto’ then 1/n_features will be used instead.
"""
6.k近邻算法KNN
from sklearn import neighbors
#定义kNN分类模型
model = neighbors.KNeighborsClassifier(n_neighbors=5, n_jobs=1) # 分类
model = neighbors.KNeighborsRegressor(n_neighbors=5, n_jobs=1) # 回归
"""参数
---
n_neighbors:使⽤邻居的数⽬
n_jobs:并⾏任务数
"""
7. 多层感知机(神经⽹络)
ural_network import MLPClassifier
# 定义多层感知机分类算法
model = MLPClassifier(activation='relu', solver='adam', alpha=0.0001)
"""参数
---
hidden_layer_sizes: 元祖
activation:激活函数
solver :优化算法{‘lbfgs’, ‘sgd’, ‘adam’}
alpha:L2惩罚(正则化项)参数。
"""
⼆、模型评估
1. 交叉验证
del_selection import cross_val_score
cross_val_score(model, X, y=None, scoring=None, cv=None, n_jobs=1)
"""参数
---
model:拟合数据的模型
cv : k-fold
scoring: 打分参数-‘accuracy’、‘f1’、‘precision’、‘recall’ 、‘roc_auc’、'neg_log_loss'等等
"""
2. 检验曲线
del_selection import validation_curve
train_score, test_score = validation_curve(model, X, y, param_name, param_range, cv=None, scoring=None, n_jobs=1) """参数
---
model:⽤于fit和predict的对象
X, y: 训练集的特征和标签
param_name:将被改变的参数的名字
param_range:参数的改变范围
cv:k-fold
返回值
---
train_score: 训练集得分(array)
test_score: 验证集得分(array)
import pickle
"""
三、模型保存
1. 保存为pickle⽂件import pickle
# 保存模型
with open('model.pickle', 'wb') as f:
pickle.dump(model, f)
# 读取模型
with open('model.pickle', 'rb') as f:
model = pickle.load(f)
model.predict(X_test)
2.sklearn⾃带⽅法joblib #als import joblib
import joblib
#保存模型
joblib.dump(model, 'model.pickle')
#载⼊模型
model = joblib.load('model.pickle')

版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系QQ:729038198,我们将在24小时内删除。