sklearn.linear_model.LogisticRegression是 scikit-learn(一个流行的 Python 机器学习库)中用于实现逻辑回归模型的类。逻辑回归是一种用于解决二分类问题的统计方法,它通过将线性回归的输出映射到 sigmoid 函数(也叫逻辑函数)上,从而得到概率预测。
主要参数
以下是一些LogisticRegression类的主要参数:
penalty: 正则化项的类型,可选 'l1', 'l2', 'elasticnet' 或 'none'。默认是 'l2'。
C: 正则化强度的倒数。较小的值指定更强的正则化。默认是 1.0。
fit_intercept: 是否计算截距。默认是 True。
solver: 用于优化问题的算法。可选的有 'newton-cg', 'lbfgs', 'liblinear', 'sag', 'saga' 和 'elasticnet'。默认是 'lbfgs'。
max_iter: 最大迭代次数。默认是 100。
multi_class: 多分类问题的解决方法,可选 'ovr', 'multinomial', 'auto'。默认是 'auto'。
random_state: 随机数生成器的种子,用于可重复的结果。
主要属性
coef_: 回归系数(权重)。
intercept_: 截距。
classes_: 类别标签。
主要方法
fit(X, y): 使用训练数据 X 和目标 y 拟合模型。
predict(X): 使用模型对输入数据 X 进行预测。
predict_proba(X): 返回输入数据 X 的概率估计。
score(X, y): 返回给定测试数据和标签的平均准确率。
示例
以下是一个简单的示例,展示如何使用 LogisticRegression 类:
python
from sklearn.linear_model import LogisticRegression | |
from sklearn.datasets import load_iris | |
from del_selection import train_test_split | |
from sklearn.preprocessing import StandardScaler | |
# 加载鸢尾花数据集 | |
iris = load_iris() | |
X = iris.data | |
y = iris.target | |
# 划分训练集和测试集 | |
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42) | |
# 数据标准化 | |
scaler = StandardScaler() | |
X_train = scaler.fit_transform(X_train) | |
X_test = ansform(X_test) | |
# 初始化逻辑回归模型 | |
log_reg = LogisticRegression(max_iter=10000, random_state=42) | |
# 训练模型 | |
log_reg.fit(X_train, y_train) | |
# 预测 | |
y_pred = log_reg.predict(X_test) | |
# 输出准确率 | |
print(正则化逻辑回归模型"Accuracy:", log_reg.score(X_test, y_test)) | |
在这个示例中,我们使用了鸢尾花数据集,并对其进行了数据标准化处理。然后,我们创建了一个LogisticRegression对象,并用训练数据拟合了模型。最后,我们使用模型对测试集进行了预测,并输出了准确率。
版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系QQ:729038198,我们将在24小时内删除。
发表评论