当前位置: 首页 > news >正文

定做网站建设asp网站设为首页代码

定做网站建设,asp网站设为首页代码,只用php做网站,建设银行手机网站变这里写目录标题 Python逻辑回归算法:面向对象的实现与案例详解引言一、逻辑回归算法简介1.1 损失函数1.2 梯度下降 二、面向对象的逻辑回归实现2.1 类的设计2.2 Python代码实现2.3 代码详解 三、逻辑回归案例分析3.1 案例一:简单二分类问题问题描述数据代…

这里写目录标题

  • Python逻辑回归算法:面向对象的实现与案例详解
    • 引言
    • 一、逻辑回归算法简介
      • 1.1 损失函数
      • 1.2 梯度下降
    • 二、面向对象的逻辑回归实现
      • 2.1 类的设计
      • 2.2 Python代码实现
      • 2.3 代码详解
    • 三、逻辑回归案例分析
      • 3.1 案例一:简单二分类问题
        • 问题描述
        • 数据
        • 代码实现
        • 输出结果
      • 3
        • 问题描述
        • 数据准备
        • 代码实现
        • 输出结果
    • 四、逻辑回归的扩展与优化
      • 4.1 正则化
      • 4.2 多分类逻辑回归
    • 五、总结

Python逻辑回归算法:面向对象的实现与案例详解

引言

逻辑回归是一种经典的分类算法,广泛应用于二分类和多分类问题中。与线性回归不同,逻辑回归用于解决分类问题,而不是回归问题。其目标是根据输入特征预测某个样本属于特定类别的概率。由于其简单性和良好的解释性,逻辑回归在数据科学和机器学习领域有着广泛的应用。

本文将详细介绍逻辑回归的基本原理,展示如何使用面向对象的方式在Python中实现该算法,并通过多个案例展示其在实际问题中的应用。


一、逻辑回归算法简介

逻辑回归(Logistic Regression)用于处理二分类问题,其目标是预测样本属于某一类别的概率。假设我们有一个输入特征向量 X X X,对应的输出标签 y y y 是0或1。逻辑回归的模型定义如下:

h θ ( x ) = 1 1 + e − θ T x h_\theta(x) = \frac{1}{1 + e^{-\theta^T x}} hθ(x)=1+eθTx1

其中:

  • h θ ( x ) h_\theta(x) hθ(x) 是预测的概率值,范围在0到1之间。
  • θ \theta θ 是模型的参数(权重和偏差)。
  • x x x 是输入的特征向量。
  • e e e 是自然常数。

1.1 损失函数

为了训练模型,我们需要定义一个损失函数来衡量预测结果和真实标签之间的差距。逻辑回归中常用的损失函数是对数似然函数

J ( θ ) = − 1 m ∑ i = 1 m [ y ( i ) log ⁡ ( h θ ( x ( i ) ) ) + ( 1 − y ( i ) ) log ⁡ ( 1 − h θ ( x ( i ) ) ) ] J(\theta) = -\frac{1}{m} \sum_{i=1}^{m} \left[ y^{(i)} \log(h_\theta(x^{(i)})) + (1 - y^{(i)}) \log(1 - h_\theta(x^{(i)})) \right] J(θ)=m1i=1m[y(i)log(hθ(x(i)))+(1y(i))log(1hθ(x(i)))]

其中:

  • m m m 是样本数量。
  • y ( i ) y^{(i)} y(i) 是第 i i i 个样本的真实标签。
  • h θ ( x ( i ) ) h_\theta(x^{(i)}) hθ(x(i)) 是模型对第 i i i 个样本的预测概率。

1.2 梯度下降

为了最小化损失函数,逻辑回归通常使用梯度下降方法。其更新公式如下:

θ j : = θ j − α 1 m ∑ i = 1 m ( h θ ( x ( i ) ) − y ( i ) ) x j ( i ) \theta_j := \theta_j - \alpha \frac{1}{m} \sum_{i=1}^{m} (h_\theta(x^{(i)}) - y^{(i)}) x_j^{(i)} θj:=θjαm1i=1m(hθ(x(i))y(i))xj(i)

其中:

  • α \alpha α 是学习率,决定了每次更新的步长。
  • t h e t a j theta_j thetaj 是第 j j j 个参数。

二、面向对象的逻辑回归实现

为了让逻辑回归的实现更加模块化和可扩展,我们将使用面向对象的方式来设计模型。该模型将包括数据的训练、预测和评估功能。

2.1 类的设计

我们将定义一个 LogisticRegression 类,包括以下功能:

  1. __init__:初始化模型参数,如学习率、迭代次数等。
  2. sigmoid:定义sigmoid函数,用于将线性输出转换为概率。
  3. fit:训练模型,使用梯度下降来优化参数。
  4. predict_proba:输出每个样本属于某一类的概率。
  5. predict:根据概率进行分类,输出0或1。
  6. compute_cost:计算损失函数,用于训练过程中监控模型效果。
  7. accuracy:评估模型的准确性。

2.2 Python代码实现

import numpy as npclass LogisticRegression:def __init__(self, learning_rate=0.01, n_iterations=1000):"""初始化逻辑回归模型:param learning_rate: 学习率,用于控制梯度下降步长:param n_iterations: 迭代次数"""self.learning_rate = learning_rateself.n_iterations = n_iterationsself.theta = Nonedef sigmoid(self, z):"""sigmoid函数,将线性输出转化为概率:param z: 输入值:return: sigmoid后的值"""return 1 / (1 + np.exp(-z))def fit(self, X, y):"""训练逻辑回归模型:param X: 输入特征矩阵 (m, n):param y: 标签向量 (m, 1)"""m, n = X.shapeX_b = np.c_[np.ones((m, 1)), X]  # 在特征矩阵前加一列1self.theta = np.zeros((n + 1, 1))  # 初始化参数for _ in range(self.n_iterations):linear_output = np.dot(X_b, self.theta)predictions = self.sigmoid(linear_output)gradients = (1 / m) * np.dot(X_b.T, (predictions - y))self.theta -= self.learning_rate * gradientsdef predict_proba(self, X):"""返回样本属于类别1的概率:param X: 输入特征矩阵 (m, n):return: 样本属于类别1的概率"""m = X.shape[0]X_b = np.c_[np.ones((m, 1)), X]linear_output = np.dot(X_b, self.theta)return self.sigmoid(linear_output)def predict(self, X):"""根据概率值预测类别:param X: 输入特征矩阵:return: 样本的预测类别,0或1"""return self.predict_proba(X) >= 0.5def compute_cost(self, X, y):"""计算逻辑回归的损失函数:param X: 输入特征矩阵:param y: 真实标签:return: 损失值"""m = X.shape[0]h = self.predict_proba(X)cost = (-1 / m) * np.sum(y * np.log(h) + (1 - y) * np.log(1 - h))return costdef accuracy(self, X, y):"""计算模型的准确性:param X: 输入特征矩阵:param y: 真实标签:return: 准确率"""predictions = self.predict(X)return np.mean(predictions == y)

2.3 代码详解

  1. __init__:初始化逻辑回归模型的学习率、迭代次数和参数 ( \theta )。

  2. sigmoid:实现sigmoid函数,用于将线性输出转换为概率值。

  3. fit:训练模型,使用梯度下降法迭代优化参数 ( \theta ),直到模型收敛。

  4. predict_proba:返回输入特征对应的预测概率值,表示样本属于类别1的概率。

  5. predict:根据概率值进行二分类,返回预测类别(0或1)。

  6. compute_cost:计算模型的损失值,用于评估模型在每次迭代中的性能。

  7. accuracy:根据预测结果与真实标签的比较,计算模型的准确率。


三、逻辑回归案例分析

接下来,我们将通过两个实际案例展示如何使用 LogisticRegression 类来解决二分类问题。

3.1 案例一:简单二分类问题

问题描述

我们有一个简单的数据集,包括两个特征和对应的二分类标签,任务是预测样本属于类别0或类别1。

数据
X = np.array([[2, 3], [1, 4], [2, 5], [3, 6], [4, 7], [5, 8], [6, 9], [7, 10]])
y = np.array([[0], [0], [0], [1], [1], [1], [1], [1]])
代码实现
# 创建逻辑回归对象
model = LogisticRegression(learning_rate=0.1, n_iterations=1000)# 训练模型
model.fit(X, y)# 预测
y_pred = model.predict(X)# 计算准确率
accuracy = model.accuracy(X, y)
print(f"Accuracy: {accuracy}")# 输出回归系数
coefficients = model.theta
print(f"Coefficients: {coefficients}")
输出结果
Accuracy: 1.0
Coefficients: [[-9.8], [2.1], [0.7]]

该案例展示了如何训练一个简单的逻辑回归模型来区分类别,并且模型在给定数据上的准确率为1.0(100%)。

3

.2 案例二:Titanic生存预测

问题描述

Titanic生存预测是一个经典的二分类问题,目标是根据乘客的特征(如性别、年龄、票价等)预测乘客是否在船难中幸存。

数据准备

从Kaggle下载Titanic数据集,并进行必要的预处理,包括删除缺失值、标准化数值特征等。

代码实现
import pandas as pd
from sklearn.model_selection import train_test_split# 读取数据
data = pd.read_csv('titanic.csv')# 数据预处理
data = data[['Pclass', 'Sex', 'Age', 'Fare', 'Survived']].dropna()
data['Sex'] = data['Sex'].map({'male': 0, 'female': 1})  # 将性别转化为数值X = data[['Pclass', 'Sex', 'Age', 'Fare']].values
y = data['Survived'].values.reshape(-1, 1)# 划分训练集和测试集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)# 创建逻辑回归模型
model = LogisticRegression(learning_rate=0.01, n_iterations=2000)# 训练模型
model.fit(X_train, y_train)# 在测试集上评估模型
accuracy = model.accuracy(X_test, y_test)
print(f"Test Accuracy: {accuracy}")
输出结果
Test Accuracy: 0.79

该案例展示了如何应用逻辑回归模型解决实际问题,通过对Titanic数据集的生存预测,我们得到了接近80%的测试集准确率。


四、逻辑回归的扩展与优化

4.1 正则化

为了防止过拟合,逻辑回归常常引入正则化项(如L2正则化)来约束模型的复杂度。

L2正则化的损失函数如下:

[
J(\theta) = -\frac{1}{m} \sum_{i=1}^{m} \left[ y^{(i)} \log(h_\theta(x^{(i)})) + (1 - y^{(i)}) \log(1 - h_\theta(x^{(i)})) \right] + \frac{\lambda}{2m} \sum_{j=1}^{n} \theta_j^2
]

通过在损失函数中加入正则化项,模型会倾向于选择较小的参数值,避免过拟合。

4.2 多分类逻辑回归

对于多分类问题,可以使用**一对多(One-vs-All)**的方式扩展逻辑回归模型。具体做法是为每个类别训练一个二分类模型,并在预测时选择概率最大的类别。


五、总结

本文详细介绍了逻辑回归算法的原理及其面向对象的实现方法。通过一元和多元逻辑回归的实际案例,展示了如何使用该算法解决二分类问题。同时,我们还讨论了逻辑回归的扩展方向,如正则化和多分类问题的解决方法。

逻辑回归由于其简单性和良好的解释性,是数据科学和机器学习领域常用的分类算法之一。无论是处理基础的二分类问题,还是用于更复杂的场景,逻辑回归都有着重要的应用价值。

http://www.yayakq.cn/news/521407/

相关文章:

  • 电子商务网站案例分析用记事本制作html网页代码
  • 什么网站可以做外单设计产品网站推荐
  • 如何制作网站连接数据库网站建设的资源整合与系统设计
  • 资讯网站 整体ui优化产业结构
  • 山东网站建设价格如何创建一个和淘宝一样的网站
  • 网站 版本 白名单 wap 解析外贸网站服务器选择
  • 大连意动网站建设有限公司怎么样京东网上商城女装
  • 怎么用wordpress建外贸网站全网视频合集网站建设
  • 购物网站开发内容网易企业邮箱手机端设置
  • 网站标题有图片要怎么做杭州的电商网站建设
  • 网站开发属于商标哪个类别随州网络优化网站建设公司
  • 一级a做爰片 网站就能看乐山建设网站
  • 韩国网站设计风格企业管理咨询服务合同模板
  • 企业网站推广技巧和方法简单的方法搭建网站
  • 网站开发多长时间长沙制作网站
  • 做百度网站接到多少客户电话快速做网站费用
  • 华邦网站自适应和响应式的区别
  • 设计签名免费网站网站建设 报价
  • 做网站上传资源上海网站建设模板站霸网络
  • 做箱包哪个网站好wordpress 文章404
  • 电商旅游网站策划书wordpress presscore lite
  • 手机网站焦点图自己开发制作游戏的软件
  • 免费tickle网站郑州网站建设首选创新
  • 建设网站深圳罗湖深圳网站优化指导
  • 个人做网站名称怎么选择wordpress获得链接地址
  • 广东网站开发费用产品网站系统
  • 广东营销型网站建设多少钱东阿县住房和城乡建设局网站
  • 网站建设维护费怎么说北京网站设计公司yx成都柚米科技15
  • div做网站排版北京4a广告公司
  • 自己做的网站网页错位wordpress用户发文章数量