百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 热门文章 > 正文

【机器学习】SVM支持向量机

bigegpt 2025-05-30 12:55 3 浏览

一、SVM 相关概念

1.1 通俗易懂的 SVM 算法描述

SVM(支撑向量机)呢,简单来说就是在两类数据中间找一条“最宽的路”。这条路的中间线就是用来分类的边界(也叫“决策边界”),路越宽,分类的效果就越好。核心思想就是找“最宽的路”(最大间隔):假设这两类数据是路上的两群行人,SVM 的目标就是在这两群人中间划出一条最宽的隔离带(称为“间隔”),隔离带的中间线就是最终的分类边界。关键在于“边缘的人(支持向量)”:隔离带的宽度是由离边界最近的那几个行人(叫做“支撑向量”)决定的,其他行人对隔离带的位置和宽度没啥影响。允许“少量越界”:要是这两群人交错得很厉害(数据线性不可分),SVM 会允许少量行人暂时走进隔离带,不过还是会尽量让隔离带足够宽,平衡好分类错误和间隔大小(这就是“软间隔”)。核函数:当数据线性不可分的时候(就像缠绕的毛线团),把数据映射到高维空间,让它变得线性可分。

1.2 专业术语描述 SVM 相关概念

  • 1.基本概念
    • 定义:支持向量机(SVM)是一种常用于分类任务的机器学习算法,旨在通过一个“最佳”分隔线(在高维空间中是超平面)将不同类别的数据分开。
    • 超平面:在二维空间中是一条直线,三维空间中是一个平面,更高维度空间中是一个多维空间的平面,是SVM用于分隔数据的决策边界。



    • 支持向量:是离超平面最近的数据点,对确定分类边界至关重要,去掉它们分类边界可能改变。
    • 最大间隔:SVM要找到的超平面需使两类数据点到该超平面的距离最大,可提高模型对未知数据的预测能力。


  • 2.工作原理
    • 线性可分情况:当数据集中的不同类别可通过一条直线(二维)或超平面(高维)分开时,SVM寻找的就是这个能使两边数据点离超平面距离最大的超平面。
    • 非线性可分情况:现实中数据常是非线性可分的,SVM通过核技巧将原始数据映射到更高维空间,使数据在高维空间中线性可分,进而找到分隔超平面。常见的核函数有线性核、多项式核、径向基核(RBF核)等。
  • 3.算法优势
    • 高效分类:能有效分开不同类别的数据,处理高维数据有优势,适合数据维度高于样本数量的情况,如文本分类、基因数据分析等。
    • 抗过拟合能力强:通过最大化间隔确定分类边界,对噪声数据和异常值不太敏感,提高了模型的泛化能力。
  • 4.模型评估 训练好SVM模型后,常用精确度、召回率、F1分数等指标评估其性能。精确度是分类器预测为正的样本中实际为正的比例;召回率是所有实际为正的样本中分类器正确预测为正的比例;F1分数是精确度和召回率的调和平均值,综合评估分类模型性能。
  • 5.模型调参 SVM有几个重要超参数需调参优化模型,如C参数,C越大对训练数据拟合能力越强但可能过拟合,C越小模型泛化能力越强但可能欠拟合;选择适合数据的核函数可提高模型准确性;用于RBF核的gamma参数,值越大影响范围越小,值越小影响范围越大。通常使用交叉验证来选择最优参数。


1.3 以代码方式,理解SVM

1.3.1 解决分类问题示例使用 iris 数据集,训练SVM模型并预测

问题背景:根据鸢尾花的花瓣长度和宽度,将其分为3类(山鸢尾、变色鸢尾、维吉尼亚鸢尾)。这里简化为二分类问题(区分山鸢尾和变色鸢尾)。

数据特点

  • 输入特征:花瓣长度(cm)、花瓣宽度(cm)
  • 输出标签:0(山鸢尾)、1(变色鸢尾)

代码分段解析

  • 步骤1:导入库和数据
import numpy as np

import matplotlib.pyplot as plt

from sklearn import datasets

from sklearn.model_selection import train_test_split

from sklearn.svm import SVC

from sklearn.preprocessing import StandardScaler

# 加载鸢尾花数据集(只取前两类)

iris = datasets.load_iris()

X = iris.data[:, 2:4] # 花瓣长度和宽度

y = iris.target.copy()

y[y == 2] = 1 # 将第三类(维吉尼亚鸢尾)也标记为1,转为二分类问题

# 拆分训练集和测试集

X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3, random_state=42)
  • 步骤2:数据标准化(SVM对尺度敏感)
scaler = StandardScaler()

scaler.fit(X_train)

X_train_scaled = scaler.transform(X_train)

X_test_scaled = scaler.transform(X_test)
  • 步骤3:创建并训练SVM模型(线性核)
# 使用线性核的SVM分类器

svm_clf = SVC(kernel='linear', C=1.0) # C是软间隔的惩罚参数,C越小允许越多错误

svm_clf.fit(X_train_scaled, y_train)
  • 步骤4:预测与评估
# 预测测试集

y_pred = svm_clf.predict(X_test_scaled)

accuracy = np.mean(y_pred == y_test)

print(f"分类准确率:{accuracy:.2f}")
  • 步骤5:可视化决策边界和支撑向量
def plot_svm_decision_boundary(clf, ax=None, plot_support_vectors=True):

if ax is None:

ax = plt.gca()

x_min, x_max = X_train_scaled[:, 0].min() - 1, X_train_scaled[:, 0].max() + 1

y_min, y_max = X_train_scaled[:, 1].min() - 1, X_train_scaled[:, 1].max() + 1

xx, yy = np.meshgrid(np.linspace(x_min, x_max, 100),

np.linspace(y_min, y_max, 100))

Z = clf.predict(np.c_[xx.ravel(), yy.ravel()])

Z = Z.reshape(xx.shape)

ax.contourf(xx, yy, Z, alpha=0.2)

ax.set_xlim(xx.min(), xx.max())

ax.set_ylim(yy.min(), yy.max())

ax.set_xlabel('花瓣长度(标准化后)')

ax.set_ylabel('花瓣宽度(标准化后)')

if plot_support_vectors:

ax.scatter(clf.support_vectors_[:, 0], clf.support_vectors_[:, 1],

s=300, linewidth=1, facecolors='none', edgecolors='k')

plt.figure(figsize=(8, 6))

plot_svm_decision_boundary(svm_clf)

plt.scatter(X_train_scaled[y_train==0, 0], X_train_scaled[y_train==0, 1], c='red', label='山鸢尾')

plt.scatter(X_train_scaled[y_train==1, 0], X_train_scaled[y_train==1, 1], c='blue', label='变色鸢尾')

plt.legend()

plt.title('SVM决策边界与支撑向量(线性核)')

plt.show()
  • 完整且添加字体的代码如下
# 步骤1. 导入库和数据

import numpy as np

import matplotlib.pyplot as plt

from sklearn import datasets

from sklearn.model_selection import train_test_split

from sklearn.svm import SVC

from sklearn.preprocessing import StandardScaler

# 设置中文字体

plt.rcParams['font.sans-serif'] = ['SimHei'] # 指定中文字体为黑体

plt.rcParams['axes.unicode_minus'] = False # 解决负号显示问题

# 加载鸢尾花数据集(只取前两类)

iris = datasets.load_iris()

X = iris.data[:, 2:4] # 花瓣长度和宽度

y = iris.target.copy()

y[y == 2] = 1 # 将第三类(维吉尼亚鸢尾)也标记为1,转为二分类问题

# 拆分训练集和测试集

X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3, random_state=42)

# 步骤2:数据标准化(SVM对尺度敏感)P

# 数据标准化(SVM对尺度敏感)

scaler = StandardScaler()

scaler.fit(X_train)

X_train_scaled = scaler.transform(X_train)

X_test_scaled = scaler.transform(X_test)

# 步骤3:创建并训练SVM模型(线性核)

# 创建并训练SVM模型(线性核)

svm_clf = SVC(kernel='linear', C=1.0) # C是软间隔的惩罚参数,C越小允许越多错误

svm_clf.fit(X_train_scaled, y_train)

# 步骤4:预测与评估

# 预测与评估

y_pred = svm_clf.predict(X_test_scaled)

accuracy = np.mean(y_pred == y_test)

print(f"分类准确率:{accuracy:.2f}")

# 步骤5:可视化决策边界和支撑向量

def plot_svm_decision_boundary(clf, ax=None, plot_support_vectors=True):

if ax is None:

ax = plt.gca()

x_min, x_max = X_train_scaled[:, 0].min() - 1, X_train_scaled[:, 0].max() + 1

y_min, y_max = X_train_scaled[:, 1].min() - 1, X_train_scaled[:, 1].max() + 1

xx, yy = np.meshgrid(np.linspace(x_min, x_max, 100),

np.linspace(y_min, y_max, 100))

Z = clf.predict(np.c_[xx.ravel(), yy.ravel()])

Z = Z.reshape(xx.shape)

ax.contourf(xx, yy, Z, alpha=0.2)

ax.set_xlim(xx.min(), xx.max())

ax.set_ylim(yy.min(), yy.max())

ax.set_xlabel('花瓣长度(标准化后)')

ax.set_ylabel('花瓣宽度(标准化后)')

if plot_support_vectors:

ax.scatter(clf.support_vectors_[:, 0], clf.support_vectors_[:, 1],

s=300, linewidth=1, facecolors='none', edgecolors='k')

plt.figure(figsize=(8, 6))

plot_svm_decision_boundary(svm_clf)

plt.scatter(X_train_scaled[y_train==0, 0], X_train_scaled[y_train==0, 1], c='red', label='山鸢尾')

plt.scatter(X_train_scaled[y_train==1, 0], X_train_scaled[y_train==1, 1], c='blue', label='变色鸢尾')

plt.legend()

plt.title('SVM分类决策边界可视化') # 明确的中文标题

plt.show()

分类准确率:1.00

  • 代码输出解读

1. 准确率:通常在二分类问题中可达90%以上(取决于数据和参数)。

2. 可视化结果


背景颜色表示分类区域,中间的实线是决策边界,虚线是间隔边界(由支撑向量决定)。

黑色圆圈标记的点是支撑向量,它们决定了决策边界的位置。

1.3.2 解决回归问题示例:使用波士顿房价数据集,训练SVM模型并预测

  • 实现代码
import numpy as np
import matplotlib.pyplot as plt
import warnings
from sklearn.datasets import load_boston
from sklearn.model_selection import train_test_split
from sklearn.svm import SVR
from sklearn.metrics import mean_squared_error, r2_score

# 忽略过时警告(波士顿房价数据集已被sklearn弃用)
warnings.filterwarnings('ignore')

# 加载波士顿房价数据集
boston = load_boston()
X = boston.data
y = boston.target
feature_names = boston.feature_names  # 特征名称列表

# 划分训练集和测试集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3, random_state=42)

# 创建SVM回归器(RBF核)
svr = SVR(kernel='rbf', C=100, gamma=0.1)
svr.fit(X_train, y_train)

# 预测并计算指标
y_pred = svr.predict(X_test)
mse = mean_squared_error(y_test, y_pred)
r2 = r2_score(y_test, y_pred)  # R^2分数(越接近1越好)
print(f"均方误差(MSE):{mse:.2f}")
print(f"决定系数(R^2):{r2:.2f}")

# ------------------- 可视化部分 -------------------
plt.figure(figsize=(16, 12))

# 子图1:真实值vs预测值对比
plt.subplot(2, 2, 1)
plt.scatter(y_test, y_pred, alpha=0.7, edgecolor='k', c='royalblue')
# 绘制理想对角线(预测值=真实值)
plt.plot([y.min(), y.max()], [y.min(), y.max()], 'k--', lw=2, label='理想预测线')
plt.xlabel('真实房价 (千美元)')
plt.ylabel('预测房价 (千美元)')
plt.title(f'真实值 vs 预测值 (MSE={mse:.2f}, R^2={r2:.2f})')
plt.legend()

# 子图2:残差分析图(预测误差分布)
plt.subplot(2, 2, 2)
residuals = y_test - y_pred  # 残差(真实值-预测值)
plt.scatter(y_pred, residuals, alpha=0.7, edgecolor='k', c='firebrick')
plt.axhline(y=0, color='k', linestyle='--', lw=2, label='无误差线')
plt.xlabel('预测房价 (千美元)')
plt.ylabel('残差 (真实值-预测值)')
plt.title('残差分析图(误差分布)')
plt.legend()

# 子图3:关键特征与目标变量关系(选择RM特征:平均房间数)
plt.subplot(2, 2, 3)
feature_idx = np.where(feature_names == 'RM')[0][0]  # 获取"RM"特征的索引
plt.scatter(X_test[:, feature_idx], y_test, 
            alpha=0.6, edgecolor='k', c='goldenrod', label='真实值')
plt.scatter(X_test[:, feature_idx], y_pred, 
            alpha=0.6, edgecolor='k', c='darkgreen', marker='x', label='预测值')
plt.xlabel('平均房间数 (RM)')
plt.ylabel('房价 (千美元)')
plt.title('关键特征(RM)与房价的真实/预测关系')
plt.legend()

# 子图4:特征重要性(基于核模型的近似重要性)
plt.subplot(2, 2, 4)
# 计算特征重要性(通过排列重要性近似,需要安装scikit-learn>=0.23)
from sklearn.inspection import permutation_importance
result = permutation_importance(
    svr, X_test, y_test, n_repeats=10, random_state=42, n_jobs=2
)
sorted_idx = result.importances_mean.argsort()[::-1]  # 降序排列

plt.barh(feature_names[sorted_idx], result.importances_mean[sorted_idx],
         color='mediumpurple', edgecolor='k')
plt.xlabel('排列重要性(对模型性能的影响程度)')
plt.title('特征重要性分析(基于排列重要性)')

plt.tight_layout()
plt.show()
测试集准确率:1.00

执行结果:


相关推荐

php-fpm的配置和优化

目录概述php-fpm配置php-fpm进程优化配置慢日志查询配置php7进阶到架构师相关阅读概述这是关于php进阶到架构之php7核心技术与实战学习的系列课程:php-fpm的配置和优化学习目标:理...

成功安装 Magento2.4.3最新版教程「技术干货」

外贸独立站设计公司xingbell.com经过多次的反复实验,最新版的magento2.4.3在oneinstack的环境下的详细安装教程如下:一.vps系统:LinuxCentOS7.7.19...

十分钟让你学会LNMP架构负载均衡

业务架构、应用架构、数据架构和技术架构一、几个基本概念1、pv值pv值(pageviews):页面的浏览量概念:一个网站的所有页面,在一天内,被浏览的总次数。(大型网站通常是上千万的级别)2、u...

php从远程URL获取(mp4 mp3)音视频的流媒体数据

/***从远程URL中获取媒体(如mp4mp3)的内容*@parammixed$file_url*@parammixed$media_type...

Zabbix5.0安装部署

全盘展示运行状态,减轻运维人员的重复性工作量,提高系统排错速度,加速运维知识学习积累。1.png1、环境安装关闭SELinux并重启系统2.png安装httpd、mariadb、php运行yum-...

php 常见配置详解

以下是PHP常见的配置项及其含义:error_reporting:设置错误报告级别,可以控制PHP显示哪些错误。例如,设置为E_ALL将显示所有错误,而设置为0将禁止显示任何错误。displa...

实践分享|基于基石智算 DeepSeek API + WordPress 插件自动生成访客回复

基石智算举办的DeepSeek案例大赛汇集了不少基于CoresHubDeepSeekAPI服务或模型部署服务的精彩实践。本次我们将分享个人实践:通过DeepSeekAPI+Word...

如何在Eclipse中搭建Zabbix源码的调试和开发环境

Zabbix是一款非常优秀的企业级软件,被设计用于对数万台服务器、虚拟机和网络设备的数百万个监控项进行实时监控。Zabbix是开放源码和免费的,这就意味着当出现bug时,我们可以很方便地通过调试源码来...

MySQL自我保护参数

#头条创作挑战赛#之前(MySQL自我保护工具--pt-kill)提到用pt-kill工具来kill相关的会话,来达到保护数据库的目的,本文再通过修改数据库参数的方式达到阻断长时间运行的SQL的目...

Python闭包深度解析:掌握数据封装的高级技巧

闭包作为Python高级编程特性之一,为开发者提供了一种优雅的方式来实现数据封装和状态保持。这一概念源于函数式编程理论,在现代Python开发中发挥着重要作用。理解和掌握闭包的使用不仅能够提升代码的表...

Java服务网格故障注入与熔断实战

在分布式系统的高可用性挑战中,服务网格的故障注入与熔断机制是检验系统韧性的终极试金石。以下是10道逐步升级的"地狱关卡",每个关卡都对应真实生产环境中可能遇到的致命场景,并附具体场景示...

MySQL数据库性能优化全攻略:程序员必知的七大核心策略

作为程序员,我们每天都要与数据库打交道。当系统用户量突破百万级时,数据库往往成为性能瓶颈的首要怀疑对象。本文将深入探讨MySQL优化的七大核心策略,并提供可直接落地的优化方案,助您构建高效稳定的数据库...

如何在 Windows 11 上使用单个命令安装 XAMPP

XAMPP是一种广泛使用的软件,用于在Windows操作系统上快速运行LAMP服务器包,包括Windows11。尽管LAMP通常用于Linux系统,但XAMPP并不使用Li...

uTorrent怎样将bt种子转换为磁力

如何用uTorrent把BT种子转为磁力链接?以下方法希望能帮到你。1、在uTorrent窗口里,点击工具栏的按钮,所示。2、在打开窗口里,选取要转为磁力的种子文件,然后点击打开按钮,参照图示操作...

支持向量机SVM 分类和回归的实例

支持向量机(SupportVectorMachine)是Cortes和Vapnik于1995年首先提出的,它在解决小样本、非线性及高维模式识别中表现出许多特有的优势,并能够推广应用到函数拟合等其他...