感知机及其R实现

感知机及其R实现感知机1.感知机模型定义:假设输入空间(特征空间)是χ⊆Rn\chi\subseteqR^n,输出空间是Y={+1,−1}Y=\{+1,-1\}。输入x∈χx\in\chi表示实例的特征向量,对应于输入空间的点;输出y∈Yy\inY表示实例的类别。由输入空间到输出空间的如下函数f(x)=sign(w⋅x+b)f(x)=sign(w\cdotx+b)称为感知机。其中,ww和bb为感知

大家好,又见面了,我是你们的朋友全栈君。如果您正在找激活码,请点击查看最新教程,关注关注公众号 “全栈程序员社区” 获取激活教程,可能之前旧版本教程已经失效.最新Idea2022.1教程亲测有效,一键激活。

Jetbrains全系列IDE使用 1年只要46元 售后保障 童叟无欺

感知机

1. 感知机模型

定义:假设输入空间(特征空间)是 χ ⊆ R n \chi\subseteq R^n χRn,输出空间是 Y = { + 1 , − 1 } Y=\{+1,-1\} Y={
+1,1}
。输入 x ∈ χ x\in \chi xχ表示实例的特征向量,对应于输入空间的点;输出 y ∈ Y y\in Y yY表示实例的类别。由输入空间到输出空间的如下函数
f ( x ) = s i g n ( w ⋅ x + b ) f(x)=sign(w\cdot x+b) f(x)=sign(wx+b)
称为感知机。其中, w w w b b b为感知机模型参数, w ∈ R n w\in R^n wRn叫做权值, b ∈ R b\in R bR叫做偏置, w ⋅ x w\cdot x wx表示 w w w x x x的内积。 s i g n sign sign为符号函数。

2. 感知机学习策略

2.1数据集的线性可分性定义:

给定一个数据集
T = { ( x 1 , y 1 ) , ( x 2 , y 2 ) , ⋯   , ( x n , y n ) } , T = \{(x_1,y_1),(x_2,y_2),\cdots,(x_n,y_n)\}, T={
(x1,y1),(x2,y2),,(xn,yn)},

其中, x i ∈ χ = R n , y i ∈ Y = { + 1 , − 1 } , i = 1 , 2 , ⋯   , N , x_i\in\chi=R^n,y_i\in Y=\{+1,-1\},i=1,2,\cdots,N, xiχ=Rn,yiY={
+1,1},i=
1,2,,N,
如果存在某个超平面S
w ⋅ x + b = 0 w\cdot x+b=0 wx+b=0
能够将数据集的正实例点和负实例点完全正确地划分到超平面的两侧,即对所有的 y i = + 1 y_i=+1 yi=+1的实例 i i i,有 w ⋅ x i + b > 0 w\cdot x_i+b>0 wxi+b>0,对所有的 y i = − 1 y_i=-1 yi=1的实例 i i i,有 w ⋅ x i + b < 0 , w\cdot x_i+b<0, wxi+b<0,则成数据集 T T T为线性可分数据集;否则,成数据集 T T T为线性不可分。

2.2感知机学习策略的损失函数

感知机 s i g n ( w ⋅ x + b ) sign(w\cdot x+b) sign(wx+b)学习的损失函数定义为
L ( w , b ) = − ∑ x i ∈ M y i ( w ⋅ x i + b ) L(w,b)=-\sum_{x_i\in M}y_i(w\cdot x_i+b) L(w,b)=xiMyi(wxi+b)
其中, M M M为误分类点的集合。这个损失函数就是感知机学习的经验风险函数。损失函数 L ( w , b ) L(w,b) L(w,b) w w w, b b b的连续可导函数。

3. 感知机学习算法

3.1 算法(感知机学习算法的原始形式)

输入:训练数据集 T = { ( x 1 , y 1 ) , ( x 2 , y 2 ) , ⋯   , ( x N , y N ) } T=\{(x_1,y_1),(x_2,y_2),\cdots,(x_N,y_N)\} T={
(x1,y1),(x2,y2),,(xN,yN)}
,其中 x i ∈ χ = R n , y i ∈ Y = { + 1 , − 1 } , i = 1 , 2 , ⋯   , N x_i \in\chi=R^n,y_i\in Y=\{+1,-1\},i=1,2,\cdots,N xiχ=Rn,yiY={
+1,1},i=
1,2,,N
;学习率 η ( 0 < η ≤ 1 ) ; \eta(0<\eta\le1); η(0<η1);
输出: w , b w,b w,b;感知机模型 f ( x ) = s i g n ( w ⋅ x + b ) f(x)=sign(w\cdot x+b) f(x)=sign(wx+b).
(1)选取初值 w 0 , b 0 w_0,b_0 w0,b0
(2)在训练集中选取数据 ( x i , y i ) (x_i,y_i) (xi,yi)
(3)如果 y i ( w ⋅ x i + b ) ≤ 0 y_i(w\cdot x_i +b)\le 0 yi(wxi+b)0
w ← w + η y i x i b ← b + η y i w\leftarrow w +\eta y_ix_i\\ b\leftarrow b +\eta y_i ww+ηyixibb+ηyi
(4)转至(2),直至训练集中没有误分类点。

3.2 R语言实现(感知机学习算法的原始形式)

percept <- function(data = data,eta = eta ){
  x <- data[,-dim(data)[2]]
  y <- data[,dim(data)[2]]
  w <- c(0,0)
  b <- 0
  len <- length(y)
  i <- 1  
  while(i <= len){
    if(y[i] * (x[i,] %*% w + b) <= 0){
    ## update w and b
      w <- w + eta * y[i] * x[i,]
      b <- b + eta * y[i]
      i <- 1 ##important, for traversing every point
    }
    else{
      i <- i + 1 
    }
  }
  return(list(w=w,b=b))
}

data <- matrix(c(3,3,1,4,3,1,1,1,-1),nr=3,byrow=T)
percept(data = data,eta = 1)

最终结果为
$w
[1] 1 1

$b
[1] -3
再换一个数据:

dat <-matrix(c(1,1,-1,.5,.5,-1,4,1,1,3,2,1,1.5,1,-1,2,3,1,4,3,1,2,3.5,1),nc=3,byrow=T)
perceptron <- percept(data=dat,eta=1)
perceptron

最后结果为:
$w
[1] 4 0

$b
[1] -7
我们试着画出它的图形

dat1 <- dat[,1:2]
dat1 <- as.data.frame(dat1)
names(dat1) <- c("x1","x2")
plot(x2~x1,data=dat1,col=ifelse(4*x1-7<=0,"red","blue"),pch=17,bty="l")
abline(v=7/4,lwd=2,lty=2,col="red")

Perceptron
由此可以看出还是不错的,都已经正确划分。

3.3算法(感知机学习算法的对偶形式)

输入:线性可分的数据集 T = { ( x 1 , y 1 ) , ( x 2 , y 2 ) , ⋯   , ( x N , y N ) } , T=\{(x_1,y_1),(x_2,y_2),\cdots,(x_N,y_N)\}, T={
(x1,y1),(x2,y2),,(xN,yN)},
其中 x i ∈ R n , y i ∈ { + 1 , − 1 } , i = 1 , 2 , ⋯   , N ; x_i\in R^n,y_i \in \{+1,-1\},i=1,2,\cdots,N; xiRn,yi{
+1,1},i=
1,2,,N;
学习率 η ( 0 < η ≤ 1 ) ; \eta(0<\eta\le1); η(0<η1);
输出: α , b ; \alpha,b; α,b;感知机模型 f ( x ) = s i g n ( ∑ j = 1 N α j y j x j ⋅ x + b ) . f(x)=sign(\sum_{j=1}^N\alpha_jy_jx_j\cdot x+b). f(x)=sign(j=1Nαjyjxjx+b).
其中 α = ( α 1 , α 2 , ⋯   , α N ) T . \alpha=(\alpha_1,\alpha_2,\cdots,\alpha_N)^T. α=(α1,α2,,αN)T.
(1) α ← 0 , b ← 0 \alpha\leftarrow 0,b\leftarrow0 α0,b0
(2)在训练集中选取数据 ( x i , y i ) (x_i,y_i) (xi,yi)
(3)如果 y i ( ∑ j = 1 N α j y j x j ⋅ x i + b ) ≤ 0 y_i(\sum_{j=1}^N\alpha_jy_jx_j\cdot x_i +b)\le0 yi(j=1Nαjyjxjxi+b)0
α i ← α i + η b ← b + η y i \alpha_i\leftarrow \alpha_i +\eta\\ b\leftarrow b+\eta y_i αiαi+ηbb+ηyi
(4)转至(2)直到没有误分类数据。
对偶形式训练实例仅以内积的形式实现,为了方便,可以预先将训练集中的实例间的内积计算出来并以矩阵形式存储,这个矩阵就是所谓的Gram矩阵
G = [ x i ⋅ x j ] N × N G=[x_i\cdot x_j]_{N\times N} G=[xixj]N×N

3.4 R语言实现(感知机学习算法的对偶形式)

后续补充

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。

发布者:全栈程序员-用户IM,转载请注明出处:https://javaforall.cn/179091.html原文链接:https://javaforall.cn

【正版授权,激活自己账号】: Jetbrains全家桶Ide使用,1年售后保障,每天仅需1毛

【官方授权 正版激活】: 官方授权 正版激活 支持Jetbrains家族下所有IDE 使用个人JB账号...

(0)
blank

相关推荐

  • python计算最大公约数和最小公倍数_python求最大公约数和最小公倍数的方法介绍…

    python计算最大公约数和最小公倍数_python求最大公约数和最小公倍数的方法介绍…python求最大公约数和最小公倍数的方法介绍发布时间:2020-04-2810:42:38来源:亿速云阅读:114作者:小新今天小编给大家分享的是python求最大公约数和最小公倍数的方法介绍,相信很多人都不太了解,为了让大家更加了解python求最大公约数和最小公倍数的方法,所以给大家总结了以下内容,一起往下看吧。一定会有所收获的哦。python怎么求最大公约数和最小公倍数一、求最大公约数用…

  • 极限思想之芝诺悖论[通俗易懂]

    极限思想之芝诺悖论[通俗易懂]芝诺悖论是古希腊哲学家芝诺提出的一组悖论。芝诺是一个很有学问,同时也很好玩的人(淘气)。他如果在中国出生,估计很难大学毕业,只能跟池子(脱口秀演员~)一样,高中教室门外面站三年课,然后去讲脱口秀糊口。阿基里斯,大家都知道。古希腊神话中的战神。无论是力量,速度,耐力,格斗技巧,都是巅峰级别的。一夜睡三女,第二天依然可以血染特洛伊的男人。芝诺就提出:在跑步比赛中,如果跑得最慢的乌龟一开始领先…

  • STM32延时函数的四种方法

    STM32延时函数的四种方法目录1、普通延时2、定时器中断3、查询定时器4、汇编指令单片机编程过程中经常用到延时函数,最常用的莫过于微秒级延时delay_us()和毫秒级delay_ms()。本文基于STM32F207介绍4种不同方式实现的延时函数。1、普通延时这种延时方式应该是大家在51单片机时候,接触最早的延时函数。这个比较简单,让单片机做一些无关紧要的工作来打发时间,经常用循环来实现,在某些编译器下,代码会被优化,导致精度较低,用于一般的延时,对精度不敏感的应用场景中。//微秒级的延时void

  • 要想混得好,必须认识21个人!

    要想混得好,必须认识21个人!

  • 身份管理系统与解决方案[通俗易懂]

    身份管理系统与解决方案[通俗易懂]身份管理的进化式发展身份管理的需求来自于不同部门安全服务解决方案框架身份管理解决方案整体架构典型企业安全身份管理逻辑架构新员工入职帐号创建员工入职服务–基于策略身份供应实现统一认证

  • Java锁详解[通俗易懂]

    Java锁详解[通俗易懂]文章目录什么是锁锁的实现方式锁涉及的几个重要概念类锁和对象锁(重要)synchronized实现原理什么是锁计算机还是单线程的时代,下面代码中的count,始终只会被一个线程累加,调用addOne()10次,count的值一定就累加了10。publicclassTest{//计数器privateIntegercount=0;//累加…

发表回复

您的电子邮箱地址不会被公开。

关注全栈程序员社区公众号