opencv lsd算法_opencv目标识别

opencv lsd算法_opencv目标识别最小二乘法的概念最小二乘法要关心的是对应的costfunction是线性还是非线性函数,不同的方法计算效率如何,要不要求逆,矩阵的维数一般都是过约束,方程式的数目多于未知的参数数目。最小二乘法的目标:求误差的最小平方和,根据costfunction的对应有两种:线性和非线性(取决于对应的残差(residual)是线性的还是非线性的)。线性最小二乘的解是closed-formsolution …

大家好,又见面了,我是你们的朋友全栈君。如果您正在找激活码,请点击查看最新教程,关注关注公众号 “全栈程序员社区” 获取激活教程,可能之前旧版本教程已经失效.最新Idea2022.1教程亲测有效,一键激活。

Jetbrains全系列IDE稳定放心使用

最小二乘法的概念

最小二乘法要关心的是对应的cost function是线性还是非线性函数,不同的方法计算效率如何,要不要求逆,矩阵的维数

一般都是过约束,方程式的数目多于未知的参数数目。

最小二乘法的目标:求误差的最小平方和,根据cost function的对应有两种:线性和非线性(取决于对应的残差(residual)是线性的还是非线性的)。

线性最小二乘的解是closed-form solution 即 \(x = (A^TA)^{-1}A^Tb\)

\(S(x) = ||b -Ax ||^2 = (b -Ax)^T(b -Ax) = b^Tb – b^TAx – x^TA^Tb + x^TA^TAx\)

Note that :\((b^TAx)^T = x^TA^Tb\) 的维数是 1*1(y的列数目).所以 \(b^TAx = x^TA^Tb\)

\(S(x) = b^Tb – 2b^TAx + x^TA^TAx\)

对\(x\)求导

\(-2A^Tb + 2 (A^TA)x = 0\)

\(x = (A^TA)^{-1}A^Tb\)

而非线性最小二乘没有closed-form,通常用迭代法求解。在每次迭代的过程使用一个线性化的方程代替计算。

有牛顿法,牛顿高斯法,LM, 其实可以分为trust region 和 linear line search

非线性最小二乘法的方法有

迭代法,即在每一步update未知量逐渐逼近解,cost function在下降,可以用于各种各样的问题。

梯度下降(最速下降法)是迭代法的一种,可以用于求解最小二乘问题

\(f(x + \alpha \overrightarrow d) = f(x_0) + \alpha f'(x_0)\overrightarrow d + \text {二阶以上无穷小}\)

上面的\(x_0\)是泰勒展开式的点, \(\alpha\)是 步长(一个实数) , $ \overrightarrow d$ 单位方向(一个向量),即 \(|\overrightarrow d| = 1\)

显然当\(d\)的方向和\(f'(x_0)\)方向相反的时候,\(cos180 =-1\),整体取到最小值。这就是为什么取的是梯度的反方向原因。

当然上面的步长一般也是可以求得,怎么求步长也是一门学问。

下面的都是从牛顿法引申出来的,记住牛顿法求得是稳定点\(f'(x) = 0\),导数为0的不一定是最小值,梯度下降法求得是局部最小值,从计算上看

牛顿法 泰勒展开式到二阶,

\[f(x_{t+1}) = f(x_t) + g(x_{t+1} – x_t) + \frac{1}{2} (x_{t+1} -x_t)^TH(x_{t+1} -x_t)

\]

求导就有,\(\frac{\partial f}{\partial x_t} = g + H(x_{t+1} -x_t)\),让他为0,就有了牛顿公式

\[x_{t+1} = x_t – H^{-1}g

\]

要是H是正定的,上面的就是凸函数,也就一定有了最小值。可惜H不一定是正定的,这就引导出了下面的方法

高斯-牛顿法

是另一种经常用于求解非线性最小二乘的迭代法(一定程度上可视为标准非线性最小二乘求解方法)。

我们优化的cost function是 $$min \sum _i r_i(x)^2$$

根据上面的牛顿法:

\[x_{t+1} = x_t – H^{-1}g

\]

梯度的表示

\[g_j=2 \sum _i r_i \frac{\partial r_i}{\partial x_j}

\]

Hessian矩阵的表示

\[H_{jk} = 2\sum _i (\frac{\partial r_i}{\partial x_j}\frac{\partial r_i}{\partial x_k} + r_i\frac{\partial ^2 r_i}{\partial x_j \partial x_k})

\]

要是把上面公式的最后一项去掉,至少是半正定了,而且不用计算Hessain矩阵了,这就是牛顿高斯法

\[H_{jk} \approx 2 \sum _i J_{ij}J_{ik} \quad With \quad J_{ij} = \frac{\partial r_i}{\partial x_j}

\]

在什么情况下,去掉最后一项比较好,

residual(\(r_i\))小的时候

或者接近linear ,这样一阶微分是常数,二阶微分就是0

上面两种情况下,第二项都很小,公式如下

\[x_{t+1} = x_t – (J^TJ)^{-1}J^Tr

\]

Levenberg-Marquardt

的迭代法用于求解非线性最小二乘问题,就结合了梯度下降和高斯-牛顿法。

\[x_{t+1} = x_t – (H + \lambda I_n)^{-1}g

\]

\[x_{t+1} = x_t – (J^TJ + \lambda I_n)^{-1}J^Tr

\]

总结

所以如果把最小二乘看做是优化问题的话,那么梯度下降是求解方法的一种,\(x=(A^TA)^{-1}A^Tb\)是求解线性最小二乘的一种,高斯-牛顿法和Levenberg-Marquardt则能用于求解非线性最小二乘。

LM算法相对于高斯牛顿算法和梯度下降的优缺点

首先梯度下降法和高斯牛顿法都是最优化方法。其区别之处在于,

梯度下降法在寻找目标函数极小值时,是沿着反梯度方向进行寻找的。梯度的定义就是指向标量场增长最快的方向,在寻找极小值时,先随便定初始点(x0,y0)然后进行迭代不断寻找直到梯度的模达到预设的要求。但是梯度下降法的缺点之处在于:在远离极小值的地方下降很快,而在靠近极小值的地方下降很慢,靠近的时候可能成zig-zag下降。

而高斯牛顿法是一种非线性最小二乘最优化方法。其利用了目标函数的泰勒展开式把非线性函数的最小二乘化问题化为每次迭代的线性函数的最小二乘化问题。高斯牛顿法的缺点在于:若初始点距离极小值点过远,迭代步长过大会导致迭代下一代的函数值不一定小于上一代的函数值。

LM算法在高斯牛顿法中加入了因子μ,当μ大时相当于梯度下降法,μ小时相当于高斯牛顿法。在使用Levenberg-Marquart时,先设置一个比较小的μ值,当发现目标函数反而增大时,将μ增大使用梯度下降法快速寻找,然后再将μ减小使用牛顿法进行寻找。

The Gauss–Newton algorithm is used to solve non-linear least squares problems.

It is a modification of Newton’s method for finding a minimum of a function.

Unlike Newton’s method, the Gauss–Newton algorithm can only be used to minimize a sum

of squared function values, but it has the advantage that second derivatives, which

can be challenging to compute, are not required.

However, as for many fitting algorithms, the LMA finds only a local minimum,

which is not necessarily the global minimum.

% 计算函数f的雅克比矩阵

syms a b y x real;

f=a*cos(b*x) + b*sin(a*x)

Jsym=jacobian(f,[a b])

data_1=[ 0, 0.2, 0.4, 0.6, 0.8, 1.0, 1.2, 1.4, 1.6, 1.8, 2.0, 2.2, 2.4, 2.6, 2.8, 3.0,3.2, 3.4, 3.6, 3.8, 4.0, 4.2, 4.4, 4.6, 4.8, 5.0, 5.2, 5.4, 5.6, 5.8, 6.0, 6.2 ];

obs_1=[102.225 ,99.815,-21.585,-35.099, 2.523,-38.865,-39.020, 89.147, 125.249,-63.405, -183.606, -11.287,197.627, 98.355, -131.977, -129.887, 52.596, 101.193,5.412, -20.805, 6.549, -40.176, -71.425, 57.366, 153.032,5.301, -183.830, -84.612, 159.602, 155.021, -73.318, -146.955];

% 2. LM算法

% 初始猜测初始点

a0=100; b0=100;

y_init = a0*cos(b0*data_1) + b0*sin(a0*data_1);

% 数据个数

Ndata=length(obs_1);

% 参数维数

Nparams=2;

% 迭代最大次数

n_iters=60;

% LM算法的阻尼系数初值

lamda=0.1;

%LM算法的精度

ep=100

% step1: 变量赋值

updateJ=1;

a_est=a0;

b_est=b0;

% step2: 迭代

for it=1:n_iters

if updateJ==1

% 根据当前估计值,计算雅克比矩阵

J=zeros(Ndata,Nparams);

for i=1:length(data_1)

J(i,:)=[cos(b_est*data_1(i))+data_1(i)*b_est*cos(a_est*data_1(i)) -sin(b_est*data_1(i))*a_est*data_1(i)+sin(a_est*data_1(i)) ];

end

% 根据当前参数,得到函数值

y_est = a_est*cos(b_est*data_1) + b_est*sin(a_est*data_1);

% 计算误差

d=obs_1-y_est;

% 计算(拟)海塞矩阵

H=J’*J;

% 若是第一次迭代,计算误差

if it==1

e=dot(d,d);

end

end

% 根据阻尼系数lamda混合得到H矩阵

H_lm=H+(lamda*eye(Nparams,Nparams));

% 计算步长dp,并根据步长计算新的可能的\参数估计值

dp=inv(H_lm)*(J’*d(:));

%求误差大小

g = J’*d(:);

a_lm=a_est+dp(1);

b_lm=b_est+dp(2);

% 计算新的可能估计值对应的y和计算残差e

y_est_lm = a_lm*cos(b_lm*data_1) + b_lm*sin(a_lm*data_1);

d_lm=obs_1-y_est_lm;

e_lm=dot(d_lm,d_lm);

% 根据误差,决定如何更新参数和阻尼系数

if e_lm

if e_lm

break

else

lamda=lamda/5;

a_est=a_lm;

b_est=b_lm;

e=e_lm;

disp(e);

updateJ=1;

end

else

updateJ=0;

lamda=lamda*5;

end

end

%显示优化的结果

a_est

b_est

plot(data_1,obs_1,’r’)

hold on

plot(data_1,a_est*cos(b_est*data_1) + b_est*sin(a_est*data_1),’g’)

opencv lsd算法_opencv目标识别

#pragma once

#include

#include

#include

using namespace std;

using namespace cv;

const int MAXTIME = 50;

#pragma comment(lib,”opencv_core249d.lib”)

Mat cvSinMat(Mat a)

{

int rows = a.rows;

int cols = a.cols;

Mat out(rows, cols, CV_64F);

for (int i = 0; i < rows; i++)

{

out.at(i, 0) = sin(a.at(i, 0));

}

return out;

}

Mat cvCosMat(Mat a)

{

int rows = a.rows;

int cols = a.cols;

Mat out(rows, cols, CV_64F);

for (int i = 0; i < rows; i++)

{

out.at(i, 0) = cos(a.at(i, 0));

}

return out;

}

Mat jacobin(const Mat& pk, const Mat& x) // pk= [a,b] a*cos(b*x) + b*sin(a*x)

{

Mat_ J(x.rows, pk.rows), Sa, Sb ,Ca, Cb,da, db;

Sa = cvSinMat(pk.at(0)*x);

Sb = cvSinMat(pk.at(1)*x);

Ca = cvCosMat(pk.at(0)*x);

Cb = cvCosMat(pk.at(1)*x);

da = Cb + x.mul(pk.at(1)*Ca);

db = Sa – x.mul(pk.at(0)*Sb);

//cout << “da= ” << da << endl;

da.copyTo(J(Rect(0, 0, 1, J.rows)));

db.copyTo(J(Rect(1,0, 1, J.rows)));

return J;

}

Mat yEstimate(const Mat& pk, const Mat& x)

{

Mat_ Y(x.rows, x.cols),Cb,Sa;

Sa = cvSinMat(pk.at(0)*x);

Cb = cvCosMat(pk.at(1)*x);

Y = pk.at(0)*Cb + pk.at(1)*Sa;

return Y;

}

void LM(double* p0, int pN, double* x, int xN, double* y, double lamda, double step, double ep = 0.000001)

{

int iters = 0;

int updateJ = 1;

double ek = 0.0, ekk = 0.0;//估计误差

Mat_ xM(xN, 1, x), yM(xN, 1, y), pM(pN, 1, p0), JM, yEM, yEMM, dM, gM, dMM, dpM;//至少需要JM,gM,dpM,pM

for (; iters < MAXTIME; iters++)

{

if (updateJ == 1)

{

JM = jacobin(pM, xM); //雅克比矩阵

//outData(fs, JM, “J.xml”);

yEM = yEstimate(pM, xM); //f(β)

dM = yM – yEM; // y-f(β)

gM = JM.t()*dM; //

if (iters == 0)

ek = dM.dot(dM); //第一次 直接||r||^2

}

Mat_ NM = JM.t()*JM + lamda*(Mat::eye(pN, pN, CV_64F)); //J(T)J + lambda*I

if (solve(NM, gM, dpM)) //

{

Mat_ pMM = pM + dpM; //更新最小值

yEMM = yEstimate(pMM, xM);

dMM = yM – yEMM;

ekk = dMM.dot(dMM);

if (ekk < ek)//成功则更新向量与估计误差

{

printf(“the %d iterator ,ekk=%lf \n”, iters,ekk);

if (dpM.dot(dpM) < ep)

{

printf(“Final result is :\n”);

printf(“精度:0.000001\n”);

printf(“a =%lf , b=%lf\n”, pMM.at(0),pMM.at(1));

return;

}

else

{

pM = pMM;

ek = ekk;

lamda = lamda / step;

updateJ = 1;

continue;

}

}

else //if an iteration gives insufficient reduction in the residual, λ(lamda) can be increased

{

printf(“the %d iterator \n”, iters);

lamda = lamda*step;

updateJ = 0;

}

}

else

{

printf(“the solve invertx matrix error\n”);

}

}

}

#include “LM.h”

int main()

{

double data[] = { 0, 0.2, 0.4, 0.6, 0.8, 1.0, 1.2, 1.4, 1.6, 1.8, 2.0, 2.2, 2.4, 2.6, 2.8, 3.0,

3.2, 3.4, 3.6, 3.8, 4.0, 4.2, 4.4, 4.6, 4.8, 5.0, 5.2, 5.4, 5.6, 5.8, 6.0, 6.2 };

double obs[] = { 102.225 ,99.815,-21.585,-35.099, 2.523,-38.865,

-39.020, 89.147, 125.249,-63.405, -183.606, -11.287,

197.627, 98.355, -131.977, -129.887, 52.596, 101.193,

5.412, -20.805, 6.549, -40.176, -71.425, 57.366, 153.032,

5.301, -183.830, -84.612, 159.602, 155.021, -73.318, -146.955 };

//初始点

double p0[] = { 100, 100 };

LM(p0, 2, data, 32, obs, 0.1, 10);

system(“pause”);

}

opencv lsd算法_opencv目标识别

LM算法与非线性最小二乘问题

摘录的一篇有关求解非线性最小二乘问题的算法–LM算法的文章,当中也加入了一些我个人在求解高精度最小二乘问题时候的一些感触: LM算法,全称为Levenberg-Marquard算法,它可用于解决非线 …

Levenberg-Marquardt迭代(LM算法)-改进Guass-Newton法

1.前言                                a.对于工程问题,一般描述为:从一些测量值(观测量)x 中估计参数 p?即x = f(p),     …

梯度下降法、牛顿法、高斯牛顿法、LM最优化算法

1.梯度下降法 2.牛顿法 3.高斯牛顿法 4.LM算法

Levenberg-Marquardt优化算法以及基于LM的BP-ANN

一.LM最优化算法     最优化是寻找使得目标函数有最大或最小值的的参数向量.根据求导数的方法,可分为2大类.(1)若f具有解析函数形式,知道x后求导数速度快.(2)使用数值差分来求导数.根据使用模 …

LM拟合算法

一.  Levenberg-Marquardt算法 (1)y=a*e.^(-b*x)形式拟合 clear all % 计算函数f的雅克比矩阵,是解析式 syms a b y x real; f=a*e …

Levenberg-Marquardt算法基础知识

Levenberg-Marquardt算法基础知识 (2013-01-07 16:56:17) 转载▼   什么是最优化?Levenberg-Marquardt算法是最优化算法中的一种.最优化是寻找使 …

相机标定:关于用Levenberg-Marquardt算法在相机标定中应用

LM算法在相机标定的应用共有三处. (1)单目标定或双目标定中,在内参固定的情况下,计算最佳外参.OpenCV中对应的函数为findExtrinsicCameraParams2. (2)单目标定中,在 …

点云匹配和ICP算法概述

Iterative Closest Point (ICP) [1][2][3] is an algorithm employed to minimize the difference between …

随机推荐

Hibernate中事务声明

Hibernate中JDBC事务声明,在Hibernate配置文件中加入如下代码,不做声明Hibernate默认就是JDBC事务. 一个JDBC 不能跨越多个数据库. Hibernate中JTA事务声 …

Redis基础知识之————空间换时间的查询案例

空间与时间 空间换时间是在数据库中经常出现的术语,简单说就是把查询需要的条件进行索引的存储,然后查询时为O(1)的时间复杂度来快速获取数据,从而达到了使用空间存储来换快速的时间响应!对于redis这个 …

Basic Printing Architecture

https://blogs.technet.microsoft.com/askperf/2007/06/19/basic-printing-architecture/ Printer sharing, …

Android 文字绘制&lpar;DrawText&rpar;技术总结

这里的绘制文字不是直接调用TextView.setText(String content)去展示文字内容.而是在View上面通过 canvas.drawText(text, x, y,textPain …

iOS学习——如何在mac上获取开发使用的模拟器的资源以及模拟器中每个应用的应用沙盒

如题,本文主要研究如何在mac上获取开发使用的模拟器的资源以及模拟器中每个应用的应用沙盒.做过安卓开发的小伙伴肯定很方便就能像打开资源管理器一样查看我们写到手机本地或应用中的各种资源,但是在iOS开发 …

洛谷P3835 【模板】可持久化平衡树

题目背景 本题为题目 普通平衡树 的可持久化加强版. 数据已经经过强化 感谢@Kelin 提供的一组hack数据 题目描述 您需要写一种数据结构(可参考题目标题),来维护一些数,其中需要提供以下操作( …

Stream初步应用

一.什么是stream Stream(流)是一个来自数据源的元素队列并支持聚合操作,数据来源可以从inputstream,数组,集合中获取:聚合操作可以类似SQL语句一样的操作, 比如filter, …

java&period;util&period;zip&period;ZipException&colon; duplicate entry&lpar;重复依赖多版本的类库&rpar;

同步SVN仓库中的代码,更新后,运行项目,出现如下错误: com.android.build.api.transform.TransformException: java.util.zip.ZipEx …

&lbrack;COGS 0065&rsqb;&lbrack;NOIP 2002&rsqb; 字串变换

65. [NOIP2002] 字串变换 ★★   输入文件:string.in   输出文件:string.out   简单对比时间限制:1 s   内存限制:128 MB [问题描述] 已知有两个字 …

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。

发布者:全栈程序员-用户IM,转载请注明出处:https://javaforall.cn/186944.html原文链接:https://javaforall.cn

【正版授权,激活自己账号】: Jetbrains全家桶Ide使用,1年售后保障,每天仅需1毛

【官方授权 正版激活】: 官方授权 正版激活 支持Jetbrains家族下所有IDE 使用个人JB账号...

(0)
blank

相关推荐

  • 《深入浅出Python机器学习》读书笔记 第二章 基于Python语言的环境配置

    《深入浅出Python机器学习》读书笔记 第二章 基于Python语言的环境配置《深入浅出Python机器学习》读书笔记,第二章基于Python语言的环境配置

    2022年10月10日
  • jdk卸载出错[通俗易懂]

    jdk卸载出错[通俗易懂]打开控制面板卸载jdk出错,弹出问题说软件安装包有问题解决方法:1、ctrl+alt+delete打开任务管理器,详细信息里找到“explorer.exe”,结束任务。2、然后左上角“文件”,选择“运行新任务”,然后在“打开”中输入“explorer.exe”,勾选“以系统管理权限创建此任务”,点确定,再卸载就好了。…

  • 黑盒测试 因果图_黑盒测试的六种方法

    黑盒测试 因果图_黑盒测试的六种方法在一个功能模块中往往含有许多的功能模块,如果单独去测试每一个模块则会显得事倍功半,并且逻辑也会比较混乱,容易遗漏一些数据。因果图法是一个比较有用的方法,其考虑到了输入数据之间以及输入与输出之间的各种关系。一、下面首先介绍因果图中的基本符号 1、恒等含义:若原因出现则结果也出现,原因不出现,结果也不出现。即:如a=1.则b=1; a=0,则b=0。2、非(~)含

  • RabbitMQ 七战 Kafka,差异立现!

    点击上方“全栈程序员社区”,星标公众号 重磅干货,第一时间送达 译者丨王欢,Golang后端工程师,DockOne社区译者 来源 | 分布式实验室(ID:dockeron…

  • Python 获取动漫番剧 -XXOO[通俗易懂]

    Python 获取动漫番剧 -XXOO[通俗易懂]前言没有什么好说的,就是想起来前些年失恋使劲刷番剧缓解自己糟糕的情绪。纪念下。一、直接上代码1.搜索入口#搜索动漫名称列表defget_video_list(name):#开启代理#proxy={‘http’:’http://127.0.0.1:8080′,’https’:’https://127.0.0.1:8080′}url=’http://www.7666.tv/search.php?searchword=’+nam…

  • pycharm2022.01.12激活码 linux_在线激活

    (pycharm2022.01.12激活码 linux)最近有小伙伴私信我,问我这边有没有免费的intellijIdea的激活码,然后我将全栈君台教程分享给他了。激活成功之后他一直表示感谢,哈哈~https://javaforall.cn/100143.htmlIntelliJ2021最新激活注册码,破解教程可免费永久激活,亲测有效,上面是详细链接哦~4KDD…

发表回复

您的电子邮箱地址不会被公开。

关注全栈程序员社区公众号