特征生成

特征生成

大家好,又见面了,我是全栈君。

特征准则

区分性:不同类别模式在特征空间可分

不变性:同一类别模式在特征空间的变化(变化、形变、噪声)
选取区分性高、且同意一定不变性的特征

特征生成的一些方法
1 时域、频域、视频联合
相关系数、FFT、DCT、Wavelet、Gabor
2 统计、结构、混合
直方图、属性-关系图
3 底层、中层、高层
颜色、梯度(Robert、Prewitt、Sobel、差分+平滑、HOG)、纹理(类Harr、LBP)、形状、语义
4 模型
ARMA、LPC


三个实例


A SIFT
1 建立高斯金字塔 做差生成DOG(LOG)的近似
2 求取极值点,并依据导数求取优化极值点
3 依据Hessian矩阵(能够自相关函数)去掉边缘和不稳定的点
4 进行梯度描写叙述

详细步骤參考《图像局部不变性特征与描写叙述》及 http://underthehood.blog.51cto.com/2531780/658350 
带有SIFT凝视的代码,请參考

B Bag of Words
1 聚类-构建词典
2 映射到词典,然后SVM等其它分类器进行训练分类就可以

详细点有
1 Feature extraction
2 Codebook generation
3 Coding(Hard or Soft)
4 Polling(Average or Max)
5 Classify


如今Computer Vision中的Bag of words来表示图像的特征描写叙述也是非常流行的。

大体思想是这种,如果有5类图像。每一类中有10幅图像。这样首先对每一幅图像划分成patch(能够是刚性切割也能够是像SIFT基于关键点检測的),这样。每个图像就由非常多个patch表示,每个patch用一个特征向量来表示,咱就如果用Sift表示的,一幅图像可能会有成百上千个patch,每个patch特征向量的维数128。

接下来就要进行构建Bag of words模型了,如果Dictionary词典的Size为100,即有100个词。那么咱们能够用K-means算法对全部的patch进行聚类,k=100,我们知道,等k-means收敛时。我们也得到了每个cluster最后的质心。那么这100个质心(维数128)就是词典里德100个词了,词典构建完成。

词典构建完了怎么用呢?是这种,先初始化一个100个bin的初始值为0的直方图h。每一幅图像不是有非常多patch么?我们就再次计算这些patch和和每个质心的距离,看看每个patch离哪一个质心近期,那么直方图h中相相应的bin就加1,然后计算完这幅图像全部的patches之后,就得到了一个bin=100的直方图。然后进行归一化。用这个100维德向量来表示这幅图像。

对全部图像计算完毕之后。就能够进行分类聚类训练预測之类的了。

C 图像显著性
1 多尺度对照
2 中心周围直方图
3 颜色空间分布

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。

发布者:全栈程序员-用户IM,转载请注明出处:https://javaforall.cn/116276.html原文链接:https://javaforall.cn

【正版授权,激活自己账号】: Jetbrains全家桶Ide使用,1年售后保障,每天仅需1毛

【官方授权 正版激活】: 官方授权 正版激活 支持Jetbrains家族下所有IDE 使用个人JB账号...

(0)


相关推荐

发表回复

您的电子邮箱地址不会被公开。

关注全栈程序员社区公众号