barriers / 阅读 / 详情

如何在MATLAB下利用灰度共生矩阵提取分析遥感影像的纹理特征

2023-08-23 09:36:39
共2条回复
max笔记

1.图像分块(纹理不可能存在于一个点里),用graycomatrix得到每块的共生矩阵

2.用graycoprops得到该共生矩阵的相应特征,为Contrast Correlation Energy Homogeneity

如:

g=graycoprops(graycomatrix(C{i,j},"offset",[0 D; -D D; -D 0; -D -D]));

pg=[g.Contrast g.Correlation g.Energy g.Homogeneity];

cloudcone

matlab本身有graycomatrix和graycoprops两个函数可用。

mathworks的matlab central里面还有其他更高阶提供更多特征值的函数,搜索一下就能找到。

相关推荐

灰度共生矩阵的概念

由于纹理是由灰度分布在空间位置上反复出现而形成的,因而在图像空间中相隔某距离的两象素之间会存在一定的灰度关系,即图像中灰度的空间相关特性。灰度共生矩阵就是一种通过研究灰度的空间相关特性来描述纹理的常用方法。
2023-08-15 11:44:031

灰度共生矩阵怎么导入神经网络

灰度共生矩阵应用到segnet网络操作方法。1、灰度共生矩阵是涉及像素距离和角度的矩阵函数,它通过计算图像中一定距离和一定方向的两点灰度之间的相关性,来反映图像在方向、间隔、变化幅度及快慢上的综合信息。2、灰度直方图是对图像上单个像素具有某个灰度进行统计的结果,而灰度共生矩阵是对图像上保持某距离的两像素分别具有某灰度的状况进行统计得到的。
2023-08-15 11:44:171

遥感图像的特征

遥感图像的特征,如下:1 、光谱特征光谱特征是影像对象主要的特征,主要用来描述影像对象中的像元在各波段上的统计特征,-般情况 下可根据对象的光谱特征进行地物识别。光谱特征有很多,常用的主要有亮度值、平均值、标准差。2 、形状特征形状特征是在提取对象边界点的基础上形成的,反映了对象的几何特征。形状特征是对光谱特征的补充,在光谱特征相近而形状有差别时,使用形状特征可以更好地实现分类。3 、理特征纹理特征是遥感影像的一种重要特征,是复杂视觉实体或子模式的组合,有亮度、色度、陡度、大小等特征,每一种地物所呈现的纹理都有自己的特点。纹理特征提取的方法有很多,其中基于灰度共生矩阵的纹理提取方法在遥感影像分类中应用较为广泛。灰度共生矩阵是建立在估计图像的二阶组合条件概率密度的基础上,通过计算图像中有一定距离和一定方向的两点灰度之间的相关性,用来反映图像在方向、间隔、变化幅度及快慢上的综合信息。在矩阵中分布在主对角线附近的元素表示灰度级别相近的像素对出现的概率,而远离主对角线的元素则表示灰度级别相差较大的像素对出现的概率。4、空间关系特征空间关系是指经过多尺度分割后的影像对象之间的相互位置或相对方向关系。加入空间关系特征可以更好地描述影像对象的特征,有利于提高分类结果的精度。5、对象间的相关特征对象间的相关特征主要用来描述对象之间的从属关系。一种是父对象与子对象的包含关系;另一种是子对象与父对象的继承关系。
2023-08-15 11:44:251

纹理特征提取方法:LBP, 灰度共生矩阵

搬运自本人 CSDN 博客: 《纹理特征提取方法:LBP, 灰度共生矩阵》 注:本文中大量行内 Latex 公式在中不支持,如果想要仔细参阅,请移步上面的 CSDN 博客链接。 在前面的博文 《图像纹理特征总体简述》 中,笔者总结了图像纹理特征及其分类。在这里笔者对其中两种算法介绍并总结。 参考网址: 《纹理特征提取》 《【纹理特征】LBP 》 《灰度共生矩阵(GLCM)理解》 《灰度共生矩阵的理解》 《图像的纹理特征之灰度共生矩阵 》 参考论文: 《基于灰度共生矩阵提取纹理特征图像的研究》——冯建辉 《灰度共生矩阵纹理特征提取的Matlab实现》——焦蓬蓬 LBP方法(Local binary patterns, 局部二值模式)是一种用来描述图像局部纹理特征的算子;它的作用是进行特征提取,提取图像的局部纹理特征。 LBP是一个计算机视觉中用于图像特征分类的一个方法,用于纹理特征提取。后来LBP方法与HOG特征分类器与其他机器学习算法联合使用。 LBP算法的核心思想,是以某个像素点为中心,与其邻域像素点共同计算。关于邻域像素点的选择方法,其实并不唯一: 这里选择环形邻域的方法进行说明: 窗口中心的像素点作为中心,该像素点的像素值作为阈值。然后将周围8个像素点的灰度值与该阈值进行比较,若周围某像素值大于中心像素值,则该像素点位置被标记为1;反之,该像素点标记为0。 如此这样,该窗口的8个点可以产生8位的无符号数,这样就得到了该窗口的LBP值,该值反应了该窗口的纹理信息。如下图所示: 图中,中心像素点的像素值作为阈值,其值v = 3;周围邻域8个像素值中,有3个比阈值小的像素点置0,5个比阈值大的像素点置1。 LBP算法的计算公式如下: $$ LBP_{P, R}(x_{c},y_{c}) = sum_{p=0}^{P-1}s(g_{p} - g_{c})2^p, s(x)=left{egin{matrix}1 : x geq 0 0 : x leq 0 end{matrix} ight. $$ LBP纹理特征向量,一般以图像分块LBP直方图表示。具体步骤如下: 得到了整幅图像的LBP纹理特征后,便可以利用SVM或者其他机器学习算法进行分类了。 这两天笔者将会对源码进行测试封装,以后会上传到我的GitHub网站上。 灰度共生矩阵法(GLCM, Gray-level co-occurrence matrix),就是通过计算灰度图像得到它的共生矩阵,然后透过计算该共生矩阵得到矩阵的部分特征值,来分别代表图像的某些纹理特征(纹理的定义仍是难点)。灰度共生矩阵能反映图像灰度关于<font color = red> 方向、相邻间隔、变化幅度等 </font>综合信息,它是分析图像的局部模式和它们排列规则的基础。 对于灰度共生矩阵的理解,需要明确几个概念:方向,偏移量和灰度共生矩阵的阶数。 计算纹理特征第一步,就是将多通道的图像(一般指RGB图像)转换为灰度图像,分别提取出多个通道的灰度图像。 纹理特征是一种结构特征,使用不同通道图像得到的纹理特征都是一样的,所以可以任意选择其一。 一般在一幅图像中的灰度级有256级,从0--255。但在计算灰度共生矩阵时我们并不需要256个灰度级,且计算量实在太大,所以一般分为8个灰度级或16个灰度级。 而且当分成8个灰度级时,如果直接将像素点的灰度值除以32取整,会引起影像清晰度降低,所以进行灰度级压缩时,首先我们会将图片进行直方图均衡化处理,增加灰度值的动态范围,这样就增加了影像的整体对比效果。 注:笔者后文中的例子中,为了简要说明,所以灰度等级简单设置为4。 计算特征值前,先选择计算过程中的一些参数: 下面分部且适当的使用一些例子说明计算过程: 为了达到简单说明计算纹理特征值的目的,笔者此处做简要的假设:灰度被分为4阶,灰度阶从0--3;窗口大小为6 × 6; 窗口A的灰度矩阵A如下: 窗口B的灰度矩阵B如下: 此处以左上角元素为坐标原点,原点记为(1, 1);以此为基础举例,第四行第二列的点记为(4, 2); 情景1:d = 1,求0°方向矩阵A的共生矩阵: 则按照0°方向(即水平方向 从左向右,从右向左两个方向 ),统计矩阵值(1, 2),则如下图所示: $$ P_{A}(d=1, heta =0^o)=egin{vmatrix} 0 & 8 & 0 & 7 8 & 0 & 8 & 0 0 & 8 & 0 & 7 7 & 0 & 7 & 0 end{vmatrix} $$ 情景2:d = 1,求45°方向矩阵A的共生矩阵: 按照情景1,同理可得此时的统计矩阵结果如下: $$ P_{A}(d=1, heta =45^o)=egin{vmatrix} 12 & 0 & 0 & 0 0 & 14 & 0 & 0 0 & 0 & 12 & 0 0 & 0 & 0 & 12 end{vmatrix} $$ 情景3:d = 1,求0°与45°方向矩阵B的共生矩阵: 与前面同理,可以得到矩阵B的统计及矩阵结果如下: $$ P_{B}(d=1, heta =0^o)=egin{vmatrix} 24 & 4 & 0 & 0 4 & 8 & 0 & 0 0 & 0 & 12 & 2 0 & 0 & 2 & 4 end{vmatrix} $$ $$ P_{B}(d=1, heta =45^o)=egin{vmatrix} 18 & 3 & 3 & 0 3 & 6 & 1 & 1 3 & 1 & 6 & 1 0 & 1 & 1 & 2 end{vmatrix} $$ 矩阵A, B的其余90°、135°矩阵与上面同理,所以笔者偷懒略去。 这样,我们就已经计算得到了单个窗口的灰度共生矩阵的各个方向的矩阵,下面就要用刚才算出的矩阵计算灰度共生矩阵特征值。 用P表示灰度共生矩阵的归一化频率矩阵,其中i, j表示按照某方向同时出现于两个像素的某两个级别的灰度值,所以P(i, j)表示满足这种情况的两个像素出现的概率。 以上述情景2中的矩阵为例: 原矩阵为: $$ P(d=1, heta =45^o)=egin{vmatrix} 12 & 0 & 0 & 0 0 & 14 & 0 & 0 0 & 0 & 12 & 0 0 & 0 & 0 & 12 end{vmatrix} $$ 归一化后,矩阵形式变为: $$ P(d=1, heta =45^o)=egin{vmatrix} 12/50 & 0 & 0 & 0 0 & 14/50 & 0 & 0 0 & 0 & 12/50 & 0 0 & 0 & 0 & 12/50 end{vmatrix} $$ 灰度共生矩阵理论的前辈Haralick等人用灰度共生矩阵提出了14中特征值,但由于灰度共生矩阵的计算量很大,所以为了简便,我们一般采用四个最常用的特征来提取图像的纹理特征:<font color=red> 能量、对比度、相关度、熵 </font>。 $ ASM = sum_{i} sum_{j}P(i, j)^2 $ 能量是灰度共生矩阵各元素的平方和,又被称角二阶距。它是图像纹理灰度变化均一的度量,反映了图像灰度分布均匀程度和纹理粗细程度。 $ CON = sum_{i} sum_{j} (i-j)^2 P(i,j) $ 对比度是灰度共生矩阵主对角线附近的惯性矩,它体现矩阵的值如何分布,反映了图像的清晰度和纹理沟纹的深浅。 $ CORRLN = [sum_{i} sum_{j}((ij)P(i,j)) - mu_{x} mu_{y}]/ sigma_{x} sigma_{y} $ 相关度体现了空间灰度共生矩阵元素在行或列方向上的相似程度,反映了图像局部灰度相关性。 $ ENT = - sum_{i} sum_{j} P(i,j) log P(i,j) $ 熵体现了图像纹理的随机性。若共生矩阵中所有值都相等,取得最大值;若共生矩阵中的值不均匀,则其值会变得很小。 求出该灰度共生矩阵各个方向的特征值后,再对这些特征值进行均值和方差的计算,这样处理就消除了方向分量对纹理特征的影响。 一个滑动窗口计算结束后,该窗口就可以移动一个像素点,形成另一个小窗口图像,重复进行上一步的计算,生成新窗口图像的共生矩阵和纹理特征值; 以此类推,滑动窗口遍历完所有的图像像素点后,整个图像就形成了一个由纹理特征值构成的一个纹理特征值矩阵。 之后,就可以将这个纹理特征值矩阵转换成纹理特征图像。 笔者已经对源码进行测试了封装,并上传到了笔者的GitHub网站上。 GitHub: https://github.com/upcAutoLang/GLCM-OpenCV
2023-08-15 11:44:541

图像 灰度共生矩阵怎么在matlab中实现,要具体源程序

%**************************************************************************% 图像检索——纹理特征%基于共生矩阵纹理特征提取,d=1,θ=0°,45°,90°,135°共四个矩阵%所用图像灰度级均为256%参考《基于颜色空间和纹理特征的图像检索》%function : T=Texture(Image) %Image : 输入图像数据%T : 返回八维纹理特征行向量%**************************************************************************% function T = Texture(Image)Gray = imread("d: esult5.bmp");[M,N,O] = size(Gray);M = 128; N = 128;%--------------------------------------------------------------------------%1.将各颜色分量转化为灰度%--------------------------------------------------------------------------% Gray = double(0.3*Image(:,:,1)+0.59*Image(:,:,2)+0.11*Image(:,:,3));%--------------------------------------------------------------------------%2.为了减少计算量,对原始图像灰度级压缩,将Gray量化成16级%--------------------------------------------------------------------------for i = 1:M for j = 1:N for n = 1:256/16 if (n-1)*16<=Gray(i,j)&Gray(i,j)<=(n-1)*16+15 Gray(i,j) = n-1; end end endend%--------------------------------------------------------------------------%3.计算四个共生矩阵P,取距离为1,角度分别为0,45,90,135%--------------------------------------------------------------------------P = zeros(16,16,4);for m = 1:16 for n = 1:16 for i = 1:M for j = 1:N if j<N&Gray(i,j)==m-1&Gray(i,j+1)==n-1 P(m,n,1) = P(m,n,1)+1; P(n,m,1) = P(m,n,1); end if i>1&j<N&Gray(i,j)==m-1&Gray(i-1,j+1)==n-1 P(m,n,2) = P(m,n,2)+1; P(n,m,2) = P(m,n,2); end if i<M&Gray(i,j)==m-1&Gray(i+1,j)==n-1 P(m,n,3) = P(m,n,3)+1; P(n,m,3) = P(m,n,3); end if i<M&j<N&Gray(i,j)==m-1&Gray(i+1,j+1)==n-1 P(m,n,4) = P(m,n,4)+1; P(n,m,4) = P(m,n,4); end end end if m==n P(m,n,:) = P(m,n,:)*2; end endend%%---------------------------------------------------------% 对共生矩阵归一化%%---------------------------------------------------------for n = 1:4 P(:,:,n) = P(:,:,n)/sum(sum(P(:,:,n)));end%--------------------------------------------------------------------------%4.对共生矩阵计算能量、熵、惯性矩、相关4个纹理参数%--------------------------------------------------------------------------H = zeros(1,4);I = H;Ux = H; Uy = H;deltaX= H; deltaY = H;C =H;for n = 1:4 E(n) = sum(sum(P(:,:,n).^2)); %%能量 for i = 1:16 for j = 1:16 if P(i,j,n)~=0 H(n) = -P(i,j,n)*log(P(i,j,n))+H(n); %%熵 end I(n) = (i-j)^2*P(i,j,n)+I(n); %%惯性矩 Ux(n) = i*P(i,j,n)+Ux(n); %相关性中μx Uy(n) = j*P(i,j,n)+Uy(n); %相关性中μy end endendfor n = 1:4 for i = 1:16 for j = 1:16 deltaX(n) = (i-Ux(n))^2*P(i,j,n)+deltaX(n); %相关性中σx deltaY(n) = (j-Uy(n))^2*P(i,j,n)+deltaY(n); %相关性中σy C(n) = i*j*P(i,j,n)+C(n); end end C(n) = (C(n)-Ux(n)*Uy(n))/deltaX(n)/deltaY(n); %相关性 end%--------------------------------------------------------------------------%求能量、熵、惯性矩、相关的均值和标准差作为最终8维纹理特征%--------------------------------------------------------------------------a1 = mean(E) b1 = sqrt(cov(E))a2 = mean(H) b2 = sqrt(cov(H))a3 = mean(I) b3 = sqrt(cov(I))a4 = mean(C)b4 = sqrt(cov(C))sprintf("0,45,90,135方向上的能量依次为: %f, %f, %f, %f",E(1),E(2),E(3),E(4)) % 输出数据;sprintf("0,45,90,135方向上的熵依次为: %f, %f, %f, %f",H(1),H(2),H(3),H(4)) % 输出数据;sprintf("0,45,90,135方向上的惯性矩依次为: %f, %f, %f, %f",I(1),I(2),I(3),I(4)) % 输出数据;sprintf("0,45,90,135方向上的相关性依次为: %f, %f, %f, %f",C(1),C(2),C(3),C(4)) % 输出数据;这是我最近用过的求灰度共生矩阵及其四个参数的程序,你可以参考一下。
2023-08-15 11:45:043

这个灰度共生矩阵怎么求啊,什么都没告诉

位置算子是左边或右边的像素就是计算0度的共生矩阵,灰度矩阵第i行j列表示图像上两个方向为0度,灰度级为i和j的像素点对出现的次数。
2023-08-15 11:45:154

基于灰度共生矩阵的纹理图像分割

对于每个像素点,把你得到的这些特征串成一个向量,然后把这些向量作为FCM的输入,对每个像素进行分类。如果定义两个类,一个是分割对象目标,另一个是背景,那么分类的结果就是图像分割的结果了。
2023-08-15 11:45:291

灰度共生矩阵c++实现

opencv中已经实现了灰度共生矩阵的计算,可以直接调用了
2023-08-15 11:45:382

用java实现基于纹理的图像检索(灰度共生矩阵)

%**************************************************************************% 图像检索——纹理特征%基于共生矩阵纹理特征提取,d=1,θ=0°,45°,90°,135°共四个矩阵%所用图像灰度级均为256%参考《基于颜色空间和纹理特征的图像检索》%function : T=Texture(Image) %Image : 输入图像数据%T : 返回八维纹理特征行向量%**************************************************************************% function T = Texture(Image)Gray = imread("d: esult5.bmp");[M,N,O] = size(Gray);M = 128; N = 128;%--------------------------------------------------------------------------%1.将各颜色分量转化为灰度%--------------------------------------------------------------------------% Gray = double(0.3*Image(:,:,1)+0.59*Image(:,:,2)+0.11*Image(:,:,3));%--------------------------------------------------------------------------%2.为了减少计算量,对原始图像灰度级压缩,将Gray量化成16级%--------------------------------------------------------------------------for i = 1:M for j = 1:N for n = 1:256/16 if (n-1)*16<=Gray(i,j)&Gray(i,j)<=(n-1)*16+15 Gray(i,j) = n-1; end end endend%--------------------------------------------------------------------------%3.计算四个共生矩阵P,取距离为1,角度分别为0,45,90,135%--------------------------------------------------------------------------P = zeros(16,16,4);for m = 1:16 for n = 1:16 for i = 1:M for j = 1:N if j<N&Gray(i,j)==m-1&Gray(i,j+1)==n-1 P(m,n,1) = P(m,n,1)+1; P(n,m,1) = P(m,n,1); end if i>1&j<N&Gray(i,j)==m-1&Gray(i-1,j+1)==n-1 P(m,n,2) = P(m,n,2)+1; P(n,m,2) = P(m,n,2); end if i<M&Gray(i,j)==m-1&Gray(i+1,j)==n-1 P(m,n,3) = P(m,n,3)+1; P(n,m,3) = P(m,n,3); end if i<M&j<N&Gray(i,j)==m-1&Gray(i+1,j+1)==n-1 P(m,n,4) = P(m,n,4)+1; P(n,m,4) = P(m,n,4); end end end if m==n P(m,n,:) = P(m,n,:)*2; end endend%%---------------------------------------------------------% 对共生矩阵归一化%%---------------------------------------------------------for n = 1:4 P(:,:,n) = P(:,:,n)/sum(sum(P(:,:,n)));end%--------------------------------------------------------------------------%4.对共生矩阵计算能量、熵、惯性矩、相关4个纹理参数%--------------------------------------------------------------------------H = zeros(1,4);I = H;Ux = H; Uy = H;deltaX= H; deltaY = H;C =H;for n = 1:4 E(n) = sum(sum(P(:,:,n).^2)); %%能量 for i = 1:16 for j = 1:16 if P(i,j,n)~=0 H(n) = -P(i,j,n)*log(P(i,j,n))+H(n); %%熵 end I(n) = (i-j)^2*P(i,j,n)+I(n); %%惯性矩 Ux(n) = i*P(i,j,n)+Ux(n); %相关性中μx Uy(n) = j*P(i,j,n)+Uy(n); %相关性中μy end endendfor n = 1:4 for i = 1:16 for j = 1:16 deltaX(n) = (i-Ux(n))^2*P(i,j,n)+deltaX(n); %相关性中σx deltaY(n) = (j-Uy(n))^2*P(i,j,n)+deltaY(n); %相关性中σy C(n) = i*j*P(i,j,n)+C(n); end end C(n) = (C(n)-Ux(n)*Uy(n))/deltaX(n)/deltaY(n); %相关性 end%--------------------------------------------------------------------------%求能量、熵、惯性矩、相关的均值和标准差作为最终8维纹理特征%--------------------------------------------------------------------------a1 = mean(E) b1 = sqrt(cov(E))a2 = mean(H) b2 = sqrt(cov(H))a3 = mean(I) b3 = sqrt(cov(I))a4 = mean(C)b4 = sqrt(cov(C))sprintf("0,45,90,135方向上的能量依次为: %f, %f, %f, %f",E(1),E(2),E(3),E(4)) % 输出数据;sprintf("0,45,90,135方向上的熵依次为: %f, %f, %f, %f",H(1),H(2),H(3),H(4)) % 输出数据;sprintf("0,45,90,135方向上的惯性矩依次为: %f, %f, %f, %f",I(1),I(2),I(3),I(4)) % 输出数据;sprintf("0,45,90,135方向上的相关性依次为: %f, %f, %f, %f",C(1),C(2),C(3),C(4)) % 输出数据;这是我最近用过的求灰度共生矩阵及其四个参数的程序,你可以参考一下。
2023-08-15 11:45:461

为何要对灰度共生矩阵归一化

就我理解哈:因为方便对灰度共生矩阵的一些特性进行观察所以才进行归一化的:有ASM、纹理惯性、纹理相关性等特性,这些特性可以用于反映纹理的特性。
2023-08-15 11:45:531

用matlab编写图像的灰度共生矩阵的程序

%**************************************************************************% 图像检索——纹理特征%基于共生矩阵纹理特征提取,d=1,θ=0°,45°,90°,135°共四个矩阵%所用图像灰度级均为256%参考《基于颜色空间和纹理特征的图像检索》%function : T=Texture(Image)%Image : 输入图像数据%T : 返回八维纹理特征行向量%**************************************************************************function T = Texture(path)Image = imread(path);% [M,N,O] = size(Image);M = 256;N = 256;if isrgb(Image)%判断是否是RGBGray=rgb2gray(Image);end%--------------------------------------------------------------------------%1.将各颜色分量转化为灰度%--------------------------------------------------------------------------%Gray = double(0.3*Image(:,:,1)+0.59*Image(:,:,2)+0.11*Image(:,:,3))%--------------------------------------------------------------------------%2.为了减少计算量,对原始图像灰度级压缩,将Gray量化成16级%--------------------------------------------------------------------------for i = 1:Mfor j = 1:Nfor n = 1:256/16if (n-1)*16<=Gray(i,j)&Gray(i,j)<=(n-1)*16+15Gray(i,j) = n-1;endendendend%--------------------------------------------------------------------------%3.计算四个共生矩阵P,取距离为1,角度分别为0,45,90,135%--------------------------------------------------------------------------P = zeros(16,16,4);for m = 1:16for n = 1:16for i = 1:Mfor j = 1:Nif jP(m,n,1) = P(m,n,1)+1;P(n,m,1) = P(m,n,1);endif i>1&jP(m,n,2) = P(m,n,2)+1;P(n,m,2) = P(m,n,2);endif iP(m,n,3) = P(m,n,3)+1;P(n,m,3) = P(m,n,3);endif iP(m,n,4) = P(m,n,4)+1;P(n,m,4) = P(m,n,4);endendendif m==nP(m,n,:) = P(m,n,:)*2;endendend%%---------------------------------------------------------% 对共生矩阵归一化%%---------------------------------------------------------for n = 1:4P(:,:,n) = P(:,:,n)/sum(sum(P(:,:,n)));end%--------------------------------------------------------------------------%4.对共生矩阵计算能量、熵、惯性矩、相关4个纹理参数%--------------------------------------------------------------------------H = zeros(1,4);I = H;Ux = H; Uy = H;deltaX= H; deltaY = H;C =H;for n = 1:4E(n) = sum(sum(P(:,:,n).^2)); %%能量for i = 1:16for j = 1:16if P(i,j,n)~=0H(n) = -P(i,j,n)*log(P(i,j,n))+H(n); %%熵endI(n) = (i-j)^2*P(i,j,n)+I(n); %%惯性矩Ux(n) = i*P(i,j,n)+Ux(n); %相关性中μxUy(n) = j*P(i,j,n)+Uy(n); %相关性中μyendendendfor n = 1:4for i = 1:16for j = 1:16deltaX(n) = (i-Ux(n))^2*P(i,j,n)+deltaX(n); %相关性中σxdeltaY(n) = (j-Uy(n))^2*P(i,j,n)+deltaY(n); %相关性中σyC(n) = i*j*P(i,j,n)+C(n);endendC(n) = (C(n)-Ux(n)*Uy(n))/deltaX(n)/deltaY(n); %相关性end%--------------------------------------------------------------------------%求能量、熵、惯性矩、相关的均值和标准差作为最终8维纹理特征%--------------------------------------------------------------------------T(1) = mean(E); T(2) = sqrt(cov(E));T(3) = mean(H); T(4) = sqrt(cov(H));T(5) = mean(I); T(6) = sqrt(cov(I));T(7) = mean(C); T(8) = sqrt(cov(C));
2023-08-15 11:46:241

matlab里用灰度共生矩阵求纹理特征的问题!!

qq短你了
2023-08-15 11:46:333

ENVI提取灰度共生矩阵纹理特征为什么能成图

恩...会不会是matlab里面你没有设置滑动窗口大小,出来的灰度共生矩阵应该就是一个大小为1-8之间的矩阵(默认值为8)。
2023-08-15 11:46:401

使用envi根据灰度共生矩阵提取纹理信息的操作步骤是什么

这个操作很简单的,找本工具书,里面有的,菜单中选择灰度共生矩阵之后就会要求选择你想提取的计算纹理的各种值,像熵、标准差之类的
2023-08-15 11:46:502

python中有没有求灰度共生矩阵的函数

matlab提供了现成的函数graycomatrix生成共生矩阵graycoprops计算其特征值具体用法:glcm = graycomatrix(I)通过计算具有灰度级i和灰度级j的像素对在水平方向相邻出现的频繁程度。glcm中的每个元素说明了水平方向相邻像素对出现的次数。
2023-08-15 11:46:591

matlab中用灰度共生矩阵提取纹理特征,出现相关性为负值可能吗?

没见你的程序代码,不知用的啥命令,但是,若用corrcoef命令,句式[r,p]=corroef(a)时,r中的数值可能会出现负值。如:A = randn(50,3);A(:,4) = sum(A,2);[R,P] = corrcoef(A)结果是:R =1.0000 0.1135 0.0879 0.73140.1135 1.0000 -0.1451 0.50820.0879 -0.1451 1.0000 0.51990.7314 0.5082 0.5199 1.0000P =1.0000 0.4325 0.5438 0.00000.4325 1.0000 0.3146 0.00020.5438 0.3146 1.0000 0.00010.0000 0.0002 0.0001 1.0000
2023-08-15 11:47:091

灰度梯度共生矩阵怎么选取窗口大小

针对基于灰度―梯度共生矩阵模型的最大熵阈值分割算法抗噪声差的缺点,引入了均值―中值―梯度共生矩阵模型,并提出了基于该模型的最大熵阈值分割算法。为了有效地节省计算时间与存储空间,进而导出了该方法的快速递推公式。实验结果表明,该算法优于灰度―梯度模型分割方法,并能抑制高斯噪声、椒盐噪声以及其混合噪声对分割结果的影响,提高了分割的鲁棒性。
2023-08-15 11:47:171

一幅高光谱图像的基于灰度共生矩阵的纹理特征怎么计算

常见的统计量有:能量、对比度、熵、均匀性、均值、方差、非相似度、相关性。它们从不同的角度反映了影像的灰度分布、信息量及纹理粗细度。
2023-08-15 11:47:251

能否对每个像素点求灰度共生矩阵的特征值?

不能,灰度共生矩阵是像素对的联合概率
2023-08-15 11:47:331

图像识别过程中特征定义有哪些方式

图像识别过程中特征定义有四种方式:1、统计方法。统计方法的典型代表是一种称为灰度共生矩阵GLCM的纹理特征分析方法Gotlieb和Kreyszig等人在研究共生矩阵中各种统计特征基础上,通过实验,得出灰度共生矩阵的四个关键特征:能量、惯量、熵和相关性。统计方法中另一种典型方法,则是从图像的自相关函数(即图像的能量谱函数)提取纹理特征,即通过对图像的能量谱函数的计算,提取纹理的粗细度及方向性等特征参数。2、几何方法。所谓几何法,是建立在纹理基元(基本的纹理元素)理论基础上的一种纹理特征分析方法。纹理基元理论认为,复杂的纹理可以由若干简单的纹理基元以一定的有规律的形式重复排列构成。在几何法中,比较有影响的算法有两种:Voronio棋盘格特征法和结构法。3、模型法。模型法以图像的构造模型为基础,采用模型的参数作为纹理特征。典型的方法是随机场CRF模型法,如马尔可夫(Markov)随机场(MRF)模型法和Gibbs随机场模型法。4、信号处理法。纹理特征的提取与匹配主要有:灰度共生矩阵、Tamura纹理特征、自回归纹理模型、小波变换等。灰度共生矩阵特征提取与匹配主要依赖于能量、惯量、熵和相关性四个参数。Tamura纹理特征基于人类对纹理的视觉感知心理学研究,提出6种属性,即:粗糙度、对比度、方向度、线像度、规整度和粗略度。自回归纹理模型(simultaneous auto-regressive, SAR)是马尔可夫随机场(MRF)模型的一种应用实例。
2023-08-15 11:47:531

图像纹理特征总体简述

搬运自本人 CSDN 博客: 《图像纹理特征总体简述》 纹理是一种反映图像中同质现象的视觉特征,它体现了物体表面的具有缓慢变化或者周期性变化的表面结构组织排列属性。纹理具有三大标志: 不同于灰度、颜色等图像特征,纹理通过 像素及其周围空间邻域的灰度分布 来表现,即局部纹理信息。另外,局部纹理信息不同程度上的重复性,就是全局纹理信息。 纹理特征体现全局特征的性质的同时,它也描述了图像或图像区域所对应景物的表面性质。但由于纹理只是一种物体表面的特性,并不能完全反映出物体的本质属性,所以仅仅利用纹理特征是无法获得高层次图像内容的。与颜色特征不同,纹理特征不是基于像素点的特征,它需要在包含多个像素点的区域中进行统计计算。在模式匹配中,这种区域性的特征具有较大的优越性,不会由于局部的偏差而无法匹配成功。 在检索具有粗细、疏密等方面较大差别的纹理图像时,利用纹理特征是一种有效的方法。但当纹理之间的粗细、疏密等易于分辨的信息之间相差不大的时候,通常的纹理特征很难准确地反映出人的视觉感觉不同的纹理之间的差别。例如,水中的倒影,光滑的金属面互相反射造成的影响等都会导致纹理的变化。由于这些不是物体本身的特性,因而将纹理信息应用于检索时,有时这些虚假的纹理会对检索造成“误导”。 参考地址: 《图像特征提取(纹理特征)》 《纹理特征简介》 纹理特征分类图如下所示: 纹理特征的提取,一般都是通过设定一定大小的窗口,然后从中取得纹理特征。然而窗口的选择,存在着矛盾的要求: 这种情况下,会出现困难是:窗口太小,则会在同一种纹理内部出现误分割;而分析窗太大,则会在纹理边界区域出现许多误分割。 后文介绍纹理特征描述方法时,会从下面四个角度,分别对各方法进行比较: 按照纹理特征描述方法,可以分为以下几类: 统计方法是基于像素及其邻域的灰度属性,来研究纹理区域的统计特性。统计特性包括像素及其邻域内灰度的一阶、二阶或高阶统计特性等。 统计方法的典型代表,是一种被称为<font color = red> 灰度共生矩阵(GLCM) </font>的纹理分析方法。它是建立在估计图像的二阶组合条件概率密度基础上的一种方法。这种方法通过实验,研究了共生矩阵中各种统计特性,最后得出灰度共生矩阵中的四个关键特征:<font color = red> 能量、惯量、熵和相关性 </font>。 尽管GLCM提取的纹理特征具有较好的鉴别能力,但是这个方法在计算上是昂贵的,尤其是对于像素级的纹理分类更具有局限性。并且,GLCM的计算较为耗时,好在不断有研究人员对其提出改进。 其他的统计方法,还包括 图像的自相关函数 , 半方差图 等。 几何法是建立在纹理基元理论基础上的一种纹理特征分析方法,其中的纹理基元即为基本的纹理元素。纹理基元理论认为,复杂的纹理可以由若干简单的纹理基元按照一定规律的形式重复排列构成。 在几何法中,比较有影响的算法有<font color = red> Voronio棋盘格特征法 </font>。 但几何法应用和发展极其受限,且后继研究很少。 模型法中存在假设:纹理是以某种参数控制的分布模型方式为基础而形成的。 由于模型法从纹理图像的实现来估计计算模型参数,同时以参数为特征,或采用某种分类策略进行图像分割,所以 模型参数的估计 是模型法的核心问题。 模型型纹理特征提取方法以随机场模型方法和分形模型方法为主。 随机场模型法的典型方法,如马尔可夫随机场(MRF)模型法、Gibbs随机场模型法、分形模型和自回归模型。 信号处理的方法是建立在时域、频域分析,以及多尺度分析的基础上。这种方法对纹理图像某个区域内实行某种变换后,再提取出能够保持相对平稳的特征值,并以该特征值作为特征,表示区域内的一致性以及区域之间的相异性。 信号处理类的纹理特征主要是利用某种线性变换、滤波器或者滤波器组将纹理转换到变换域,然后应用某种能量准则提取纹理特征。因此,基于信号处理的方法也称之为滤波方法。大多数信号处理方法的提出,都基于这样一个假设:频域的能量分布能够鉴别纹理。 信号处理法的经典算法有: 灰度共生矩阵 、 Tamura纹理特征 、 自回归纹理模型 、 小波变换 等。 结构分析法认为,纹理是由纹理基元的类型、数目、以及基元之间的“重复性”的空间组织结构与排列规则来描述的,而且纹理基元几乎具有规范的关系。假设纹理图像的基元可以被分离出来,以基元特征和排列规则进行纹理分割,显然结构分析法要解决的问题,就是确定与抽取基本的纹理单元,以及研究存在于纹理基元之间的“重复性”结构关系。 由于结构分析法强调纹理的规律性,所以比较适用于分析人造纹理,然而真实世界大量自然纹理通常是不规则的。此外,解耦股的变化是频繁的,所以结构分析法的应用受到很大程度的限制。 结构分析法的典型算法: 句法纹理描述算法 、 数学形态学方法 。 综上所述,在提取纹理特征的有效性方面,统计方法、模型法和信号处理法相较于几何法与结构分析法,可以说相差无几,都获得了认可。
2023-08-15 11:48:011

高手帮忙翻译一个句子,在线等,快啊,谢谢!

Gray-level co-occurrence matrix is used to have some statistics on the location of the space of a relationship between the pixel gray-scale of the frequency.
2023-08-15 11:48:081

震害损毁建筑物信息的提取

面向对象的震害损毁建筑物信息提取流程 “自上而下”分为三层,分别针对不同目标对象特征,采取不同的分割尺度 ( 从大到小) ,从地类光谱、形状、纹理等属性特征出发,建立各自的模糊判定规则,具有很强针对性; 同时面向对象的多层次分类结构体系能够把上一层次中的未分类的对象传递到下一层中作为输入层,形成父、子对象关系,继续信息提取和分类操作,大大避免传统像元分类方法当中错分和漏分现象的发生,并且层次结构分明,在一定程度上提高了分类的精度。具体思路如图 5 -27 所示。图 5 -27 面向对象的震害损毁建筑物信息提取方法( 一) 数据源的选择Definiens 能够根据实际的需要,整合不同的数据 ( 栅格、矢量) 作为原始数据源参与分割。本节针对紫坪铺镇震害损毁建筑物提取的信息,将震后标准差异植被指数 ( NDVI)影像和震后 QuickBird 影像的融合影像 ( 4 个波段) 作为输入层导入软件当中。( 二) 多尺度分割 ( Multi-resolution Segmentation)采取 “自上而下,从大到小”的方式,首先分离出植被和水体信息,将 NDVI 影像的权重设为 3,其他影像权重设为 1,形状因子设为 0. 3,紧致度因子设为 0. 6,分割尺度经过多次试验后确定为 100,对影像进行第一次分割,结果如图 5 -28 所示。图 5 -28 不同尺度的影像分割结果 ( 从左到右分割尺度分别为 48、80、100)( 三) 水体和植被信息的分割首先,分离出影像中的水体和植被信息 ( 不属于震害建筑物损毁范围) ,经过分析归一化植被指数 ( Normalized Difference Vegetation Index) 特性,确定水体和植被信息提取阈值 ( NDVI 均值) 分别为 0. 06 和 0. 5,从而建立植被和水体信息的提取规则: 多边形对象 NDVI 均值 ( MEAN) 小于或等于 0. 06 为水体,大于 0. 06 的为非水体,处于两者之间的对象则利用成员函数计算其隶属度进行分类 ( 图 5 - 29) ; 对于植被,则采用 “布尔大于”的隶属度函数,规定 NDVI 均值大于 0. 5 的对象判定为植被信息,小于或等于0. 5 的为非植被信息。然后把两次分类的结果合并取交集 ( 逻辑与) ,最后把对象分为三类,结果如图 5 -30 所示。图 5 -29 水体信息分类的模糊隶属度函数图 5 -30 水体和植被信息提取结果( 四) 临时简易房信息的提取将第一层中的未分类别 ( 城市区域)作为输入层,进行第二次分割,提取其中的临时简易房信息。临时简易房特征是具有固定的形状,为正规长方形,容易分辨;屋顶呈蓝绿色,又称 “绿篷房”,和植被有些相似; 结构和纹理结果均匀,表现为同质性。根据以上三个特征,选取 80 为第二次分割的尺度,建立如下的判定规则:1 ) 对 象 的 长 宽 比, 计算 公式 为 式( 5 - 7) ,其中 eig1( S) 、eig2( S) 分别为协方差矩阵的特征值,S 为对象矢量化后各点的坐标组成的协方差矩阵,w 为对象宽度,l 为对象长度,γ 为对象的长宽比,退化废弃地遥感信息提取研究,A 为对象的面积。经过分析,设置判定规则 γ≥1. 28。退化废弃地遥感信息提取研究2) 对象的亮度指该对象包含的所有像元点亮度的平均值。设定判定规则 Brightness >290。3) 灰度共生矩阵同质性。如果对象纹理同质性越强,这个值就越高,其计算公式如下:退化废弃地遥感信息提取研究式中:i为行数;j为列数;Pi,j为i行j列的标准化值;N为总的行数或列数,范围为[0,90]。经过分析,设定临时简易房的GLCMHomogeneity>0.18。将以上三个模糊判定规则进行逻辑交集运算,得到临时简易房信息提取结果,如图5 - 31 所示。图 5 -31 分割尺度为 80 的临时简易房信息提取结果( 五) 震害损毁建筑物信息的提取损毁的建筑物特征一般有: ① 形状不规则,由于建筑物受到破坏甚至倒塌,其原来规则的形状特征已经改变; ② 与邻近的地物相比,失去协调性,对于完全倒塌的建筑来说,白色的瓦砾显得特别显眼,与周围的地物形成很强烈的对比; ③ 建筑物的损坏或者倒塌使其原有的均匀纹理特征发生变化。根据以上震害损毁建筑物的特征,对上一层中未分类别进行第三次多尺度分割,对于损毁建筑物信息选择 48 作为分割尺度,建立如下模糊判定规则:1) 形状指数。形状指数描述的是一个对象边界的光滑程度,当一个对象的边界越规则,其形状指数值就越小,当边界组成正方形时,形状指数为 1; 反之,边界越不规则,形状指数值就越大。所以形状指数能够很好地体现出震害损毁建筑物的形状破坏情况。经过对损毁建筑物的分析,设置判定规则为 Shape Index >2. 8。2) 灰度差异向量 ( GLDV) 。灰度差异向量是灰度共生矩阵 ( GLCM) 对角线上元素的和,它显示了对象与相邻区域像元绝对差异发生率。灰度差异向量对比度 ( GLDVContrast) 反映了对象与周边对象的差异量,值越大,差异就越大。在面向对象的遥感影像分类方法当中,灰度差异向量对比度比灰度共生矩阵对比度更加适合于在有层次关系的对象域中使用,能够更加突出建筑物的形状特征,提高对比度的差异,所以本节选择灰度差异向量对比度建立判定规则,设置判定规则为 GLDV Contrast >780。3) 灰度共生矩阵熵 ( GLCM Entropy) 。灰度共生矩阵熵描述的是对象的纹理均匀程度。当对象的纹理越均匀时,灰度共生矩阵熵值就越大; 反之,当纹理紧密或者稀疏时,灰度共生矩阵熵值就越小。经过反复比较,多次分析,最后确定 GLCM Entropy≤4. 1。综合以上三个判定规则,进行 “逻辑与”运算,得到震害损毁建筑物提取结果,如图5 - 32 所示。( 六) 两种方法的比较从方法原理、目视效果和精度评价三个方面对基于像元技术和面向对象技术的震害损毁建筑物的信息提取结果进行比较。1. 方法原理传统的基于像元的信息提取方法是一种基于光谱特征的统计方法,根据像元点 ( 像元) 光谱统计的特征值来对影像进行分类或信息提取。像元是最基本的操作单位,所利用的特征信息一般只有光谱信息 ( 方差、协方差、均值、亮度、熵等) ,既没有考虑相邻像元之间的关联,也没能利用到高分辨率遥感影像中丰富的形状、纹理、空间拓扑关系等信息。随着遥感影像分辨率的不断提高,单个像元所包含的信息量越来越少,对单个像元进行孤立的分析与分类没有多大的实际意义,这就给传统的基于像元的信息提取和分类方法带来了很大的难题和挑战,在一定程度上影响了这种方法的应用。面向对象的信息提取方法是随着高分辨率遥感影像技术不断发展而提出的一种新方法,与基于像元的信息提取方法有着本质的区别,其不是对单个孤立像元进行分类,而是对具有同质性像元所组成的多边形对象进行分析和操作。对象除了包含基本的光谱信息外,还包括形状、纹理、位置、上下文关系等有用的特征信息。该方法能够利用比较全面的对象特征,弥补了基于像元的信息提取和分类方法中特征信息单一的缺点,是对传统遥感信息提取和分类方法的一次技术革新。2. 目视效果从基于像元的信息提取结果来看,其中分布有许多细碎的小斑块,即所谓的 “胡椒盐效应”,严重影响视觉效果,并且在一定程度上影响结果的实际应用,如果将提取结果矢量化后,不通过人工修改,很难达到入库要求。产生 “胡椒盐效应”的主要原因是高分辨率遥感影像局部异质性大,未充分考虑像元之间的上下文关系,这是传统基于像元分类方法的局限性 ( 曹宝等,2006) 。图 5 -32 震害损毁建筑物信息提取结果 ( 分割尺度 48)从面向对象的提取结果来看,它的抗噪声能力比较强,能有效避免 “胡椒盐效应”,并且含有丰富的语义信息 ( 游丽萍,2007) ,分类后的影像也更易于理解,其结果能够直接矢量化入库,方便遥感数据与 GIS 数据的相互结合。从目视效果来看,面向对象的提取结果更适合人类视觉的要求。3. 精度评价由于条件限制,本研究并没有获得研究区紫坪铺镇地震损毁建筑物的相关参考图件,因此,首先通过人工目视解译方法,采用手工描绘的手段,在震后 0. 6m QuickBird DOM影像中勾绘 ( 分类) 一些典型的损毁建筑物作为精度评价的参考标准,总共分类出 3782个损毁建筑物像元点。然后以这些像元点作为参考标准,生成随机样本,采用误差矩阵法对震害损毁建筑物信息提取的结果进行精度评价,其主要评价指标包括生产者精度、用户精度、总体精度和 Kappa 系数。经过统计分析得到,手工描绘的参考损毁建筑物总像元数为 3782 个; 面向对象方法中提取到的损毁建筑物总像元数为 3845 个,其中正确分类个数为 3563 个; 基于像元方法提取到的损毁建筑物总像元数为 3883 个,其中正确分类个数为 3132 个。两种方法的精度评价结果如表 5 -13 所示。表 5 -13 两种方法精度评价结果精度评价结果显示,面向对象的信息提取方法的总体精度为 90. 38%,Kappa 系数为0. 8684,而基于像元的信息提取方法的总体精度为 76. 84% ,Kappa 系数为 0. 7269。由此可见,面向对象的信息提取方法对震害损毁建筑物的提取精度明显高于传统基于像元的信息提取方法,根本的原因在于面向对象的信息提取方法通过对高分辨率遥感影像的分割,将相邻的具有同质性光谱特征的像元合并到一起组成多边形对象,然后充分利用对象的光谱、形状、纹理、位置、上下文关系等各方面的属性特性综合分析,建立判断规则,有效地避免了 “同物异谱,同谱异物”现象以及 “胡椒盐效应”,明显提高了高分辨率遥感影像信息提取的精度。
2023-08-15 11:48:171

图像的特征提取都有哪些算法

图像的特征可分为两个层次,包括低层视觉特征,和高级语义特征。低层视觉特征包括纹理、颜色、形状三方面。语义特征是事物与事物之间的关系。纹理特征提取算法有:灰度共生矩阵法,傅里叶功率谱法颜色特征提取算法有:直方图法,累计直方图法,颜色聚类法等等。形状特征提取算法有:空间矩特征等等高级语义提取:语义网络、数理逻辑、框架等方法
2023-08-15 11:48:282

机器视觉特征描述方法

这个问题很大啊。 应该根据具体的问题 具体分析吧
2023-08-15 11:48:395

通济镇震害信息提取规则集建立

典型震害遥感影像确定后,可以通过各种算法来提取特征参数及其组合,形成量化指标,为最终自动识别震害信息打下良好基础。但是必须指出,不同地区、不同地震震级典型震害遥感影像的数字特征均有差异。模式识别是将每个对象量化为一组特征来描述,构建特征空间是解决所有模式识别问题的第一步。特征空间在数学上的定义是 “由所有给定特征值相同的特征向量组成的向量空间,包括零向量这一非特征向量”。模式识别方法的前提是假定被识别的对象或经过特征提取的向量是符合一定分布规律的随机变量,其基本思想是将特征提取阶段得到的特征向量定义在一个特征空间中,这个空间包含了所有特征向量,不同的特征向量或者不同类别的对象都对应于空间中的一点。在分类阶段,利用统计决策原理对特征空间进行划分,从而达到识别不同特征对象的目的。通济镇震害信息提取规则集建立的主要工作流程如下: ① 考察典型震害遥感影像的对象特征; ② 构建有效提取震害信息的特征空间; ③ 确定特征参数阈值范围。某一单个特征不足以描述某区域是否被破坏,而是需要由该区域的若干种特征在一定相关关系的制约和协同下共同描述,这就需要对上述的各种特征进行分析、筛选,构成特征空间。特征空间建立起来之后,即可对整幅遥感影像进行识别分类。在通济镇震害信息提取研究中,主要考虑了以下特征:1. 原始波段信息的分析对多光谱影像来说,遥感影像解译的重要依据是地物反映在各波段的像元值,即地物光谱特征。为了能更好地运用光谱特征,通过统计特征的方法从不同角度提取遥感影像所包含的信息。统计特征值主要有亮度、中值、标准差、信息量以及各波段之间的相关矩阵等 ( 表 5 -7) 。表 5 -7 通济镇高分辨率影像各波段统计特征值由表 5 - 7 可知,通济镇高分辨率影像各波段的标准差大小顺序为 QB_Green > QB_Red > QB_NIR > QB_Blue > IK_NIR > IK_Green > IK_Red > IK_Blue,为遥感影像的波段组合和各种分析处理提供了依据。2. 亮度色调是目视解译的一条重要标志。亮度是色调的表现之一,其值为多个波段反射率的均值 ( 只有在影像多于一个波段时才可计算亮度) 。亮度计算公式如下:退化废弃地遥感信息提取研究式中: ;wBk为第k波段的亮度权重; 为第k波段第v个影像对象的平均强度。3.RatioRatio特征为k波段的均值占亮度均值的比例,k层用于定义亮度,否则为0。在通济镇的高分辨率遥感影像中,Ratio特征用来提取地震后临时安置点信息。QuickBird影像中蓝波段的Ratio特征被用来提取地震后临时安置点(图5-20)信息,需要指出的是由于计算过程中用到了亮度特征,所以RatioQB_Blue特征的计算涉及了其余7个波段和DEM层。图5-21RatioQB_Blue特征的阈值范围取[0.115,0.180]。退化废弃地遥感信息提取研究图5-20 Ratio QB_Blue特征灰度图(白色高亮的为临时安置房)图 5 -21 Ratio QB_Blue 特征用来提取临时安置点的效果图4. 归一化植被指数 ( NDVI)分别利用 IKONOS 和 QuickBird 影像计算 2002 年和 2008 年两个年份的 NDVI,用于植被和非植被的区分。退化废弃地遥感信息提取研究5. 形状特征面向对象的遥感影像分类方法中,影像分割后产生的每个对象不仅包含了每个波段上所有像元的光谱均值,还包含了表征多边形形状的多种空间测度。这些形状特征对于地物类别的提取具有较为明显的作用。本研究用的几种形状特征及其物理意义描述如表 5 -8 所示。表 5 -8 形状特征及其物理意义描述6. 纹理特征提取与表达灰度共生矩阵法是一种比较成熟、有效的方法,是 Haralick 于 1979 年提出的用于纹理描述的方法,从多个测度描述了影像的纹理特征。共生矩阵记录了影像灰度的相关性,通过对影像灰度级之间二阶联合条件概率密度 P ( i,j,d,θ) 的计算来表示影像纹理。P( i,j,d,θ) 表示在给定空间距离 d 和空间方向 θ 时,以灰度级 i 为始点,出现灰度 j 的概率。灰度共生矩阵不能直接描述影像的纹理特征,因而定义了一些统计量来提取其所反映的纹理特征,如表 5 -9 所示。这些特征从不同方面刻画了影像的纹理特性,它们之间存在着一定的相关性,可以根据识别对象以及研究区域的具体情况进行选择。表 5 -9 八种纹理量表达式及其含义续表上述统计量在从不同侧面反映影像纹理特征的同时,也存在一定相关性。在实际应用中,应根据具体情况加以选择。黄桂兰等 ( 1998) 经试验和研究发现,仅需利用角二阶矩、同质性和熵三种纹理特征值分类就可以取得较好的效果。Zhang ( 1999) 仅利用了角二阶矩、对比度、熵和同质性; Treitz 仅利用了均值、对比度和相关性三种,并且均值特征提供了最高的区分度。由此可见,针对不同地区和不同数据,应选择不同的纹理特征量。目前在处理多波段影像纹理分析问题时,一般将其转化成单波段影像进行分析。处理方法主要有: ① 波段选取法,将方差或熵作为纹理丰富程度的衡量指标,选取方差最大或熵值最大的波段; ② 进行主成分变换并选取第一主成分进行纹理分析。图5 -22 为通济镇 QuickBird 影像 4 个波段的熵值灰度图。图 5 -22 QuickBird 影像 4 个波段的熵值特征 ( GLDV Entropy)最初选择了 6 个形状、2 个位置、17 个光谱和 6 个纹理特征作为初始特征空间。根据每组中特征参数所代表的信息量和特征参数之间的相关性,去掉相关性强而方差较小的特征,将特征空间维数降到 23 个; 以识别植被、水体、临时安置房、道路、基本倒塌、部分倒塌、个别倒塌、没有倒塌八个类别为目标,进行基于这八个目标类别间可分距离的特征选择。本研究采用 Jeffries-Matusita ( J-M) 距离作为类分离度量。当 J-M 距离达到最大值1414 时,两个特征参数之间的相关性最小; 达到最小值 0 时,两个特征参数之间的相关性最大。对于多类别,常用平均可分距离或者最小可分距离表示特征参数之间的距离。平均可分距离从特征参数对类别的平均可分能力考虑,首先计算每一种可能的子空间中每个类别间的统计距离,再计算这些类别间统计可分性的平均值。最小可分距离是以该特征空间中类别可分的最小距离为评判标准,以最差的类别可分性为基础,是一种保守的选择标准。在计算 J-M 距离之前,首先在 23 维特征空间中根据样本的代表性和在空间上分布的均匀性,选择每类 10 个共 80 个样本。根据最小 J-M 距离和平均 J-M 距离,确定最优特征空间: 从 2 维特征空间到 23 维特征空间,在每维特征空间里计算不同特征组合的平均 J-M距离和最小 J-M 距离,分别按平均值和最小值找到最优特征空间; 比较不同维的特征空间的最优平均 J-M 距离和最小 J-M 距离,以确定具有最大区分能力的特征空间。以最小 J-M 距离为评判标准,2 维最优特征空间只由光谱信息组成; 从 3 维开始,加入形状信息,到 12 维空间,形状信息的 5 个特征已加入,纹理信息是从 15 维空间逐步加入,而最小 J-M 距离从 14 维空间趋于稳定。以平均 J-M 距离为评判标准,2 维和 3 维特征空间由光谱信息组成,从 4 维空间开始,逐步加入形状信息,直到 16 维空间,才加入纹理信息。纹理信息对类别可分性贡献很小的原因,并不是纹理特征对于分类没有贡献,而是因为纹理信息是光谱信息在空间上的统计,而这一部分信息在光谱信息中已有表达,比如标准差等,而形状信息在光谱信息上得不到反映。图 5 -23 最优特征空间的选择图 5 -23 是特征空间的最优平均 J-M距离和最优最小 J-M 距离选择曲线。无论以最优最小 J-M 距离还是最优平均 J-M 距离为评判标准,特征空间维数从 2 增加到14 的过程中,J-M 距离逐渐增加,增加的速度逐渐变缓,表明随着特征空间维数的增加可分性逐渐变大,但是变大的速率越来越小; 当特征空间维数达到 14 以后,随着特征空间维数的增加,J-M 距离的变化趋于平缓,表明增加特征维数并不能增加可分性。以最优最小 J-M 距离为评判标准,此时的平均 J-M 距离为1414,最小 J-M 距离为1413; 以最优平均 J-M 距离为评判标准,此时的平均 J-M 距离为1414,最小 J-M 距离为1411。因此,以最优最小 J-M 距离为评判标准确定最优特征空间 ( 图 5 - 23) 。由此我们构建了由 Mean QB_PCA1,Mean QB_NIR,Ratio QB_Blue,Ratio QB_PCA1,NDVI2002,NDVI2008,Density,Asymmetry,SD QB _ PCA1,ASM QB _ PCA1,VAR QB _PCA1,ENT QB_PCA1,COR QB_PCA1,HOM QB_PCA1 共 14 个特征参数构成的特征空间及规则集 ( 表 5 -10) ,用于震害信息的提取 ( 图 5 -24) 。表 5 -10 通济镇震害信息提取规则集图 5 -24 震害信息提取结果 ( 局部)从遥感影像上获取的房屋震害信息与实际调查情况存在较大差别,比如,房屋墙壁裂缝、屋梁断裂等只能通过实际调查获取,在遥感影像上无法体现,因此,与实际调查结果进行定量比较就失去意义。基于这样的认识,在对识别精度进行评价时,只与遥感影像震害信息的目视解译结果进行对比和分析,即所有样本均来自目视解译,由此计算得到混淆矩阵 ( 表 5 -11) 。表 5 -11 震害信息提取结果精度分析
2023-08-15 11:48:551

纹理分析的作用分析

对这种表面纹理的研究称为纹理分析.它在计算机视觉领域有着重要的应用.在机械工程中对机械零件加工表面的这种凹凸不平性开展研究同样具有重要的实践意义。 统计纹理分析寻找刻划纹理的数字特征,用这些特征或同时结合其他非纹理特征对图像中的区域(而不是单个像素)进行分类。图像局部区域的自相关函数、灰度共生矩阵、灰度游程以及灰度分布的各种统计量,是常用的数字纹理特征。如灰度共生矩阵用灰度的空间分布表征纹理。由于粗纹理的灰度分布随距离的变化比细纹理缓慢得多,因此二者有完全不同的灰度共生矩阵。结构纹理分析研究组成纹理的基元和它们的排列规则。基元可以是一个像素的灰度、也可以是具有特定性质的连通的像素集合。基元的排列规则常用树文法来描述。
2023-08-15 11:49:031

遥感图像的DEM提取原理是什么?

1、遥感信息提取方法分类 常用的遥感信息提取的方法有两大类:一是目视解译,二是计算机信息提取。1.1目视解译 目视解译是指利用图像的影像特征(色调或色彩,即波谱特征)和空间特征(形状、大小、阴影、纹理、图形、位置和布局),与多种非遥感信息资料(如地形图、各种专题图)组合,运用其相关规律,进行由此及彼、由表及里、去伪存真的综合分析和逻辑推理的思维过程。早期的目视解译多是纯人工在相片上解译,后来发展为人机交互方式,并应用一系列图像处理方法进行影像的增强,提高影像的视觉效果后在计算机屏幕上解译。1)遥感影像目视解译原则 遥感影像目视解译的原则是先“宏观”后“微观”;先“整体”后“局部”;先“已知”后“未知”;先“易”后“难”等。一般判读顺序为,在中小比例尺像片上通常首先判读水系,确定水系的位置和流向,再根据水系确定分水岭的位置,区分流域范围,然后再判读大片农田的位置、居民点的分布和交通道路。在此基础上,再进行地质、地貌等专门要素的判读。2)遥感影像目视解译方法(1)总体观察 观察图像特征,分析图像对判读目的任务的可判读性和各判读目标间的内在联系。观察各种直接判读标志在图像上的反映,从而可以把图像分成大类别以及其他易于识别的地面特征。(2)对比分析 对比分析包括多波段、多时域图像、多类型图像的对比分析和各判读标志的对比分析。多波段图像对比有利于识别在某一波段图像上灰度相近但在其它波段图像上灰度差别较大的物体;多时域图像对比分析主要用于物体的变化繁衍情况监测;而多各个类型图像对比分析则包括不同成像方式、不同光源成像、不同比例尺图像等之间的对比。 各种直接判读标志之间的对比分析,可以识别标志相同(如色调、形状),而另一些标识不同(纹理、结构)的物体。对比分析可以增加不同物体在图像上的差别,以达到识别目的。(3)综合分析 综合分析主要应用间接判读标志、已有的判读资料、统计资料,对图像上表现得很不明显,或毫无表现的物体、现象进行判读。间接判读标志之间相互制约、相互依存。根据这一特点,可作更加深入细致的判读。如对已知判读为农作物的影像范围,按农作物与气候、地貌、土质的依赖关系,可以进一步区别出作物的种属;河口泥沙沉积的速度、数量与河流汇水区域的土质、地貌、植被等因素有关,长江、黄河河口泥沙沉积情况不同,正是因为流域内的自然环境不同所至。 地图资料和统计资料是前人劳动的可靠结果,在判读中起着重要的参考作用,但必须结合现有图像进行综合分析,才能取得满意的结果。实地调查资料,限于某些地区或某些类别的抽样,不一定完全代表整个判读范围的全部特征。只有在综合分析的基础上,才能恰当应用、正确判读。 (4)参数分析参数分析是在空间遥感的同时,测定遥感区域内一些典型物体(样本)的辐射特性数据、大气透过率和遥感器响应率等数据,然后对这些数据进行分析,达到区分物体的目的。 大气透过率的测定可同时在空间和地面测定太阳辐射照度,按简单比值确定。仪器响应率由实验室或飞行定标获取。利用这些数据判定未知物体属性可从两个方面进行。其一,用样本在图像上的灰度与其他影像块比较,凡灰度与某样本灰度值相同者,则与该样本同属性;其二,由地面大量测定各种物体的反射特性或发射特性,然后把它们转化成灰度。然后根据遥感区域内各种物体的灰度,比较图像上的灰度,即可确定各类物体的分布范围。1.2计算机信息提取 利用计算机进行遥感信息的自动提取则必须使用数字图像,由于地物在同一波段、同一地物在不同波段都具有不同的波谱特征,通过对某种地物在各波段的波谱曲线进行分析,根据其特点进行相应的增强处理后,可以在遥感影像上识别并提取同类目标物。早期的自动分类和图像分割主要是基于光谱特征,后来发展为结合光谱特征、纹理特征、形状特征、空间关系特征等综合因素的计算机信息提取。1.2.1自动分类 常用的信息提取方法是遥感影像计算机自动分类。首先,对遥感影像室内预判读,然后进行野外调查,旨在建立各种类型的地物与影像特征之间的对应关系并对室内预判结果进行验证。工作转入室内后,选择训练样本并对其进行统计分析,用适当的分类器对遥感数据分类,对分类结果进行后处理,最后进行精度评价。遥感影像的分类一般是基于地物光谱特征、地物形状特征、空间关系特征等方面特征,目前大多数研究还是基于地物光谱特征。在计算机分类之前,往往要做些预处理,如校正、增强、滤波等,以突出目标物特征或消除同一类型目标的不同部位因照射条件不同、地形变化、扫描观测角的不同而造成的亮度差异等。 利用遥感图像进行分类,就是对单个像元或比较匀质的像元组给出对应其特征的名称,其原理是利用图像识别技术实现对遥感图像的自动分类。计算机用以识别和分类的主要标志是物体的光谱特性,图像上的其它信息如大小、形状、纹理等标志尚未充分利用。 计算机图像分类方法,常见的有两种,即监督分类和非监督分类。监督分类,首先要从欲分类的图像区域中选定一些训练样区,在这样训练区中地物的类别是已知的,用它建立分类标准,然后计算机将按同样的标准对整个图像进行识别和分类。它是一种由已知样本,外推未知区域类别的方法;非监督分类是一种无先验(已知)类别标准的分类方法。对于待研究的对象和区域,没有已知类别或训练样本作标准,而是利用图像数据本身能在特征测量空间中聚集成群的特点,先形成各个数据集,然后再核对这些数据集所代表的物体类别。 与监督分类相比,非监督分类具有下列优点:不需要对被研究的地区有事先的了解,对分类的结果与精度要求相同的条件下,在时间和成本上较为节省,但实际上,非监督分类不如监督分类的精度高,所以监督分类使用的更为广泛。1.2.2纹理特征分析 细小地物在影像上有规律地重复出现,它反映了色调变化的频率,纹理形式很多,包括点、斑、格、垅、栅。在这些形式的基础上根据粗细、疏密、宽窄、长短、直斜和隐显等条件还可再细分为更多的类型。每种类型的地物在影像上都有本身的纹理图案,因此,可以从影像的这一特征识别地物。纹理反映的是亮度(灰度)的空间变化情况,有三个主要标志:某种局部的序列性在比该序列更大的区域内不断重复;序列由基本部分非随机排列组成;各部分大致都是均匀的统一体,在纹理区域内的任何地方都有大致相同的结构尺寸。这个序列的基本部分通常称为纹理基元。因此可以认为纹理是由基元按某种确定性的规律或统计性的规律排列组成的,前者称为确定性纹理(如人工纹理),后者呈随机性纹理(或自然纹理)。对纹理的描述可通过纹理的粗细度、平滑性、颗粒性、随机性、方向性、直线性、周期性、重复性等这些定性或定量的概念特征来表征。相应的众多纹理特征提取算法也可归纳为两大类,即结构法和统计法。结构法把纹理视为由基本纹理元按特定的排列规则构成的周期性重复模式,因此常采用基于传统的Fourier频谱分析方法以确定纹理元及其排列规律。此外结构元统计法和文法纹理分析也是常用的提取方法。结构法在提取自然景观中不规则纹理时就遇到困难,这些纹理很难通过纹理元的重复出现来表示,而且纹理元的抽取和排列规则的表达本身就是一个极其困难的问题。在遥感影像中纹理绝大部分属随机性,服从统计分布,一般采用统计法纹理分析。目前用得比较多的方法包括:共生矩阵法、分形维方法、马尔可夫随机场方法等。共生矩阵是一比较传统的纹理描述方法,它可从多个侧面描述影像纹理特征。 1.2.3图像分割 图像分割就是指把图像分成各具特性的区域并提取出感兴趣目标的技术和过程,此处特性可以是像素的灰度、颜色、纹理等预先定义的目标可以对应单个区域,也可以对应多个区域。 图像分割是由图像处理到图像分析的关键步骤,在图像工程中占据重要的位置。一方面,它是目标表达的基础,对特征测量有重要的影响;另一方面,因为图像分割及其基于分割的目标表达、特征抽取和参数测量的将原始图像转化为更抽象更紧凑的形式,使得更高层的图像分析和理解成为可能。图像分割是图像理解的基础,而在理论上图像分割又依赖图像理解,彼此是紧密关联的。图像分割在一般意义下是十分困难的问题,目前的图像分割一般作为图像的前期处理阶段,是针对分割对象的技术,是与问题相关的,如最常用到的利用阈值化处理进行的图像分割。 图像分割有三种不同的途径,其一是将各象素划归到相应物体或区域的象素聚类方法即区域法,其二是通过直接确定区域间的边界来实现分割的边界方法,其三是首先检测边缘象素再将边缘象素连接起来构成边界形成分割。1)阈值与图像分割 阈值是在分割时作为区分物体与背景象素的门限,大于或等于阈值的象素属于物体,而其它属于背景。这种方法对于在物体与背景之间存在明显差别(对比)的景物分割十分有效。实际上,在任何实际应用的图像处理系统中,都要用到阈值化技术。为了有效地分割物体与背景,人们发展了各种各样的阈值处理技术,包括全局阈值、自适应阈值、最佳阈值等等。2)梯度与图像分割 当物体与背景有明显对比度时,物体的边界处于图像梯度最高的点上,通过跟踪图像中具有最高梯度的点的方式获得物体的边界,可以实现图像分割。这种方法容易受到噪声的影响而偏离物体边界,通常需要在跟踪前对梯度图像进行平滑等处理,再采用边界搜索跟踪算法来实现。3)边界提取与轮廓跟踪 为了获得图像的边缘人们提出了多种边缘检测方法,如Sobel, Canny edge, LoG。在边缘图像的基础上,需要通过平滑、形态学等处理去除噪声点、毛刺、空洞等不需要的部分,再通过细化、边缘连接和跟踪等方法获得物体的轮廓边界。4)Hough变换 对于图像中某些符合参数模型的主导特征,如直线、圆、椭圆等,可以通过对其参数进行聚类的方法,抽取相应的特征。5)区域增长 区域增长方法是根据同一物体区域内象素的相似性质来聚集象素点的方法,从初始区域(如小邻域或甚至于每个象素)开始,将相邻的具有同样性质的象素或其它区域归并到目前的区域中从而逐步增长区域,直至没有可以归并的点或其它小区域为止。区域内象素的相似性度量可以包括平均灰度值、纹理、颜色等信息。 区域增长方法是一种比较普遍的方法,在没有先验知识可以利用时,可以取得最佳的性能,可以用来分割比较复杂的图像,如自然景物。但是,区域增长方法是一种迭代的方法,空间和时间开销都比较大。1.2.4面向对象的遥感信息提取 基于像素级别的信息提取以单个像素为单位,过于着眼于局部而忽略了附近整片图斑的几何结构情况,从而严重制约了信息提取的精度,而面向对象的遥感信息提取,综合考虑了光谱统计特征、形状、大小、纹理、相邻关系等一系列因素,因而具有更高精度的分类结果。面向对象的遥感影像分析技术进行影像的分类和信息提取的方法如下: 首先对图像数据进行影像分割,从二维化了的图像信息阵列中恢复出图像所反映的景观场景中的目标地物的空间形状及组合方式。影像的最小单元不再是单个的像素,而是一个个对象,后续的影像分析和处理也都基于对象进行。 然后采用决策支持的模糊分类算法,并不简单地将每个对象简单地分到某一类,而是给出每个对象隶属于某一类的概率,便于用户根据实际情况进行调整,同时,也可以按照最大概率产生确定分类结果。在建立专家决策支持系统时,建立不同尺度的分类层次,在每一层次上分别定义对象的光谱特征、形状特征、纹理特征和相邻关系特征。其中,光谱特征包括均值、方差、灰度比值;形状特征包括面积、长度、宽度、边界长度、长宽比、形状因子、密度、主方向、对称性,位置,对于线状地物包括线长、线宽、线长宽比、曲率、曲率与长度之比等,对于面状地物包括面积、周长、紧凑度、多边形边数、各边长度的方差、各边的平均长度、最长边的长度;纹理特征包括对象方差、面积、密度、对称性、主方向的均值和方差等。通过定义多种特征并指定不同权重,建立分类标准,然后对影像分类。分类时先在大尺度上分出"父类",再根据实际需要对感兴趣的地物在小尺度上定义特征,分出"子类"。
2023-08-15 11:49:351

求岩性的描述,及岩性图例。做编录用的

岩屑岩性最优描述方法;TP391.41 关键词:岩屑岩性描述;和差直方图;灰度共生矩阵;岩性识别;数字图像处理摘要:由于PDC(PolycrystallineDiamondCompact)钻头的推广使用导致岩屑非常细小,岩性用肉眼识别十分困难,传统的岩屑录井方法已不再适用。然而岩性的识别是地质描述必不可少的关键性参数,因此迫切需要寻求一种新手段、新方法来判断岩屑的岩性。数字图像处理技术是一个跨学科的前沿技术,具有再现性好、处理精度高、适用面广、灵活性高等优点,随着各个应用学科的发展,它逐渐形成了自己的独立的学科体系,呈现出强大的生命力。它广泛应用于生物医学、遥感、气象、林业、农业等方面。但是应用于石油行业特别是岩屑录井方面却极少。基于目前PDC钻头条件下岩屑描述的重要性和困难性,以及数字图像处理技术的种种优势,本论文主要以数字图像处理技术中的纹理特征提取方法中的灰度统计方法为基础,对岩屑岩性描述的方法进行了研究,为本实验室即将开发的岩屑描述仪提供了技术支持,希望能为目前岩屑录井中存在的问题提供一种方法。论文主要由四部分组成。引言和第一章为第一部分,主要介绍了目前岩屑录井所面临的困难、国内外对录井问题所提出的解决方案以及基于灰度统计特征的几种重要的纹理特征提取方法。作为论文的第二部分,第二章主要介绍了岩屑图像采集系统的参数的确定。对照明条件的优化,先从常见光源天空光和白炽灯入手,对比了两种光源条件下的灰度直方图及其它们的六种数学统计量,得出所选光源必须是与天空光相近的稳定光源,最后色温为6700K的环形节能灯成为了首选,并建立了一套实验室用的样品拍摄装置。通过不同光源位置下的岩屑图片的分析,确定了最佳光源位置。在此基础上,对岩屑图片的分辨率进行了评估。通过比较分析,得出适合图像分析的分辨率为每毫米不低于256个像素,并确定了获得该分辨率的硬件方案,即以佳能EOS20D型照相机与佳能MP-E型微距镜头(65mmt2.81.5X)来实现。经过实验验证,以该方案建立的岩屑拍摄系统所拍摄的岩屑图片纹理清晰,符合纹理特征提取的要求。第三章和第四章构成了文章的第三部分。该部分主要是确定基于灰度统计特征的岩屑岩性最优描述方法——和差直方图。论文首先应用了基于灰度的统计方法中的三种直方图方法(灰度直方图、灰度水平差分直方图和和差直方图)对岩屑样品进行纹理特征提取。对比分析的结果表明,和差直方图方法对于岩屑的分类帮助较大,优于灰度直方图和水平差分直方图方法。运用和差直方图方法并结合贝叶斯分类器对岩屑样品进行分类,通过204个样本训练后,对102个样本进行测试的结果表明,该方法对泥岩和砂岩的识别率都很高,泥岩的平均识别率为100﹪,砂岩的平均识别率为98.70﹪。接着运用纹理特征提取中经典而成熟的方法--灰度共生矩阵方法,对岩屑样品进行特征提取并结合贝叶斯分类器对岩屑样品(训练样本数为204,测试样本数为102)进行分类,并与和差直方图方法的分类结果进行了比较。结果表明,灰度共生矩阵方法同样适用于岩屑样品的分类,分类识别的结果分别为泥岩的识别率为99.35﹪,砂岩的识别率为97.71﹪。但是,考虑到和差直方图方法在存储空间和运算速度等方面,明显优于灰度共生矩阵的方法,因此可以确定基于灰度统计特征的纹理特征提取方法中岩屑岩性的最佳描述方法为和差直方图方法。作为论文的最后一部分,第五章在对论文工作进行总结的基础上,从图像采集系统、实验样品、实验方法和编程工具等四个方面提出了进一步努力的方向。总之,本论文通过实验的尝试和探索,认为和差直方图方法有望成为岩屑岩性描述的最佳方法
2023-08-15 11:50:031

灰度共生矩阵中的差熵,差平均,差方差这三个特征值用英文怎么说?

差熵 difference entropy (见http://dict.cnki.net/dict_result.aspx?searchword=variance+sum)差平均 difference average差方差 difference variance?(好像只有“方差”吧)
2023-08-15 11:50:111

quickbird遥感影像如何区分草地和林地

QuickBird遥感影像可以通过基于NDVI指数的分类方法、基于纹理信息的分类方法、基于决策树分类的方法区分。1、基于NDVI指数的分类方法:NDVI指数是一种反映植被覆盖度和生长状态的指数,可以通过计算QuickBird遥感影像的红外波段和红波段,得到相应的NDVI值。草地和林地的NDVI值通常有所不同,因此可以通过设定阈值的方式,将QuickBird遥感影像进行分类。2、基于纹理信息的分类方法:草地和林地在纹理方面有所不同,草地的纹理相对较为均匀,而林地的纹理则更为复杂。因此,可以通过计算QuickBird遥感影像的纹理特征,比如灰度共生矩阵(GLCM)等,来区分草地和林地。3、基于决策树分类的方法:决策树分类是一种常用的遥感影像分类方法,可以通过利用QuickBird遥感影像的多个波段数据和地物特征,构建分类决策树模型,从而对草地和林地进行分类。
2023-08-15 11:50:201

高手救命:要把256灰度级的图像压缩为64灰度级的图像,我该怎么做?有什么软件可以做到?

请问楼主这个问题找到合适满意的答案了吗
2023-08-15 11:50:314

matlab 如何批量提取文件夹中所有图片的灰度特征

你可以将这些图片按顺序命名,然后使用一个循环逐个读取数据,最后cat成一个三维数组。比如,你先把所有的图片使用批量重命名工具(网上有很多,如好压重命名)按顺序命名,如pic1,pic2,...,picN;并将其放在下面的目录下,currdir = "D:/imagedir/";imgdata = zeros(row,col,N);for num = 1:Nname = [currdir,"pic",num2str(num),".bmp"];imgdata(:,:,num) = imread(name); end
2023-08-15 11:50:461

灰度共生矩阵中的特征值用英文怎么说?

Bad entropyBad averageBad variance
2023-08-15 11:50:541

统计方法的定义

定义1所谓统计方法是指用多次测量值采用一定方法计算出的标准不确定度。不同于A类的其它方法计算者称为B类标准不确定度或称为标准不确定度的B类计算法(typeBevaluation)。源自: 关于统一测量不确定度表达(上)《中国计量》1996年 肖明耀定义2在平均离子模型的基础上,发展了一个计算离子组态概率分布的有效方法,称为统计方法。源自: 激光等离子体非平衡X射线发射谱理论研究《物理学报》1995年 裴文兵,常铁强,张钧定义3统计方法是指在不知道纹理基元或尚未监测出基元的情况下进行纹理分析,主要描述纹理基元或局部模式随机和空间统计特征,如灰度共生矩阵法、随机场模型法等。源自: 利用纹理分析方法提取TM图像信息《遥感学报》2004年 姜青香,刘慧平定义4是一种从微观结构上来研究物质的宏观性质及其规律的独特的方法。分子物理学就是用统计方法来研究的。大量个别的偶然事件存在着一定的规律,表现了这些事件的整体的本质和必然的联系。这种规律是客观存在的,统计的方法则是揭示这种规律的必要手段。统计方法只能适合于大量事件,研究的事件越多,得到的统计结果也越准确源自:教师百科辞典
2023-08-15 11:51:041

opencv中有没有计算图像四大纹理特征能量,熵,相关性,惯性矩的函数?

opencv有一个灰度共生矩阵能计算这些,但是那个类是在cxcore中定义的,实际使用也发现该函数存在问题(内存泄露,根据网上的改完,你实际使用还是发现跟matlab的精度差很多尤其是相关性2,经常计算不出来。2.1是这样,2.2不清楚)。
2023-08-15 11:51:201

WORD 图片如何用灰度

1. 第一步,打开电脑并在桌面找到word文档图标,双击打开。2. 第二步,进入文档主页后,在下方点击选中要进行调整的图片。3. 第三步,点击选中图片后,在上方的菜单栏中找到格式选项。4. 第四步,点击格式选项,就可以看到下方的格式工具栏。5.第五步,点击工具栏中的艺术效果选项。6. 第六步,在下拉窗口中,点击自己喜欢的样式,就可以完成图片效果的调整。1. 第一步,打开电脑并在桌面找到word文档图标,双击打开。2. 第二步,进入文档主页后,在下方点击选中要进行调整的图片。3. 第三步,点击选中图片后,在上方的菜单栏中找到格式选项。4. 第四步,点击格式选项,就可以看到下方的格式工具栏。5.第五步,点击工具栏中的艺术效果选项。6. 第六步,在下拉窗口中,点击自己喜欢的样式,就可以完成图片效果的调整。1. 第一步,打开电脑并在桌面找到word文档图标,双击打开。2. 第二步,进入文档主页后,在下方点击选中要进行调整的图片。3. 第三步,点击选中图片后,在上方的菜单栏中找到格式选项。4. 第四步,点击格式选项,就可以看到下方的格式工具栏。5.第五步,点击工具栏中的艺术效果选项。6. 第六步,在下拉窗口中,点击自己喜欢的样式,就可以完成图片效果的调整。1. 第一步,打开电脑并在桌面找到word文档图标,双击打开。2. 第二步,进入文档主页后,在下方点击选中要进行调整的图片。3. 第三步,点击选中图片后,在上方的菜单栏中找到格式选项。4. 第四步,点击格式选项,就可以看到下方的格式工具栏。5.第五步,点击工具栏中的艺术效果选项。6. 第六步,在下拉窗口中,点击自己喜欢的样式,就可以完成图片效果的调整。
2023-08-15 11:51:356

ppt打印时的“灰度”和“纯黑白”有什麽区别?

基本上说,是没什么区别。如果是图片打印,灰度的效果要比黑白的好一些。因为,黑白打印就黑白二色,如果图片比较细腻,打印出来就比较难看了。而灰度的打印,会自动处理成深灰,浅灰,灰,从淡到浓,这样,会比较好一点。
2023-08-15 11:51:581

共生矩阵的概念

具体理解图像共生矩阵:对图像上单个象素具有某个灰度进行统计的结果,而灰度共生矩阵是对图像上保持某距离的两象素分别具有某灰度的状况进行统计得到的。取图像(N×N)中任意一点(x,y)及偏离它的另一点(x+a,y+b),设该点对的灰度值为(g1,g2)。令点(x,y)在整个画面上移动,则会得到各种(g1,g2)值。设灰度值的级数为L,则(g1,g2)的组合共有k(k=L*L)种。对于整个画面,统计出每一种(g1,g2)值出现的次数,然后排列成一个方阵,再用(g1,g2)出现的总次数将它们归一化为出现的概率P(g1,g2),这样的方阵称为灰度共生矩阵。距离差分值(a,b)取不同的数值组合,可以得到不同情况下的联合概率矩阵。(a,b) 取值要根据纹理周期分布的特性来选择,对于较细的纹理,选取(1,0)、(1,1)、(2,0)等小的差分值。当a=1,b=0时,像素对是水平的,即0度扫描;当a=0,b=1 时,像素对是垂直的,即90度扫描;当a=1,b=1时,像素对是右对角线的,即45度扫描;当a=-1,b=-1时,像素对是左对角线,即135度扫描。这样,两个像素灰度级同时发生的概率,就将(x,y)的空间坐标转化为“灰度对” (g1,g2)的描述,形成了灰度共生矩阵。共生矩阵用两个位置的像素的联合概率密度来定义,它不仅反映亮度的分布特性,也反映具有同样亮度或接近亮度的象素之间的位置分布特性,是有关图像亮度变化的二阶统计特征。它是定义一组纹理特征的基础。一幅图象的灰度共生矩阵能反映出图像灰度关于方向、相邻间隔、变化幅度的综合信息,它是分析图像的局部模式和它们排列规则的基础。设f(x,y)为一幅二维数字图象,其大小为M×N,灰度级别为Ng,则满足一定空间关系的灰度共生矩阵为P(i,j)=#{(x1,y1),(x2,y2)∈M×N|f(x1,y1)=i,f(x2,y2)=j}其中#(x)表示集合x中的元素个数,显然P为Ng×Ng的矩阵,若(x1,y1)与(x2,y2)间距离为d,两者与坐标横轴的夹角为θ,则可以得到各种间距及角度的灰度共生矩阵P(i,j,d,θ)。共生矩阵反映的图像中具有某种特殊灰度值的点对出现的频度,点对间距离为d,角度为a。
2023-08-15 11:52:171

如何提高灰度共生矩阵的计算效率

灰度共生矩阵共生矩阵用两个位置的象素的联合概率密度来定义,它不仅反映亮度的分布特性,也反映具有同样亮度或接近亮度的象素之间的位置分布特性,是有关图象亮度变化的二阶统计特征。它是定义一组纹理特征的基础。一幅图象的灰度共生矩阵能反映出图象灰度关于方向、相邻间隔、变化幅度的综合信息,它是分析图象的局部模式和它们排列规则的基础。设f(x,y)为一幅二维数字图象,其大小为M×N,灰度级别为Ng,则满足一定空间关系的灰度共生矩阵为P(i,j)=#{(x1,y1),(x2,y2)∈M×N|f(x1,y1)=i,f(x2,y2)=j}其中#(x)表示集合x中的元素个数,显然P为Ng×Ng的矩阵,若(x1,y1)与(x2,y2)间距离为d,两者与坐标横轴的夹角为θ,则可以得到各种间距及角度的灰度共生矩阵P(i,j,d,θ)。纹理特征提取的一种有效方法是以灰度级的空间相关矩阵即共生矩阵为基础的[7],因为图像中 相距(Δx,Δy)的两个灰度像素同时出现的联合频率分布可以用灰度共生矩阵来表示。若将图像的灰度级定为N级,那么共生矩阵为N×N矩阵,可表示为 M(Δx,Δy)(h,k),其中位于(h,k)的元素mhk的值表示一个灰度为h而另一个灰度为k的两个相距为(Δx,Δy)的像素对出现的次数。对粗纹理的区域,其灰度共生矩阵的mhk值较集中于主对角线附近。因为对于粗纹理,像素对趋于具有相同的灰度。而对于细纹理的区域,其灰度共生矩阵中的mhk值则散布在各处。为了能更直观地以共生矩阵描述纹理状况,从共生矩阵导出一些反映矩阵状况的参数,典型的有以下几种:(1)能量: 是灰度共生矩阵元素值的平方和,所以也称能量,反映了图像灰度分布均匀程度和纹理粗细度。如果共生矩阵的所有值均相等,则ASM值小;相反,如果其中一些 值大而其它值小,则ASM值大。当共生矩阵中元素集中分布时,此时ASM值大。ASM值大表明一种较均一和规则变化的纹理模式。(2)对比度: ,其中 。反映了图像的清晰度和纹理沟纹深浅的程度。纹理沟纹越深,其对比度越大,视觉效果越清晰;反之,对比度小,则沟纹浅,效果模糊。灰度差即对比度大的象素对越多,这个值越大。灰度公生矩阵中远离对角线的元素值越大,CON越大。(3)相关:它度量空间灰度共生矩阵元素在行或列方向上的相似程度,因此,相关值大小反映了图像中局部灰度相关性。当矩阵元素值均匀相等时,相关值就大;相反,如果矩阵像元值相差很大则相关值小。如果图像中有水平方向纹理,则水平方向矩阵的COR大于其余矩阵的COR值。(4)熵: 是图像所具有的信息量的度量,纹理信息也属于图像的信息,是一个随机性的度量,当共生矩阵中所有元素有最大的随机性、空间共生矩阵中所有值几乎相等时,共生矩阵中元素分散分布时,熵较大。它表示了图像中纹理的非均匀程度或复杂程度。(5)逆差距: 反映图像纹理的同质性,度量图像纹理局部变化的多少。其值大则说明图像纹理的不同区域间缺少变化,局部非常均匀。其它参数:中值<Mean>协方差<Variance>同质性/逆差距<Homogeneity>反差<Contrast>差异性<Dissimilarity>熵<Entropy>二阶距<Angular Second Moment>自相关<Correlation>当图像的局部有较小的方差时,则灰度值占有支配地位,当图像的局部有较大的方差时,则纹理占有支配地位。纹理是和局部灰度及其空间组织相联系的,纹理在识别感兴趣的目标和地区中有着非常重要的作用。灰度共生矩阵表示了灰度的空间依赖性,它表示了在一种纹理模式下的像素灰度的空间关系。它的 弱点是没有完全抓住局部灰度的图形特点,因此对于较大的局部,此方法的效果不太理想。灰度共生矩阵为方阵,维数等于图像的灰度级。灰度共生矩阵中的元素 (i,j)的值表示了在图像中其中一个像素的灰度值为i,另一个像素的灰度值为j,并且相邻距离为d,方向为A的这样两个像素出现的次数。在实际应用中A 一般选择为0°、45°、90°、135°。一般来说灰度图像的灰度级为256,在计算由灰度共生矩阵推导出的纹理特征时,要求图像的灰度级远小于 256,主要是因为矩阵维数较大而窗口的尺寸较小则灰度共生矩阵不能很好表示纹理,如要能够很好表示纹理则要求窗口尺寸较大,这样使计算量大大增加,而且 当窗口尺寸较大时对于每类的边界区域误识率较大。所以在计算灰度共生矩阵之前需要对图像进行直方图规定化,以减小图像的灰度级,一般规定化后的图像的灰度 级为8或16。由灰度共生矩阵能够导出许多纹理特征,本文计算了14种灰度共生矩阵特征,分别为纹理二阶距、纹理熵、纹理对比度、纹理均匀性、纹理相关、 逆差分矩、最大概率、纹理方差、共生和均值、共生和方差、共生和熵、共生差均值、共生差方差、共生差熵。由灰度共生矩阵能够导出许多纹理特征,计算了14种灰度共生矩阵特征,分别为纹理二阶距、纹理熵、纹理对比度、纹理均匀性、纹理相关、逆差分矩、最大概率、纹理方差、共生和均值、共生和方差、共生和熵、共生差均值、共生差方差、共生差熵。目前,人们对遥感影像上的纹理特征的含义理解不尽相同,纹理有时被称为结构、影纹和纹形等。 Pickett认为纹理为保持一定的特征重复性并且间隔规律可以任意安排的空间结构。HawKins认为纹理具有三大标志:某种局部序列性不断重 复、非随机排列和纹理区域内大致为均匀的统一体。LiWang和D. C. He认为,纹理是纹理基元组成的,纹理基元被认为是表现纹理特征的最小单元,是一个像元在其周围8个方向上的特征反应。纹理特征有时是明显的,以某种基本图形在某一地区有规律的周期 性出现,例如:大面积森林覆盖地区的影像构成的纹理为斑点状,沙漠地区的影像构成的纹理为链状、新月状等;而有时纹理特征是不明显的、隐晦的,具有不稳定 性。一般来说,前者纹理比较均一,后者纹理比较复杂。纹理作为一种区域特征,是对于图像各像元之间空间分布的一种描述。由于纹理能充分利用图像信 息,无论从理论上或常识出发它都可以成为描述与识别图像的重要依据,与其他图像特征相比,它能更好地兼顾图像宏观性质与细微结构两个方面,因此纹理成为目 标识别需要提取的重要特征。提取纹理特征的方法很多,如基于局部统计特性的特征、基于随机场模型的特征、基于空间频率的特征、分形特征等,其中,应用最广 泛的是基于灰值共生矩阵的特征。
2023-08-15 11:52:301

共生矩阵的介绍

对图像上单个象素具有某个灰度进行统计的结果,而灰度共生矩阵是对图像上保持某距离的两象素分别具有某灰度的状况进行统计得到的。
2023-08-15 11:52:371

共生矩阵的介绍

对图像上单个象素具有某个灰度进行统计的结果,而灰度共生矩阵是对图像上保持某距离的两象素分别具有某灰度的状况进行统计得到的。
2023-08-15 11:52:451

灰度共生矩阵的度量参数

取图像(N×N)中任意一点 (x,y)及偏离它的另一点 (x+a,y+b),设该点对的灰度值为(g1,g2)。令点(x,y) 在整个画面上移动,则会得到各种 (g1,g2)值,设灰度值的级数为 k,则(g1,g2) 的组合共有 k^2;种。对于整个画面,统计出每一种(g1,g2)值出现的次数,然后排列成一个方阵,在用(g1,g2) 出现的总次数将它们归一化为出现的概率P(g1,g2),这样的方阵称为灰度共生矩阵。 1、角二阶矩(ASM):是灰度共生矩阵元素值的平方和,所以也称能量。它反映了图像灰度分布均匀程度和纹理粗细度。如果共生矩阵的所有值均相等,则ASM值小;相反,如果其中一些值大而其它值小,则ASM值大。当共生矩阵中元素集中分布时,此时ASM值大。 ASM值大表明一种较均一和规则变化的纹理模式。 2、熵(ENT):是图像所具有的信息量的度量,熵越大随机性越大,混乱程度越大。纹理信息也属于图像的信息,是一个随机性的度量,当共生矩阵中所有元素有最大的随机性、共生矩阵中元素分散分布时,熵较大。 它表示了图像中纹理的非均匀程度或复杂程度。 3、对比度(CON):反映了图像的清晰度和纹理沟纹深浅的程度。纹理沟纹越深,其对比度越大,视觉效果越清晰;反之,对比度小,则沟纹浅,效果模糊。灰度差即对比度大的象素对越多,这个值越大。灰度共生矩阵中远离对角线的元素值越大,CON越大。 4、逆差距(HOM):反映图像纹理的同质性,度量图像纹理局部变化的多少。其值大则说明图像纹理的不同区域间缺少变化,局部非常均匀。 5、相关(COR):度量空间灰度共生矩阵元素在行或列方向上的相似程度,因此,相关值大小反映了图像中局部灰度相关性。当矩阵元素值均匀相等时,相关值就大;相反,如果矩阵像元值相差很大则相关值小。如果图像中有水平方向纹理,则水平方向矩阵的COR大于其余矩阵的COR值。
2023-08-15 11:52:591

灰度共生矩阵的介绍

灰度共生矩阵是一种通过研究灰度的空间相关特性来描述纹理的常用方法。
2023-08-15 11:53:071

图像纹理特征提取和检索。懂相关知识的大神求指导。

局部二值模式(LBP)最早由ojala等人于2002年提出[1];LBP能有效描述纹理特征,它对一个区域内的中心像素和相邻像素的差值选取合适的闽值进行二值化,从而得到局部二元图。基本LBP考虑的是—个像素的8邻域[2];个人认为LBP也属于统计法,因为其首先根据邻域大小确定模板数量及类型,再统计所有像素对应的模板在各类型下的数量,以此为依据统汁区域内每个像素的基本LBP纹理,得到LBP纹理直方图;[2]对LBP的介绍比较详细。灰度共生矩阵是一种通过研究灰度的空间相关特性来描述纹理的常用方法;由于纹理是由灰度分布在空间位置上反复出现而形成的,因而在图像空间中相隔某距离的两象素之间会存在一定的灰度关系,即图像中灰度的空间相关特性[3][3]对灰度共生矩阵的解释比较详细。[1]Ojala T;Pietikainen M;Maenpaa T Multiresolution gray-scale and rotation invariant texture classification with local binary patterns 2002(07)[2]李斌,程义民,张玲.基于纹理的运动目标检测.[3]http://wenku.baidu.com/view/84a1c051f01dc281e53af07c.html
2023-08-15 11:53:201

灰度共生矩阵的灰度共生矩阵的特征

直觉上来说,如果图像的是由具有相似灰度值的像素块构成,则灰度共生矩阵的对角元素会有比较大的值;如果图像像素灰度值在局部有变化,那么偏离对角线的元素会有比较大的值。通常可以用一些标量来表征灰度共生矩阵的特征,令G表示灰度共生矩阵常用的特征有: 也即每个矩阵元素的平方和。如果灰度共生矩阵中的值集中在某一块(比如对连续灰度值图像,值集中在对角线;对结构化的图像,值集中在偏离对角线的位置),则ASM有较大值,若G中的值分布较均匀(如噪声严重的图像),则ASM有较小的值。能量是灰度共生矩阵元素值的平方和,所以也称能量,反映了图像灰度分布均匀程度和纹理粗细度。如果共生矩阵的所有值均相等,则ASM值小;相反,如果其中一些值大而其它值小,则ASM值大。当共生矩阵中元素集中分布时,此时ASM值大。ASM值大表明一种较均一和规则变化的纹理模式。 如果灰度共生矩阵对角元素有较大值,IDM就会取较大的值。因此连续灰度的图像会有较大IDM值。逆差矩: 反映图像纹理的同质性,度量图像纹理局部变化的多少。其值大则说明图像纹理的不同区域间缺少变化,局部非常均匀。 若灰度共生矩阵值分布均匀,也即图像近于随机或噪声很大,熵会有较大值。熵是图像所具有的信息量的度量,纹理信息也属于图像的信息,是一个随机性的度量,当共生矩阵中所有元素有最大的随机性、空间共生矩阵中所有值几乎相等时,共生矩阵中元素分散分布时,熵较大。它表示了图像中纹理的非均匀程度或复杂程度。 其中自相关反应了图像纹理的一致性。如果图像中有水平方向纹理,则水平方向矩阵的COR大于其余矩阵的COR值。它度量空间灰度共生矩阵元素在行或列方向上的相似程度,因此,相关值大小反映了图像中局部灰度相关性。当矩阵元素值均匀相等时,相关值就大;相反,如果矩阵像元值相差很大则相关值小。最后,可以用一个向量将以上特征综合在一起。例如,当距离差分值(a,b)取四种值的时候,可以综合得到向量:h=[ASM1, CON1, IDM1, ENT1, COR1, ..., ASM4, CON4, IDM4, ENT4, COR4]综合后的向量就可以看做是对图像纹理的一种描述,可以进一步用来分类、识别、检索等。
2023-08-15 11:53:291

灰度共生矩阵怎么用MATLAB实现?

matlab提供了现成的函数
2023-08-15 11:53:443

Image J软件如何进行纹理分析(GLCM灰度共生矩阵参数),跪求大神简单介绍一下大致操作

matlab提供了现成的函数graycomatrix生成共生矩阵graycoprops计算其特征值具体用法:glcm = graycomatrix(I)从图像I创建灰度共生矩阵glcm。通过计算具有灰度级i和灰度级j的像素对在水平方向相邻出现的频繁程度。glcm中的每个元素说明了水平方向相邻像素对出现的次数。如果灰度级为L则glcm的维数为L*L。2.glcms = graycomatrix(I,param1,val1,param2,val2,...)根据参数对的设定,返回一个或多个灰度共生矩阵。参数说明:"GrayLimits":灰度界限,为二元向量[low high]。灰度值小于等于low 时对应1,大于等于high时对应于灰度级。如果参数设为[],则共生矩阵使用图像的最小和最大灰度值作为界限,即[min(I(:)) max(I(:))]。"NumLevels":整数,说明I中进行灰度缩放的灰度级数目。例如,如果NumLevel设为8,则共生矩阵缩放I中的灰度值使它们为1到8之间的整数。灰度级的数目决定了共生矩阵glcm的尺寸。缺省情况:数字图像:8;二进制图像:2。"Offset":p行2列整型矩阵,说明感兴趣像素与其相邻像素之间的距离。每行是一个说明像素对之间偏移关系的二元向量[row_offset, col_offset]。行偏移row_offset是感兴趣像素和其相邻像素之间的间隔行数。列偏移同理。偏移常表达为一个角度,常用的角度如下:(其中D为像素距离)角度 0 45 90 135Offset [0,D] [-D D] [-D 0] [-D -D]3.[glcms,SI] = graycomatrix(...)返回缩放图像SI,SI是用来计算灰度共生矩阵的。SI中的元素值介于1和灰度级数目之间。graycoprops:得到灰度共生矩阵得到各种属性stats = graycoprops(glcm, properties):从灰度共生矩阵glcm计算静态属性。glcm是m*n*p的有效灰度共生矩阵。如果glcm是一个灰度共生矩阵的矩阵,则stats是包括每个灰度共生矩阵静态属性的矩阵。graycoprops正规化了灰度共生矩阵,因此元素之和为1。正规化的GLCM中的元素(r,c)是具有灰度级r和c的定义的空间关系的像素对的联合概率。Graycoprops使用正规化的GLCM来计算属性。属性参数如下:1. "Contrast" : 对比度。返回整幅图像中像素和它相邻像素之间的亮度反差。取值范围:[0,(GLCM行数-1)^2]。灰度一致的图像,对比度为0。2. "Correlation" : 相关。返回整幅图像中像素与其相邻像素是如何相关的度量值。取值范围:[-1,1]。灰度一致的图像,相关性为NaN。3. "Energy" : 能量。返回GLCM中元素的平方和。取值范围:[0 1]。灰度一致的图像能量为1。4. "Homogemeity" : 同质性。返回度量GLCM中元素的分布到对角线紧密程度。取值范围:[0 1]。对角矩阵的同质性为1。
2023-08-15 11:53:521

在matlab中如何实现图像灰度共生矩阵?

closeallx0dx0aclearallx0dx0aclc;x0dx0aI=imread("F:图像变化检测imageTextureimage(3.27) exture5.tif");x0dx0a%I=rgb2gray(I);%%iftheinputimageisRGBform.x0dx0a%I=I(1:128,1:128);%%deriveasmallonejustfordemox0dx0aI=im2double(I);x0dx0aw=15;x0dx0aI1=wextend("2D","sym",I,(w-1)/2);%I=wextend("2D","sys",I,[w/2-1/2,w/2-1/2]);thisisusedforoddsizewindow%扫描窗口的大小15*15,为之后程序方便找中心点可以将窗口设置成4*4-32*32之间的任何奇数窗口x0dx0a%x0dx0a%s=4;%thisvariableisusedforsettingtherangeofthedistancebetweeniandj,rememberdon"tsetsatoobignum.x0dx0a%A=zeros(s,1);x0dx0a%B=(1:s)";x0dx0a%offsets1=[AB;-BB;-BA;-B-B];%%setsthedirectionsanddistancewithinthepexiliandjx0dx0a%x0dx0aoffsets1=[01];%水平单步x0dx0a%x0dx0a[m,n]=size(I1);x0dx0aI11=zeros(m,n);%定义5个矩阵用于存放由graycomatrix产生的5个参数x0dx0aI12=zeros(m,n);%这样就能够再执行完一次操作后,利用得到的各种特征参数矩阵分别去聚类分割x0dx0aI13=zeros(m,n);%这样总的耗时短,不用每次都重新执行扫描窗口和共生矩阵来产生特征参数(这个最耗费时间)x0dx0aI14=zeros(m,n);x0dx0aI15=zeros(m,n);x0dx0afori=(w+1)/2:m-(w-1)/2x0dx0aforj=(w+1)/2:n-(w-1)/2x0dx0aW=zeros();x0dx0aW=I1(i-(w-1)/2:i+(w-1)/2,j-(w-1)/2:j+(w-1)/2);x0dx0a[glcms,SI]=graycomatrix(W,"NumLevels",8,"G",[],"offset",offsets1);x0dx0astats=graycoprops(glcms,"all");x0dx0aCon=[stats.Contrast];x0dx0aH=[stats.Homogeneity];x0dx0aCor=[stats.Correlation];x0dx0aEe=[stats.Energy];x0dx0ax0dx0aeigenvalue=mean(Con);x0dx0aI11(i,j)=eigenvalue;x0dx0aI12(i,j)=mean(H);x0dx0aI13(i,j)=mean(Cor);x0dx0aI14(i,j)=mean(Ee);x0dx0aI15(i,j)=mean(En);x0dx0aendx0dx0aendx0dx0a%x0dx0aI2=I15((w+1)/2:m-(w-1)/2,(w+1)/2:n-(w-1)/2);%%得到原始图像x0dx0ama=max(I2(:));x0dx0ami=min(I2(:));x0dx0aI3=(I2-mi)/(ma-mi);%%归一化x0dx0aI3=im2double(I3);
2023-08-15 11:54:131

灰度共生矩阵生成的纹理特征值有哪几种

常见的统计量有:能量、对比度、熵、均匀性、均值、方差、非相似度、相关性。它们从不同的角度反映了影像的灰度分布、信息量及纹理粗细度。
2023-08-15 11:54:221