文章图片标题

外部特征建模变量的选取

分类:论文资源库 作者:admin 评论:0 点击: 632 次

为降低无效特征的干扰,采用反向间隔偏最小二乘法 BiPLS 的思想选取建模特征变量"最终选取的建模特征为:大小特征!红色百分比!颜色标准差!圆形度!对称性!果形平均距离方差!水果纹理相关系数方差!水果纹理熵方差!果蒂纹理相关系数均值!果蒂纹理角二阶矩均值共 10 个外部特征" 。
神经网络隐层节点的选取 隐层节点采用试凑法,经过多次实验,选用 4 层 BP 网络,其中包括输入层!隐层 1!隐层 2!输出层;隐层 1 节点数为 22,隐层 2 节点数为 10,输出层节点数为经过训练的 BP 神经网络模型对校正集样品的正确率很高,可以达到 100%,但对测试集样品的正确率却只有 64%,泛化能力不足;产生这样问题的根源在于 ANN 是基于经验风险最小化原则以及训练终止于局部最优而非全局最优,统计学习理论是由 Vapnik 建立的一种专门研究小样本情况下机器学习规律的理论,支持向量机(Support Vector Machines,SVM)是在这一理论基础上发展而来的一种新的通用学习方法"本节尝试采用支持向量机建立外部特征的苹果糖度分级模型,以提高测试集样品分级正确率" 。
支持向量机通过结构风险最小化原理来提高泛化能力,较好地解决了小样本!非线性!高维数!局部极小点等实际问题,已在许多领域得到了应用"它的主要思想如下:针对线性可分情况进行分析,对于线性不可分的情况,通过使用非线性映射算法将低维输入空间线性不可分的样本转化为高维特征空间使其线性可分,从而使得高维特征空间采用线性算法对样本的线性特征进行分析称为可能;基于结构风险最小化理论,在特征空间中建构最优分割超平面,使得学习机得到全局最优化,并且在整个样本空间的期望风险以某个概率满足一定的上界" 支持向量机的基本思想,对于图中两类线性可分样本,最大化训练集的分类间隔(Margin)" 。




声明: 本文由( admin )原创编译,转载请保留链接: https://www.hxlww.net/16775/hxlwfb

近期评论