lzth.net
当前位置:首页 >> Bp神经网络mAtlAB实例 >>

Bp神经网络mAtlAB实例

当你用newff的时候,里面有一个参数可以控制层数,比如说: P = [0 1 2 3 4 5 6 7 8 9 10]; T = [0 1 2 3 4 3 2 1 2 3 4]; net = newff(P,T,5); %这样表示有1个隐藏层,里面那个5表示神经元的个数 net = newff(P,T,[5,10]); %这样表示有2个隐藏...

不要用截图,不能直接利用,要方便别人利用来写程序、调试。可直接帖数据或发文件,否则,要别人一个一个再输入数据,可能要花时间。请补充下。

由于各个网络层的作用的不同,选择的激活函数的不同结果将会有恒大的区别 所以要注意 输出层一般采用 logsig purelin 隐含层采用 tansig logsig 同时要注意设置其他属性如最小梯度min_grad 等等

fscanf函数我不太了解,一般数值可以存在xls或csv文档中,由txt文件转到csv文件极其简单。然后由csvread或xlsread函数读取,直接可以存到矩阵中。 一个样本是矩阵的一列,而不是行。(当然归一化是以行为单位的)

代码如下:直接运行就是了。 P=P=[-1, -2, 3, 1; -1, 1, 5, -3; -2, 3, 4, 6; 1, 2, 3, 4 ];%初始训练值% 创建一个新的前向神经网络 net=newff(minmax(P),[8,1],{'tansig','purelin'},'traingdm')% 当前输入层权值和阈值 inputWeights=net.IW{1,...

可以做,示例如下,是拟合一个6输入1输出的函数: 在matlab2013b里运行。必须有神经网络工具箱。 clear all; close all;x = [1 2 3 4 5 6 7 8 9; 1 2 3 2 1 2 1 1 2; ... 1 3 3 4 5 5 5 4 2 ; 2 1 1 2 2 1 2 2 1; ... 1 1 1 2 2 2 2 3 1 ; 1 2 1...

你用的是matlab的神经网络工具箱吧。那是因为权值和阈值每次都是随机初始化的,所以结果就会不一样, 你可以把随机种子固定,即在代码前面加上setdemorandstream(pi); 这样每次训练出来的结果都是一样的了。 看来楼主是刚开始学习神经网络的,推...

应该是点performance那个按钮,显示一个误差下降曲线图。 事实上,不需过分关注这条曲线,除非是研究改进算法提高收敛速度的。一般关注网络的实际训练效果,以及实际应用能力,如预测能力等。 BP(Back Propagation)神经网络是1986年由Rumelhar...

newff 创建前向BP网络格式: net = newff(PR,[S1 S2...SNl],{TF1 TF2...TFNl},BTF,BLF,PF) 其中:PR —— R维输入元素的R×2阶最大最小值矩阵; Si —— 第i层神经元的个数,共N1层; TFi——第i层的转移函数,默认‘tansig’; BTF—— BP网络的训练函数,...

额。。。 一种启发式的改进就是,为学习速率选用自适应值,它依赖于连续迭代步骤中的误差函数值。 自适应调整学习速率的梯度下降算法,在训练的过程中,力图使算法稳定,同时又使学习的步长尽量地大,学习速率则是根据局部误差曲面作出相应的调整。...

网站首页 | 网站地图
All rights reserved Powered by www.lzth.net
copyright ©right 2010-2021。
内容来自网络,如有侵犯请联系客服。zhit325@qq.com