考虑如图所示的加权无向图,每一条边上的权值都代表了该链路的通信费用或者时间。
5221214333311256设l(i,j)是从结点i到结点j的链路长度,当i和j不直接相连时链路长度为+∞,并且设D(n)是从源结点到结点n的最短通路长度,n∈N。假定结点1为源结点,则:(1)初始化:置N={1},对每一个v∈/N,置D(v)=l(1,v)。
(2)重复:找出一个结点w∈/N,且d(w)是最小的,把w加入N。然后对所有不属于N的结点v按下式更新D(v)
D(v)=Min[D(v),D(v)+l(v,w)]
计算过程如表所示。
步骤初始化12345
N{1}{1,4}{1,4,2}{1,4,2,5}{1,4,2,5,3}{1,4,2,5,3,6}
D(2)222222
D(3)544333
D(4)111111
D(5)∞22222
D(6)∞∞∞444
产生的最短通路树如图所示。
231645路由表如下。
目标结点
23456
转发结点
24444
2感知器
感知器的模型如下:
1
𝑋1 𝑋2 𝑋𝑖 𝑋𝑁 𝑤1 w 𝑤𝑖 Σ 1bfy𝑤𝑁 两输入感知器模型如下:
𝑝1 𝑤1 𝑤2 Σ 1b01a
𝑝2 试用单个感知器神经元完成下列分类,写出其训练的迭代过程,画出最终的分类示意图。已知:
{[]}{[]}
12
,t1=0;X2=,t1=1;X1=
−22
{
X3=
[]
−2
2
}{
,t1=0
;X4=
[
−10
]
,t1=1
}
;
解:据题意,神经元有2个输入量,传输函数为阈值型函数。于是以如图所示的感知器完成分类。(1)初始化,W(0)=[0(2)第1次迭代,
0],b(0)=0
(
a=f(n)=f(W(0)X1+b(0))=f
[00]
[]2
2
)
+0
=f(0)=1
e=t1−a=0−1=−1
因为输出不等于目标值,所以调整权值和阈值
T
W(1)=W(0)+eX1=[0
0]+(−1)[22]=[−2−2]
b(1)=b(0)+e=0+(−1)=−1
(3)第2次迭代。以第2个输入样本作为输入向量,以调整后的权值和阈值进行计算
([])
1
a=f(n)=f(W(1)X2+b(1))=f[−2−2]+(−1)=f(1)=1
−2
e=t2−a=1−1=−0
2
因为输出a等于目标值t2,所以无需调整权值和阈值:
W(2)=W(1)=[−2
b(2)=b(1)=−1
(4)第3次迭代。以第3个输入样本作为输入向量,以调整后的权值W(3)和阈值b(3)进行计算
([])
−2
a=f(n)=f(W(2)X3+b(2))=f[−2−2]+(−1)=f(−1)=0
2
e=t3−a=0−0=0
因为输出a等于目标值t3,所以无需调整权值和阈值:
W(3)=W(3)=[−2
b(3)=b(2)=−1
(5)第4次迭代。以第4个输入样本作为输入向量,以调整后的权值W(2)和阈值b(2)进行计算
([])
−1
a=f(n)=f(W(3)X3+b(3))=f[−2−2]+(−1)=f(1)=1
0
e=t4−a=0−0=−0
因为输出a等于目标值t4,所以无需调整权值和阈值:W(4)=W(4)=[−2
b(4)=b(3)=−1
(6)以后各次迭代又从第1个输入样本开始,最为输入向量,以前一次的权值和阈值进行计算,直
到调整后的权值和阈值对所有的输入样本,其输出的误差为零为止。进行第5次迭代
)([]
2
a=f(n)=f(W(4)X1+b(4))=f[−2−2]+(−1)=f(−9)=0
2
e=t1−a=0−0=−0
因为输出a等于目标值t1,所以无需调整权值和阈值:
W(5)=W(4)=[−2
b(5)=b(4)=−1
可以看出,W=[−2的权值和阈值。其边界由下列直线方程(边界方程)决定:
n=WX+b=[−2
−2]
−2],b=−1对所有的输入样本,其输出误差为零,所以为最终调整后−2]−2]−2]−2]
[]x1
x2
+(−1)
=−2x1−2x2−1=0
3
3学习向量量化
wj(k+1)=wj(k)±η(k)[xi−wi(k)]
给出了一个非常简单的7个四维向量被分配到两个类型的例子。7个向量和所属的类型如下:
x1=[1,0,0,1]T→1x2=[0,1,1,0]T→2x3=[0,0,0,1]T→2x4=[1,0,0,0]T→1x5=[1,1,1,0]T→1x6=[0,1,1,1]T→2x7=[1,1,1,1]T→1
训练回合一(1)初始化权值
w1=[1,0,0,1]Tw2=[0,1,1,0]T
(classCw1=1)(classCw2=2)
(2)对于类别Cx3=2的输入向量x3=[0,0,0,1]T,检查
∥x3−w2∥22=3
∥x3−w1∥22=1⇒min⇒q=1
并且由于Cw3=Cw1,移动权值向量w1远离x3,也就是计算:
w1=[1,0,0,1]T−0.1([0,0,0,1]T−[1,0,0,1]T)=[1.1,0,0,1]T
(3)对于类别Cx4=1的输入向量x4=[1,0,0,0]T,检查
∥x4−w2∥22=3
∥x4−w1∥22=1.01⇒min⇒q=1
并且由于Cx4=Cw1,沿x4移动权值向量w1,也就是计算:
w1=[1.1,0,0,1]T+0.1([1,0,0,0]T−[1.1,0,0,1]T)=[1.09,0,0,0.9]T
(4)对于类别Cx5=1的输入向量x5=[1,1,1,0]T,检查
∥x5−w2∥22=2.818
∥x5−w1∥22=1⇒min⇒q=2
4
并且由于Cx5=Cw2,移动权值向量w2远离x5,也就是计算:
w2=[0,1,1,0]T−0.1([1,1,1,0]T−[0,1,1,0]T)=[−0.1,1,1,0]T
(5)对于类别Cx6=2的输入向量x6=[0,1,1,1]T,检查
∥x6−w1∥22=3.198
∥x6−w2∥22=1.01⇒min⇒q=2
并且由于Cw6=Cw2,沿x6移动权值向量w2,也就是计算:
w2=[−0.1,1,1,0]T+0.1([0,1,1,1]T−[−0.1,1,1,0]T)=[−0.09,1,1,0.1]T
(6)对于类别Cx7=1的输入向量x7=[1,1,1,1]T,检查
∥x7−w1∥22=2.018
∥x7−w2∥22=1.998⇒min⇒q=2
并且由于Cx7=Cw2,移动权值向量w2远离x6,也就是计算:
w2=[−0.09,1,1,0.1]T−0.1([1,1,1,1]T−[−0.09,1,1,0.1]T)=[−0.199,1,1,0.01]T
5
因篇幅问题不能全部显示,请点此查看更多更全内容