什么是感知器?它的局限性是什么?如何在机器学习中克服这些局限性?
神经网络最基本的例子是“感知器”。它是由 Frank Rosenblatt 在 1957 年发明的。感知器是一种类似于逻辑回归的分类算法。这是因为,与逻辑回归类似,感知器具有权重 w 和输出函数 'f',它是权重和输入的点积。
唯一的区别在于 'f' 是一个简单的阶跃函数,而逻辑回归规则应用于逻辑函数的输出。另一方面,感知器可以理解为一个简单的单层神经前馈网络的例子。
感知器曾被认为是一种很有前景的网络形式,但后来人们发现它有一定的局限性。这是因为感知器只能处理线性可分类。
一些科学家甚至发现并指出,感知器甚至无法学习像“异或”这样简单的逻辑函数。但是其他类型的神经网络可以用来克服这个问题。
具有多个相互连接的感知器并组织在不同顺序层中的多层感知器在某些情况下会给出良好的精度。这将包括一个输入层、一个或多个隐藏层和一个输出层。
每一层中的每个单元都连接到下一层的所有单元。信息传递到输入层,并使用激活函数来获得该层的输出。
一层的输出作为下一层的输入传递,并进一步传播,直到最后一层。因此,命名为“前馈”网络。
神经网络可以使用梯度下降算法和反向传播进行训练。
广告