是早期神经网络的主要形式
ChatGPT的底层逻辑 McCulloch Pitts神经元模型 :Warren McCulloch 和 Walter Pitts 首次提出了神经元的McCulloch Pitts M P 模型,借鉴了已知的神经细胞生物过程原理。 感知器 :由FranRosenblatt提出的感知器模型基于生物神经元的工作原理,。 Minsky和Papert : Marvin Minsky和Seymour Papert指出了感知器的局限性,即它们无法解决非线性可分问题 例如异或问题 。这部分导致了第一次人工智能寒冬。 多层感知器 :在Rumelhart,Hinton和Williams的研究下,多层感知器 MLP 成为了神经网络的主要形式。
MLP引入了一个或多
个隐藏层,并使用了反向传播算法来训练网络。 卷积神 拉脱维亚号码数据 经网络和LeNet :Yann LeCun等人提出的卷积神经网络 CNN 是一种专门处理网格状数据 如图像 的神经网络。LeCun和他的团队在年开发出了LeNet ,这是第一个成功应用到实际问题 数字识别 的卷积神经网络。 长短期记忆网络 :由Hochreiter和Schmidhuber提出的长短期记忆网络 LSTM 是一种专门处理序列数据的循环神经网络。
LSTM通过引入门结构
可以学习长期依赖关系,避免了传统RNN在处理长 肯尼亚电话号码列表 序列时的梯度消失问题。 深度学习和深度置信网络 DBN, :Hinton等人提出了深度置信网络 DBN 和深度自编码器 DAE ,标志着深度学习时代的到来。深度学习利用多层神经网络,能够学习更复杂的模式和表示。 ReLU激活函数 :Nair和Hinton提出了修正线性单元 ReLU 作为神经元的激活函数,这极大提高了深度神经网络的训练速度和性能。