Aller au contenu

ADALINE

Un article de Wikipédia, l'encyclopédie libre.
La version imprimable n’est plus prise en charge et peut comporter des erreurs de génération. Veuillez mettre à jour les signets de votre navigateur et utiliser à la place la fonction d’impression par défaut de celui-ci.

ADALINE (Adaptive Linear Neuron ou plus tard Adaptive Linear Element) est un réseau de neurones artificiels simple-couche.

Il a été développé par le professeur Bernard Widrow et un de ses étudiants, Ted Hoff, de l'université Stanford en 1960. Adaline s'appuie sur le neurone formel de McCulloch et Pitts. Il se compose d'un poids synaptique, d'un biais (une constante qu'on ajoute à l'entrée) et d'une fonction de sommation.

La différence entre Adaline et le modèle de McCulloch-Pitts réside dans la phase d'apprentissage, où les poids synaptiques sont ajustés en fonction de la somme pondérée des données en entrées. Dans le perceptron standard (McCulloch-Pitts), le réseau passe par la fonction d'activation (ou fonction de transfert) et la fonction de sortie est utilisée pour ajuster les poids synaptiques.

Il existe aussi une extension appelée Madaline.

Définition

Adaline est un réseau neuronal simple-couche, avec plusieurs nœuds, chacun acceptant plusieurs entrées et générant une sortie. Étant données les variables suivantes :

  • x, le vecteur d'entrée
  • w, le « vecteur poids »
  • n, le nombre d'entrées
  • , une constante
  • y, la sortie

on a alors : .

Et si on suppose que :

alors la sortie se réduit au produit scalaire de x et w :

Algorithme d'apprentissage

Posons :

  • , le taux d'apprentissage (une constante)
  • d, la sortie désirée
  • o, la sortie réelle,

alors les poids sont mis à jour comme suit : .
Adaline converge vers l'erreur des moindres carrés qui est :