2.2 Initiation aux Réseaux Neuronaux

2.2.1 L'histoire

Au début des 1960s, deux groupes de recherche:

a) La Communauté IA traditionnelle (les systèmes symboliques):

Caractéristiques Principales:

Von Neuman Ordinateur

L'ordinateur exécute le cycle suivant d'événements à maintes reprises:

  1. prend une instruction de mémoire.
  2. prend tout données exigé par l'instruction de mémoire.
  3. exécute l'instruction (processus le données).
  4. met résultats dans mémoire.
  5. retourne en arrière en mesurer au pas 1).

Problèmes:

Le succès de l'approche symbolique dans IA dépend des conséquences des premier deux points qui suppose nous pouvons trouver un algorithme pour décrire la solution au problème. Il retourne ces grand nombre de tâches ordinaires pour que nous prenons accordées est difficile de formaliser dans ce chemin.

b) Les Cybernéticiens (les systèmes continus):

Dans 1942 Norbert Weiner et ses collègues formulaient les idées qui ont été baptisées 'Cybernétiques, et lequel il a défini comme 'Le contrôle et communication dans l'animal et le machine'. Central à ce programme, comme la description suggère, est l'idée que les mécanismes biologiques peuvent être traités d'un génie et perspective du les mathématiques. D'importance centrale ici est l'idée de réaction (feedback).

Caractéristiques Principales:

Et puis, pendant les 1960s, la communauté IA s'est intéressé avec la vision et les systèmes qui peux apprendre - ça fait la rapport entre IA et la neurobiologie.

2.2.2 La magie du cerveau humain

Les humains peuvent traiter beaucoup de types d'information plus rapidement que les machines. Par exemple, comprendre la langue parlée ou reconnaître des objets dans une scène visuelle - ces opérations prennent quelques cent millisecondes pour le cerveaux mais beaucoup plus pour un ordinateur - si même l'opération est possible!

(Discutez l'exemple de reconnaître des objets dans une image)

Mais, les unités de l'informatique de base du cerveau humain (neurones) ayez une vitesse de l'informatique de base de quelques millisecondes, beaucoup plus lente que les transistors dans un ordinateur moderne. Comment est-ce que le cerveau est capable d'exécuter plus rapide avec les composants plus lents?

Une petite biologie

Neuron

Caractéristiques Principales:

Les signaux sont transmis entre neurones par les pulsations électriques qui voyagent le long de l'axon. Ces pulsations s'heurtent sur le neurone afférent à terminaux appelé des synapses. Ceux-ci sont trouvés sur un ensemble de pousser des branches des processus qui émergent du corps cellulaire principalement (soma) connu comme dendrites.

Chaque pulsation qui se produit à un initiés de la synapse la parution d'une petite quantité de substance chimique ou neurotransmetteur qui voyagent à travers le synaptic a fendu et lequel est reçu à récepteur de synaptic après alors place sur le dendritic mettez-vous de la synapse. Le neurotransmetteur est borné aux emplacements moléculaires ici lequel, dans tour, commence un changement dans la capacité de la membrane du dendritic. Cet potentiel après-synaptic (PAS, Post-Synaptic Potential ou PSP en anglais) le changement peut servir pour augmenter (hyperpolarisez) ou baisse (dépolarisez) la polarisation de la membrane de synaptic après. Dans le cas précédent, le PAS a tendance à inhiber génération de pulsations dans le neurone afférent, pendant que dans le dernier, il a tendance à exciter la génération de pulsations. La dimension et type de PAS produits dépendront des facteurs tel que la géométrie de la synapse et le type de neurotransmetteur.

Chaque PAS voyagera le long de son dendrite et s'est étendu sur le soma, en arrivant à la base de l'axon finalement (axon petite colline). Le neurone afférent additionne ou intègre les effets de milliers de tel PASs sur son arbre du dendritic et avec le temps. Si la capacité intégrée à l'axon petite colline dépasse un seuil, le neurone produit une action potentiel ou pointe qui commence à voyager le long de son axon. Cela commence encore la séquence entière d'événements dans neurones contenus dans le chemin de l'efferent alors.

2.2.3 Les neurones artificiels: le ULS (l'Unité de la Logique du Seuil ou Threshold Logic Unit en anglais)

Les renseignements traiter a exécuté dans ce chemin peut être résumé grossièrement comme suit: les signaux (action capacités) paraissez aux entrées de l'unité (synapses). L'effet (PAS) chaque signal a peut être se rapproché en multipliant le signal par quelque nombre ou peut être pesé pour indiquer la force de la synapse. Les signaux chargés d'un poids sont maintenant additionnés pour produire une activation de l'unité totale. Si cette activation dépasse un certain seuil l'unité produit un une réponse de la production. Ces fonctionnalités sont capturées dans le neurone artificiel connu comme l'Unité de la Logique du Seuil (ULS, Threshold Logic Unit ou TLU en anglais) originalement a proposé par McCulloch et Pitts [McCulloch et Pitts, 1943]:

Un neurone artificiel

Nous supposons il y a des entrées n avec les signaux x1, x2, ..., xn and poids w1, w2, ..., wn. Les signaux prennent les valeurs '1' ou '0' seulement. (Cela autorise leur relation à circuits de la logique numériques être discuté). L'activation, a, est donné par:

a = x 1 w 1 + x 2 w 2 + . . . + x n w n

ou

a = x i w i i = 1 n

La production y est donné par le seuil d'activation alors:

y = 1 si a >= θ , y = 0 si a < θ

Le seuil (threshold en anglais), θ , est souvent zéro. La fonction du seuil est appelée une pas fonction ou limiteur dur pour les raisons évidentes quelquefois. Si nous sommes pousser l'analogie avec les vrais neurones, la présence d'une action capacité est dénotée par binaire '1' et son absence par binaire '0'.

Importante:

Ou reste les donnees dans ce modèle? - dans les poids et avec le seuil.

Aussi, remarquez qu'il n'y a aucune mention de temps si loin - l'unité répond au sien entré instantanément alors que les vrais neurones intègrent avec le temps aussi bien qu'espace; comme ce peut être à ceci peut être remédié sera discuté plus tard.

2.2.4 Un petit réseau neuronaux

La définition:

Un Réseau Neuronaux est une assemblée communiquant d'éléments du traitement simples, unités ou noeuds dont les fonctionnalités sont basées vaguement sur le neurone animal. La capacité du traitement du réseau est entreposée dans l'enterrez des unité rapport forces, ou poids, obtenus par un processus d'adaptation à, ou apprendre de, un ensemble de former des modèles.

En anglais:

A Neural Network is an interconnected assembly of simple processing elements, units or nodes, whose functionality is loosely based on the animal neuron. The processing ability of the network is stored in the inter-unit connection strengths, or weights, obtained by a process of adaptation to, or learning from, a set of training patterns.

Un exemple simple: un réseau pour représenter le fonction logique AND

x1 x2 y
0 0 0
0 1 0
1 0 0
1 1 1

Nous pouvons représenter cette fonction comme graphiquement:

AND fonction

Nous allons utiliser un réseaux avec un seul neurone (perceptron) et avec deux entrées:

AND Perceptron

Une procédure simple pour former le réseau:

Par exemple:

x1 x2 w1 w2 a θ y
0 0 0.1 0.3 0.0 1.0 0
0 1 0.1 0.3 0.3 1.0 0
1 0 0.1 0.3 0.1 1.0 0
1 1 0.1 0.3 0.4 1.0 0
1 1 0.4 0.6 1.0 1.0 1

Très importante:

Nous pouvons écrire un algorithme tel que le réseau apprend par lui-même! (Common? En adaptant les poids dans le réseau)

Donné assez d'unités et pouvoir du traitement suffisant, les réseaux neuronaux peuvent être construire pour modeler des fonctions très complexes (ou pour reconnaître des modèles) - l'armée des États-Unis a développé des réseaux neurones pour reconnaître les chars en brousse (comme d'habitude, la majorité d'argent de la recherche est dirigée vers candidatures militaires - mais souvenez-vous où l'Internet est né!). Beaucoup de candidatures tel que le traitement des images médical.

La prochaine classe - Les Réseaux multi-couche et la rétro-propagation

préparé février 2001 par David Croft