Au début des 1960s, deux groupes de recherche:
a) La Communauté IA traditionnelle (les systèmes symboliques):
Caractéristiques Principales:
L'ordinateur exécute le cycle suivant d'événements à maintes reprises:
Problèmes:
Nous ne devons pas donner une série exacte de pas à un bébé humain pour fonctionner. D'une façon ou d'une autre c'est capable d'apprendre tout seul.
Comment est-ce que nous reconnaissons caractères manuscrits, les exemples particuliers de lequel, avant que nous n'avons jamais pu voir, ou quelqu''un visage d'un angle nous n'avons jamais rencontré?
Le cerveau continue à fonctionner même quand endommagé. Pendant la deuxième guerre mondiale, il y avait des soldats qui ont été tirés dans la tête - ils ont perdu quelque mémoire mais pourraient fonctionner autrement normalement
Le succès de l'approche symbolique dans IA dépend des conséquences des premier deux points qui suppose nous pouvons trouver un algorithme pour décrire la solution au problème. Il retourne ces grand nombre de tâches ordinaires pour que nous prenons accordées est difficile de formaliser dans ce chemin.
b) Les Cybernéticiens (les systèmes continus):
Dans 1942 Norbert Weiner et ses collègues formulaient les idées qui ont été baptisées 'Cybernétiques, et lequel il a défini comme 'Le contrôle et communication dans l'animal et le machine'. Central à ce programme, comme la description suggère, est l'idée que les mécanismes biologiques peuvent être traités d'un génie et perspective du les mathématiques. D'importance centrale ici est l'idée de réaction (feedback).
Caractéristiques Principales:
Et puis, pendant les 1960s, la communauté IA s'est intéressé avec la vision et les systèmes qui peux apprendre - ça fait la rapport entre IA et la neurobiologie.
Les humains peuvent traiter beaucoup de types d'information plus rapidement que les machines. Par exemple, comprendre la langue parlée ou reconnaître des objets dans une scène visuelle - ces opérations prennent quelques cent millisecondes pour le cerveaux mais beaucoup plus pour un ordinateur - si même l'opération est possible!
(Discutez l'exemple de reconnaître des objets dans une image)
Mais, les unités de l'informatique de base du cerveau humain (neurones) ayez une vitesse de l'informatique de base de quelques millisecondes, beaucoup plus lente que les transistors dans un ordinateur moderne. Comment est-ce que le cerveau est capable d'exécuter plus rapide avec les composants plus lents?
Caractéristiques Principales:
Les signaux sont transmis entre neurones par les pulsations électriques qui voyagent le long de l'axon. Ces pulsations s'heurtent sur le neurone afférent à terminaux appelé des synapses. Ceux-ci sont trouvés sur un ensemble de pousser des branches des processus qui émergent du corps cellulaire principalement (soma) connu comme dendrites.
Chaque pulsation qui se produit à un initiés de la synapse la parution d'une petite quantité de substance chimique ou neurotransmetteur qui voyagent à travers le synaptic a fendu et lequel est reçu à récepteur de synaptic après alors place sur le dendritic mettez-vous de la synapse. Le neurotransmetteur est borné aux emplacements moléculaires ici lequel, dans tour, commence un changement dans la capacité de la membrane du dendritic. Cet potentiel après-synaptic (PAS, Post-Synaptic Potential ou PSP en anglais) le changement peut servir pour augmenter (hyperpolarisez) ou baisse (dépolarisez) la polarisation de la membrane de synaptic après. Dans le cas précédent, le PAS a tendance à inhiber génération de pulsations dans le neurone afférent, pendant que dans le dernier, il a tendance à exciter la génération de pulsations. La dimension et type de PAS produits dépendront des facteurs tel que la géométrie de la synapse et le type de neurotransmetteur.
Chaque PAS voyagera le long de son dendrite et s'est étendu sur le soma, en arrivant à la base de l'axon finalement (axon petite colline). Le neurone afférent additionne ou intègre les effets de milliers de tel PASs sur son arbre du dendritic et avec le temps. Si la capacité intégrée à l'axon petite colline dépasse un seuil, le neurone produit une action potentiel ou pointe qui commence à voyager le long de son axon. Cela commence encore la séquence entière d'événements dans neurones contenus dans le chemin de l'efferent alors.
Les renseignements traiter a exécuté dans ce chemin peut être résumé grossièrement comme suit: les signaux (action capacités) paraissez aux entrées de l'unité (synapses). L'effet (PAS) chaque signal a peut être se rapproché en multipliant le signal par quelque nombre ou peut être pesé pour indiquer la force de la synapse. Les signaux chargés d'un poids sont maintenant additionnés pour produire une activation de l'unité totale. Si cette activation dépasse un certain seuil l'unité produit un une réponse de la production. Ces fonctionnalités sont capturées dans le neurone artificiel connu comme l'Unité de la Logique du Seuil (ULS, Threshold Logic Unit ou TLU en anglais) originalement a proposé par McCulloch et Pitts [McCulloch et Pitts, 1943]:
Nous supposons il y a des entrées n avec les signaux x1, x2, ..., xn and poids w1, w2, ..., wn. Les signaux prennent les valeurs '1' ou '0' seulement. (Cela autorise leur relation à circuits de la logique numériques être discuté). L'activation, a, est donné par:
ou
La production y est donné par le seuil d'activation alors:
Le seuil (threshold en anglais), , est souvent zéro. La fonction du seuil est appelée une pas fonction ou limiteur dur pour les raisons évidentes quelquefois. Si nous sommes pousser l'analogie avec les vrais neurones, la présence d'une action capacité est dénotée par binaire '1' et son absence par binaire '0'.
Importante:
Ou reste les donnees dans ce modèle? - dans les poids et avec le seuil.
Aussi, remarquez qu'il n'y a aucune mention de temps si loin - l'unité répond au sien entré instantanément alors que les vrais neurones intègrent avec le temps aussi bien qu'espace; comme ce peut être à ceci peut être remédié sera discuté plus tard.
La définition:
Un Réseau Neuronaux est une assemblée communiquant d'éléments du traitement simples, unités ou noeuds dont les fonctionnalités sont basées vaguement sur le neurone animal. La capacité du traitement du réseau est entreposée dans l'enterrez des unité rapport forces, ou poids, obtenus par un processus d'adaptation à, ou apprendre de, un ensemble de former des modèles.
En anglais:
A Neural Network is an interconnected assembly of simple processing elements, units or nodes, whose functionality is loosely based on the animal neuron. The processing ability of the network is stored in the inter-unit connection strengths, or weights, obtained by a process of adaptation to, or learning from, a set of training patterns.
x1 | x2 | y |
0 | 0 | 0 |
0 | 1 | 0 |
1 | 0 | 0 |
1 | 1 | 1 |
Nous pouvons représenter cette fonction comme graphiquement:
Nous allons utiliser un réseaux avec un seul neurone (perceptron) et avec deux entrées:
Une procédure simple pour former le réseau:
Par exemple:
x1 | x2 | w1 | w2 | a | y | |
0 | 0 | 0.1 | 0.3 | 0.0 | 1.0 | 0 |
0 | 1 | 0.1 | 0.3 | 0.3 | 1.0 | 0 |
1 | 0 | 0.1 | 0.3 | 0.1 | 1.0 | 0 |
1 | 1 | 0.1 | 0.3 | 0.4 | 1.0 | 0 |
1 | 1 | 0.4 | 0.6 | 1.0 | 1.0 | 1 |
Très importante:
Nous pouvons écrire un algorithme tel que le réseau apprend par lui-même! (Common? En adaptant les poids dans le réseau)
Donné assez d'unités et pouvoir du traitement suffisant, les réseaux neuronaux peuvent être construire pour modeler des fonctions très complexes (ou pour reconnaître des modèles) - l'armée des États-Unis a développé des réseaux neurones pour reconnaître les chars en brousse (comme d'habitude, la majorité d'argent de la recherche est dirigée vers candidatures militaires - mais souvenez-vous où l'Internet est né!). Beaucoup de candidatures tel que le traitement des images médical.
La prochaine classe - Les Réseaux multi-couche et la rétro-propagation
préparé février 2001 par David Croft