Fonctionnement des intelligences naturelles et artificielles

De Lillois Fractale Wiki
Aller à la navigation Aller à la recherche

Introduction

Il y a quelques jours j'ai lu un document très intéressant sur l'intelligence artificielle, et les 4 théories qui l'entourent.

Cela s'est baladé un peu dans mes neurones...

A mon réveil ce matin, je me suis demandé à laquelle des 4 théories j'adhérerais. Je me suis convaincu que j'adhérais à la seconde. Ensuite j'ai imaginé les modalités de le seconde théorie, et c'est ce qui m'a amené à écrire cet article.

Il y a deux problèmes:

  • comprendre ou deviner le fonctionnement des intelligences naturelles, et en particulier celle, supposée performante, de l'homo sapiens
  • imaginer les rouages de machines dotées d'intelligence artificielle, quelque chose comme un nouveau type d'ordinateur

Ces deux problème n'en sont qu'un, ou du moins les solutions sont étroitement liées. C'est d'ailleurs assez paradoxal. Implicitement cela signifierait que rechercher la 'meilleure forme d'intelligence' revient à comprendre celle des HS. Cela signifierait que l'intelligence des HS est la plus performante possible. C'est particulièrement anthropocentrique. Mais cela peut s'expliquer, de deux manières au moins. Cela peut s'expliquer par l'efficacité du dispositif essai/sélection propulsant la sélection naturelle. Cela peut aussi s'expliquer par les limites de ceux qui se posent ce genre de questions: vous et moi. Le champs de ce que nous pouvons comprendre ou imaginer est vraisemblablement limité par le fonctionnement de notre propres intelligence. Le mieux que nous puissions concevoir serait notre réalité, fut-elle subtile, complexe, cachée. Lä dedans s'inscrivent mon réveil, et l'intuition que j'essaye de décrire plus bas.

Je ne suis ni psychologue, ni neurologue, ni expert en intelligence artificielle. Ma spécialité est la modélisation, et j'ai pris le problème par les bouts suivants:

  • L'introspection: comment fonctionnent mes perceptions, mes souvenirs, et ce qui en découle
  • L'engineering modélisant: comment concevoir une machine remplissant la fonction d'intelligence

Dans ce ce qui suit, les mots neurones et canaux n'ont pas une signification biologique. Ce sont les composants d'un certain modèle abstrait qui est décrit en rapport avec les problèmes mentionnés plus haut.

A quel point ceci est est-il neuf ? A quel point ceci coïncide-il avec des travaux et résultats obtenus au moyens de réseaux neuronaux ? Aucune idée ! A vérifier bientôt.

Composants du modèle : neurones, canaux, messages

Message

Un message est un petit signal élémentaire.

Il est caractérisé, en tout et pour tout, par une amplitude (la 'force du signal'), et par un pattern (structure, digitale ou analogique).

L'amplitude peut être considérée comme la force du signal.

Le pattern est une structure généralement quelconque, digitale ou analogique. La seule caractéristique remarquable d'un pattern est de pouvoir être comparé à un autre pattern.

Neurone

Le neurone est lié à d'autres neurones par des canaux.

Le neurone reçoit et envoie des messages par les canaux auxquels il est connecté.

Le neurone enregistre un ou plusieurs pattern de message reçus. C'est une forme de mémoire. Le contenu de la mémoire évolue dans le temps en fonction des patterns arrivants.

Le neurone propage les messages reçus et/ou les message enregistrés. Il en accroît ou décroît l'amplitude dans la mesure où le message reçu ressemble à un pattern enregistré.

La performance principale du neurone est donc une mesure de ressemblance.

D'une manière, le neurone agit comme une 'résistance'. Si la résistance est forte l'amplitude du signal est diminuée.  Si la résistance est faible l'amplitude est augmentée. Dans le cas d'une amplitude moyenne, l'amplitude est inchangée.

Le neurone est un relais de messages.

Canal

Un canal lie deux neurones et véhicule des messages de l'une à l'autre de ses extrémités.

Le canal ne change pas le pattern des messages transmis.

Proportionnellement à sa propre fréquence d'utilisation, le canal conserve l'amplitude des messages transmis.  Un canal très actif conserve l'amplitude des messages. Un canal peu actif entraîne une perte d'amplitude.

Fonctionnement basique

Conditions initiales

Quelques neurones simples et vierges (sans pattern) existent.

Des canaux d'entrées envoient des messages à ces neurones. Ces messages sont structurés par l'environnement. Ces canaux d'entrée ne sont que des capteurs.

Les canaux d'entrées continueront à fonctionner sans interruption.

Construction et destruction de neurone

Les neurones les plus actifs se scindent. Les deux neurones résultant de la scission héritent soit du (des) même(s) pattern(s), soit se partagent les patterns au hasard.

Les deux neurones résultant sont liés par un canal neuf.

Les deux neurones résultant héritent des canaux de connections au hasard.

Construction et destruction de canal

Un canal totalement inactif ne transmet plus rien, et disparaît.

Les canaux les plus actifs se dédoublent.

Evolution des patterns neuronaux

Les patterns locaux mémorisé dans les neurones évoluent.

Si les patterns des messages entrants sont très différent des patterns neuronaux, les patterns neuronaux ne sont pas affectés.

Si les patterns des messages entrants sont totalement identiques aux patterns neuronaux, les patterns neuronaux ne sont pas affectés.

S'il existe de faibles différences entre pattern entrants et pattern neuronal, celui-ci subit une légère modification, qui tend à le rendre plus proche du pattern entrant.

Mesure de ressemblance de pattern

La mesure de ressemblance est l'activité principale du neurone.

Cette mesure est une valeur en logique floue. C'est une valeur sur une échelle scalaire (mettons de 0.0 à 1.0) obtenue par comparaison de deux patterns.

Appelons ici la mesure de ressemblance entre deux patterns pa et pb, R(pa,pb). A l'inverse la dissemblance est D(pa,pb), et D(pa,pb) = 1.0 - R(pa,rb)

L'algorithme (naturel ou artificiel) doit obéir aux conditions suivantes:

  • Une ressemblance maximale (mettons la valeur 1.0) est obtenue entre deux patterns identique.
  • Une ressemblance minimale (mettons la valeur 0.0) est obtenue entre deux patterns ne présentant aucune similitude.
  • Deux patterns indépendants et aléatoires ont une ressemblance espérée très faible (très proche de 0.0).
  • Symétrie : R(pa,pb) = R(pa,pb)             D(pa,pb) = D(pa,pb)
  • Triangulation : 1.0 - R(pa,pb) < 1.0 - R(pa,pc) + 1.0 - R(pa,pb)          D(pa,pb) < D(pa,pc) + D(pa,pb)

Tolérance algorithmique et perturbation stochastique

Tous les processus décrits ici sont flous et imprécis. Le fonctionnement général du dispositif est insensible aux imprécisions algorithmiques, aux imprécisions d'amplitude,...

Dans le même ordre d'idée, une faible perturbation stochastique (aléatoire) des processus n'a qu'une plus faible encore répercussion sur son état et sur son comportement.

Performances

Les hypothétiques dispositifs naturels effectuant les processus décrits ici sont probablement très petits et très rapides. Ils sont donc aussi très nombreux dans un espace limité.

Les dispositifs artificiels simulant ceci doivent être aussi rapides, petits et nombreux que possible pour obtenir des performances notables.

Modalités matérielles

Peu importe comment cela marche. Ici, se limitant au modèle, on admet juste au titre de postulat qu'il est possible:

  • d'imaginer des processus physiques, chimiques, biochimiques qui remplissent les fonctions décrites
  • d'imaginer des simulateurs algorithmiques, des intelligences artificielles, probablement lents et rudimentaires par rapport aux intelligences naturelles