« Fonctionnement des intelligences naturelles et artificielles » : différence entre les versions

De Lillois Fractale Wiki
Aller à la navigation Aller à la recherche
Contenu ajouté Contenu supprimé
Aucun résumé des modifications
(Contenu remplacé par « A présent, Assothink: [http://m3m.homelinux.org/wikiMC/index.php/Fonctionnement_des_intelligences_naturelles_et_artificielles m3m.homelinux.org/wikiMC/index.php/Fonction... »)
 
(38 versions intermédiaires par le même utilisateur non affichées)
Ligne 1 : Ligne 1 :
A présent, Assothink: [http://m3m.homelinux.org/wikiMC/index.php/Fonctionnement_des_intelligences_naturelles_et_artificielles m3m.homelinux.org/wikiMC/index.php/Fonctionnement_des_intelligences_naturelles_et_artificielles]
== Préalables ==

==== Expérience personnelle ====

Il y a quelques jours j'ai lu un document très intéressant sur l'intelligence artificielle, et les 4 théories qui l'entourent.

Cela s'est baladé un peu dans mes neurones...

A mon réveil ce matin, je me suis demandé à laquelle des 4 théories j'adhérerais. Je me suis convaincu que j'adhérais à la seconde.
<blockquote>
''"Le sentiment de conscient immédiate est le produit de l'activité du cerveau. Il peut être simulé par un calcul, mais il ne se réduit pas lui-même au calcul."''
</blockquote>
Ensuite j'ai imaginé les modalités de le seconde théorie, et c'est ce qui m'a amené à écrire cet article.

==== Deux problèmes ====

Il y a deux problèmes:

*comprendre ou deviner le fonctionnement des intelligences naturelles, et en particulier celle, supposée performante, de l'homo sapiens
*imaginer les rouages de machines dotées d'intelligence artificielle, quelque chose comme un nouveau type d'ordinateur

Ces deux problème n'en sont qu'un, ou du moins les solutions sont étroitement liées. C'est d'ailleurs assez paradoxal. Implicitement cela signifierait que rechercher la 'meilleure forme d'intelligence' revient à comprendre celle des HS. Cela signifierait que l'intelligence des HS&nbsp;est la plus performante ''possible''. C'est particulièrement anthropocentrique. Mais cela peut s'expliquer, de deux manières au moins. Cela peut s'expliquer par l'efficacité du dispositif essai/sélection propulsant la sélection naturelle. Cela peut aussi s'expliquer par les limites de ceux qui se posent ce genre de questions: vous et moi. Le champs de ce que nous pouvons comprendre ou imaginer est vraisemblablement limité par le fonctionnement de notre propres intelligence. Le mieux que nous puissions concevoir serait notre réalité, fut-elle subtile, complexe, cachée. Lä dedans s'inscrivent mon réveil, et l'''intuition'' que j'essaye de décrire plus bas.

Je ne suis ni psychologue, ni neurologue, ni expert en intelligence artificielle. Ma spécialité est la modélisation, et j'ai pris le problème par les bouts suivants:<br>

*L'introspection: comment fonctionnent mes perceptions, mes souvenirs, et ce qui en découle<br>
*L'engineering modélisant: comment concevoir une machine remplissant la fonction d'intelligence<br>

Dans ce ce qui suit, les mots neurones et canaux n'ont pas une signification biologique. Ce sont les composants d'un certain modèle abstrait qui est décrit en rapport avec les problèmes mentionnés plus haut.<br>

==== Emergence ====

L'intelligence est un processus explosif. Des causes et des dispositifs simples génèrent des effets et des dispositifs complexes. C'est un processus d'émergence.&nbsp; L'émergence est d'autant plus remarquable que les composants sont rudimentaires, et les résultats complexes.

Ce qu'il y a d'excitant dans l'émergence est lié à la surprise. On assemble des pièces élémentaires, et on se demande s'il peut en émerger quelque chose de remarquable. La surprise possible, la surprise espérée, la curiosité sont des moteurs pour la démarche de cet article.

==== Nouveauté ? ====

A quel point ceci est est-il neuf&nbsp;? A quel point ceci coïncide-il avec des travaux et résultats obtenus au moyens de réseaux neuronaux&nbsp;? Aucune idée&nbsp;! A vérifier bientôt.

== Composants du modèle : neurones, canaux, messages ==

==== Message ====

Un message est un petit signal élémentaire.

Il est caractérisé, en tout et pour tout, par une amplitude (la 'force du signal'), et par un pattern (structure, digitale ou analogique).

L'amplitude peut être considérée comme la force du signal.

Le pattern est une structure généralement quelconque, digitale ou analogique. La seule caractéristique remarquable d'un pattern est de pouvoir être comparé à un autre pattern.

==== Neurone ====

Le neurone est lié à d'autres neurones par des canaux.

Le neurone reçoit et envoie des messages par les canaux auxquels il est connecté.

Le neurone enregistre un ou plusieurs pattern de message reçus. C'est une forme de mémoire. Le contenu de la mémoire évolue dans le temps en fonction des patterns arrivants.<br>

Le neurone propage les messages reçus et/ou les message enregistrés. Il en accroît ou décroît l'amplitude dans la mesure où le message reçu ressemble à un pattern enregistré.<br>

La performance principale du neurone est donc une mesure de ressemblance.

D'une manière, le neurone agit comme une 'résistance'. Si la résistance est forte l'amplitude du signal est diminuée.&nbsp; Si la résistance est faible l'amplitude est augmentée. Dans le cas d'une amplitude moyenne, l'amplitude est inchangée.

Le neurone est un relais de messages.<br>

==== Canal ====

Un canal lie deux neurones et véhicule des messages de l'une à l'autre de ses extrémités.

Le canal ne change pas le pattern des messages transmis.

Proportionnellement à sa propre fréquence d'utilisation, le canal conserve l'amplitude des messages transmis.&nbsp; Un canal très actif conserve l'amplitude des messages. Un canal peu actif entraîne une perte d'amplitude. <br>

== Fonctionnement basique<br> ==

==== Conditions initiales<br> ====

Quelques neurones simples et vierges (sans pattern) existent.<br>

Des canaux d'entrées envoient des messages à ces neurones. Ces messages sont structurés par l'environnement. Ces canaux d'entrée ne sont que des capteurs.<br>

Les canaux d'entrées continueront à fonctionner sans interruption.<br>

==== Construction et destruction de neurone<br> ====

Les neurones les plus actifs se scindent. Les deux neurones résultant de la scission héritent soit du (des) même(s) pattern(s), soit se partagent les patterns au hasard.<br>

Les deux neurones résultant sont liés par un canal neuf.<br>

Les deux neurones résultant héritent des canaux de connections au hasard.<br>

==== Construction et destruction de canal<br> ====

Un canal totalement inactif ne transmet plus rien, et disparaît.

Les canaux les plus actifs se dédoublent.<br>

==== Evolution des patterns neuronaux<br> ====

Les patterns locaux mémorisé dans les neurones évoluent. <br>

Si les patterns des messages entrants sont très différent des patterns neuronaux, les patterns neuronaux ne sont pas affectés.

Si les patterns des messages entrants sont totalement identiques aux patterns neuronaux, les patterns neuronaux ne sont pas affectés.

S'il existe de faibles différences entre pattern entrants et pattern neuronal, celui-ci subit une légère modification, qui tend à le rendre plus proche du pattern entrant.<br>

==== Mesure de ressemblance de pattern<br> ====

La mesure de ressemblance est l'activité principale du neurone.

Cette mesure est une valeur en logique floue. C'est une valeur sur une échelle scalaire (mettons de 0.0 à 1.0) obtenue par comparaison de deux patterns.

Appelons ici la mesure de ressemblance entre deux patterns pa et pb, R(p<sub>a</sub>,p<sub>b</sub>). A l'inverse la dissemblance est D(p<sub>a</sub>,p<sub>b</sub>), et D(p<sub>a</sub>,p<sub>b</sub>) = 1.0 - R(p<sub>a</sub>,r<sub>b</sub>)

L'algorithme (naturel ou artificiel) doit obéir aux conditions suivantes:

#Une ressemblance maximale (mettons la valeur 1.0) est obtenue entre deux patterns identique. D(p<sub>a</sub>,p<sub>a</sub>) = 0.0<br>
#Une ressemblance minimale (mettons la valeur 0.0) est obtenue entre deux patterns ne présentant aucune similitude.
#Deux patterns indépendants et aléatoires ont une ressemblance espérée très faible (très proche de 0.0).
#Symétrie&nbsp;:&nbsp;R(p<sub>a</sub>,p<sub>b</sub>) = R(p<sub>a</sub>,p<sub>b</sub>) &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; D(p<sub>a</sub>,p<sub>b</sub>) = D(p<sub>a</sub>,p<sub>b</sub>)
#Triangulation (inégalité triangulaire)&nbsp;: 1.0 - R(p<sub>a</sub>,p<sub>b</sub>) &lt; 1.0 - R(p<sub>a</sub>,p<sub>c</sub>) + 1.0 - R(p<sub>b</sub>,p<sub>c</sub>)&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; D(p<sub>a</sub>,p<sub>b</sub>) &lt; D(p<sub>a</sub>,p<sub>c</sub>) + D(p<sub>b</sub>,p<sub>c</sub>)

Les points 1, 4 et 5 correspondent à la stricte définition mathématique de distance, pour la dissemblance.

==== Tolérance algorithmique et perturbation stochastique<br> ====

Tous les processus décrits ici sont flous et imprécis. Le fonctionnement général du dispositif est insensible aux imprécisions algorithmiques, aux imprécisions d'amplitude,...

Dans le même ordre d'idée, une faible perturbation stochastique (aléatoire) des processus n'a qu'une plus faible encore répercussion sur son état et sur son comportement.

==== Performances ====

Les hypothétiques dispositifs naturels effectuant les processus décrits ici sont probablement très petits et très rapides. Ils sont donc aussi très nombreux dans un espace limité.

Les dispositifs artificiels simulant ceci doivent être aussi rapides, petits et nombreux que possible pour obtenir des performances notables.

== Modalités matérielles ==

Peu importe comment cela marche. Ici, se limitant au modèle, on admet juste au titre de postulat qu'il est possible:

*d'imaginer des processus physiques, chimiques, biochimiques qui remplissent les fonctions décrites
*d'imaginer des simulateurs algorithmiques, des intelligences artificielles, probablement lents et rudimentaires par rapport aux intelligences naturelles

Il est juste utile de signaler que les simulateurs algorithmiques seront très probablement réduits aux traitements digitaux, tandis que rien n'interdit de penser que les processus naturels soient analogiques.

Dernière version du 25 juin 2012 à 10:52