Saturday 11 January 2014

1b. Harnad, S. (2009) Cohabitation: Computation at 70, Cognition at 20

Harnad, S. (2009) Cohabitation: Computation at 70, Cognition at 20, in Dedrick, D., Eds. Cognition, Computation, and Pylyshyn. MIT Press 

Zenon Pylyshyn cast cognition's lot with computation, stretching the Church/Turing Thesis to its limit: We had no idea how the mind did anything, whereas we knew computation could do just about everything. Doing it with images would be like doing it with mirrors, and little men in mirrors. So why not do it all with symbols and rules instead? Everything worthy of the name "cognition," anyway; not what was too thick for cognition to penetrate. It might even solve the mind/body problem if the soul, like software, were independent of its physical incarnation. It looked like we had the architecture of cognition virtually licked. Even neural nets could be either simulated or subsumed. But then came Searle, with his sino-spoiler thought experiment, showing that cognition cannot be all computation (though not, as Searle thought, that it cannot be computation at all). So if cognition has to be hybrid sensorimotor/symbolic, it turns out we've all just been haggling over the price, instead of delivering the goods, as Turing had originally proposed 5 decades earlier.







12 comments:

  1. D'accord, la computation n'est peut-être pas suffisante pour expliquer la cognition. Mais je serais curieux de savoir quel test vous avez en tête en proposant un nouveau TT qui soliciterait, à coup sûr, un minimum de processus dynamique. Quel test serait selon le plus valide et faisable ? Une discussion d'une heure entre un humain et un ordinateur peut-être, vu que cela nécessite de l'improvisation et un language corporel approprié ?

    ReplyDelete
    Replies
    1. Le test qu'il faut c'est T3 (le TT robotique: Oliverio) au lieu du T2 (verbal). Ça ne donne pas la certitude (toutes les théories scientifiques sont sous-déterminées, il peut y en avoir d'autres aussi -- pas de certitude Cartésienne -- et en plus dans le cas des sciences cognitives il y a le problème -- donc l'incertitude -- des autres esprits!). Mais c'est tout ce qu'on peut attendre: On ne pourra pas distinguer, donc jamais être certains que notre rétroingénieirie à capté le ressenti. Mais elle nous aurait donné au moins une explication causale de ce qui peut générer nos capacités cognitives. Et c'est ça ce qu'on cherche en sciences cognitives.

      Delete
  2. Dans Cohabitation : Computation at Seventy, Cognition at Twenty, après avoir montré en quoi les explications « entrées/sorties » du béhaviorisme et « homonculaires » de l’approche introspective n’étaient pas satisfaisantes, Étienne Harnad discute de l’approche de Pylyshyn que l’on peut qualifier d’approche computationnelle. Selon ce dernier, il n’y aurait pas une grande différence entre le cerveau et l’esprit d’un côté, et l’ordinateur et le programme de l’autre. La cognition serait de la computation en ceci qu’elle serait le résultat de manipulations symboliques régies par des règles. Ainsi, en trouvant le bon « programme », il serait possible de l’implémenter dans n’importe quel système physique capable de le faire rouler : l’étude du cerveau ne serait donc pas très pertinente.
    L’expérience de pensée de la chambre chinoise de John Searle nous montre que la seule manipulation de symboles n’est pas suffisante pour rendre compte de la cognition. Searle réussit le Test de Turing du programme « langue chinoise » en jonglant avec des symboles, mais ne comprend absolument rien du chinois : il possède la syntaxe, mais pas la sémantique. Toutefois, Étienne Harnad semble dire, vers la fin du texte, que cette objection n’est pas nécessairement fatale pour le computationnalisme. En effet, imaginons un robot qui réussirait le Test de Turing « humain », c.-à-d. à propos de tous les comportements humains imaginables; un robot qui pourrait bouger et agir dans le monde, apprendre par lui-même, etc., en ancrant en quelque sorte les symboles dans le monde. Étant donné, entre autres, le problème des autres esprits, il n’est vraiment pas impossible que l’on doive affirmer qu’il y aurait dans ce système symbolique de la « compréhension » en plus de la syntaxe : bref, ce robot pourrait bien avoir un esprit…

    ReplyDelete
    Replies
    1. Oui, T3 (robotique: Oliverio) n'est pas susceptible à l'argument de Searle contre le computationnalisme (cognition = computation). Mais T3 n'est pas juste de la computation. Et même T3 ne peut pas éliminer le problème des autres esprits. Donc la certitude nous échappe, même avec T3. Turing nous rappelle, pourtant, qu'on ne peut pas savoir plus que ça (sans avoir la télépathie, dont on ne pourrait également pas être certain!).

      Delete
  3. La cognition ne peut pas s'expliquer entièrement par la manipulation des symboles régies par des règles. On nous explique dans le texte de cohabitation que certaines actions cognitives du cerveau humain ne marche pas par calcul ou symboles mais bien par l'entremise de connaissances de bases dont le fonctionnement reste un mystère. Comment sommes-nous capable de faire ce que l'on est capable de faire? Ce n'est pas un hasard complet. Il existe à quelque part dans notre cerveau un lien avec autre chose que la calculabilité. Serions-nous en mesure de dire que notre corps est indépendent de notre cerveau comme un ordinateur et ses programmes le sont? L'utilisation de symboles n'est pas toujours la solution à tous nos problèmes alors comment expliquer le phénomène qui nous a permis d'apprendre à écrire, jouer et gagner ou même lire?

    ReplyDelete
    Replies
    1. À part de la computation il y a aussi tout ce qui est analogue et dynamique: Tous les processus physiques, chimiques et biologiques qui ne sont pas juste l'exécution des manipulations de symboles par un ordinateur. Ça ressemble plus aux aspirateurrs, aux grilles-pain, aux chutes d'eau, aux reins et aux coeurs. Et spécialement aux récepteurs sensoriels et aux effecteurs moteurs.

      Delete
  4. Il m’apparait plus évident que la cognition ne peut être purement computationnelle.
    Les théories de l’explication par l’imagerie mentale ou par les propositions n’arrivent pas à décharger l’homonculus, c’est-à-dire une petite personne dans notre tête qui nous donnent les réponses, et donc, ne fournit pas une explication autonome. La théorie computationnelle explique la cognition par de la manipulation de symboles selon des règles. Ce qui est particulièrement intéressant de cette théorie, c’est qu’elle peut s’implémenter sur un autre matériel, nous permettant donc d’expérimenter si notre explication permet de générer de la cognition. Un test de Turing réussi, c’est-à-dire une correspondance par courriel avec une machine qui réussit totalement à berner son interlocuteur sur sa nature de machine, permettrait d’être la preuve suffisante de l’explication computationnelle de la cognition humaine. Cependant, Searle a réussi à passer le Test de Turing en utilisant des symboles chinois, langue qu’il ne comprend aucunement. La théorie computationnelle ne serait donc pas suffisante car elle n’implique que la forme des symboles, et ne permet pas d’expliquer les mécanismes qui relient les symboles à leur référent.

    Je ne suis pas certain de comprendre le critère d’impénétrabilité cognitive de Pylyshin. Est-ce qu’il veut dire que pour fournir une explication de la cognition, l’explication elle-même ne doit pas nous apparaître cognitivement, par la pensée?

    ReplyDelete
    Replies
    1. 1. Le TT ne cherche pas à berner! C'est la rétroingénierie. On cherche a générer les vraies capacités, le long d'une durée de vie, pas juste pour duper quelqu'un pendant quelques minutes, comme le fait Siri.

      2. Le critère de pénétrabilité a été propsé par Pylyshyn juste comme critère pour ce qui est cognitif (plutôt que végétatif). Mais ça ne convaince pas.

      Delete
  5. En cours ou sur son fauteuil, on peut se demander comment nous sommes capables de faire ce que l’on fait. Si on me demande le nom de mon professeur de primaire et que je réponds, je peux me demander comment j’ai réussi à répondre à la question. Je peux dire que je me suis souvenue de son visage et que par conséquent son nom m’est venu ensuite. Me demandant encore plus en détail comment j’ai fait, je finis par me demander comment un autre petit « moi » dans ma tête a fait pour le retrouver. Mais ce petit, lui-même être capable de se demandera comment il a fait et prendra un autre petit etc … Donc difficile d’expliquer quoi que ce soit.
    C’est la même chose si je contourne le problème en posant un système logique avec des faits que j’affirme être vrais et que je fais jouer des relations entre eux pour trouver par la logique comment j’ai fait pour me souvenir. Mais qui pose les bases de ces faits supposés vrais ? un autre petit moi ? Même problème.
    En fait, la cognition est impénétrable (inaccessible) à l’introspection ... néanmoins, ne peut être cognitif selon Pylyshyn que ce qui est pénétrable cognitivement. Si dans ce que nous sommes capables de faire, nous faisons une erreur (par exemple, on est bernés par une illusion) alors on doit pouvoir modifier notre erreur et ne plus la faire (une illusion nous berne tout le temps, même quand on est au courant de l’erreur donc ce n’est pas cognitif). Tout ce qu’on est capable de faire et qu’on peut corriger si on a fait une erreur, on peut dire que c’est de la cognition, voire de la computation et on peut l’étudier.

    ReplyDelete
  6. Afin de répondre à la question : « Où Turing a-t-il raison et où a-t-il tort dans sa méthodologie pour expliquer la cognition ? ». J'ai analyser 3 vidéos et un texte en français similaire a celui offert pour comprendre que Turing a tenter d'expliquer que nos pensée n'était qu'une sorte de calcul simple ou computation comme ce que les machines utilisent. De plus, on pourrait faire en sorte de programmés des machines capable d'imiter la pensée humaine comme sont test d'imitation a réussis a prouvé avec fort succès si on prend l'exemple de la machine inventé en inde (smartbot je crois). Par contre, plusieurs personnes ou géant comme Gödel on trouvé des failles allant de de l'impossibilité de prouvé ce qui est vrai jusqu'à l'impossibilité de programmé toute les conversations alternatives possibles d'un être humain à l'intérieur d'une machine. Juste pour tenter de contredire les 2 derniers arguments, je crois qu'il est en effet possible de rentrer suffisamment d'information dans une machine pour qu'elle puisse prouver la véracité d'un fait selon certain critère en suivant la technique des formalistes. Il peut être assez long d'entrer toutes les alternatives à une certaines réponses, mais pas beaucoup ou aucun être humain les connais tous alors je crois qu'une machine peux avoir une cognition très semblable et presque pareil dans certain cas, qu'un humain.

    ReplyDelete
  7. Cet article publier par Zenon fais allusion a l'attribution de sens aux symboles. Chaque symbole appartient a une categorie qui lui sera fixer. Pour cela, nous nous demandons si cet attribution a des categories est fait par apprentissage ou est-ce simplement ancree dans nos genes. D'autre part, chaque humains partagent les memes symboles et les memes categories et donc nous nous poussons a demander si la machine de Teuring partage les memes symboles.

    ReplyDelete
  8. Tout à fait d’accord avec le fait que la cognition ne peut pas se limiter à la computation, c’est- à-dire à la manipulation de la forme des symboles suivant des règles , il est plus profond que ca. Mais la computation a une grande importance ,car elle nous permet d’apprendre et d’expliquer ce qui peut créer nos habiletés coginitives. Pour pouvoir expliquer la cognition , il faudra résoudre le problème difficile , c’est-à-dire , expliquer le fait qu’on ressens et cela est hors de ma pensée.

    ReplyDelete