lunes, 30 de marzo de 2009

La habitación china

El subtítulo de este blog ha sido, durante mucho tiempo "en directo desde la habitación china". ¿Qué habitación es esa? ¿Es una habitación decorada al estilo chino, llena de chinos, en un apartamento de Pekín u organizada según el Feng Shui?

Pues no. La habitación china es un experimento mental, propuesto por el filósofo John Searle para atacar la idea de que la mente es como un programa de ordenador. Idea que constituye la tesis central de lo que Searle llama "inteligencia artificial fuerte". Dicha tesis es una analogía entre el funcionamiento del cerebro y el funcionamiento de los ordenadores digitales que opera en ambas direcciones:

  • La mente funciona igual que un programa de ordenador, siendo el cerebro una especie de ordenador biológico. La mente es al cerebro lo que el programa es al ordenador.
  • Un ordenador, convenientemente programado para simular la inteligencia humana, no sólo es una simulación de inteligencia sino que es inteligencia. Dicho de otro modo: los ordenadores digitales pueden tener mente.

La crítica de Searle va dirigida a la línea de flotación de esta tesis: la definición misma de "ordenador digital". Es esencial para nuestra concepción de lo que es un ordenador que sus operaciones puedan especificarse de manera completamente formal, en términos de símbolos abstractos (unos y ceros, por ejemplo). Pero esos símbolos no se refieren a nada, no tienen significado, no tienen contenido semántico.

Y ahí está el problema de la tesis de la Inteligencia Artificial: nuestros estados mentales (nuestras creencias, deseos, etc...) sí tienen contenido semántico, aparte de los rasgos formales que puedan tener. Los pensamientos versan sobre algo: yo puedo pensar en Murcia, o desear una empanadilla, por ejemplo. Es decir, no sólo tienen forma sino que también tienen contenido, no sólo tienen sintaxis sino también semántica. La idea principal de la crítica de Searle es, por tanto, esta:

"La sintaxis sola no es suficiente para la semántica y los computadores digitales en tanto que son computadores tienen, por definición, solamente sintaxis"1.

Para apoyar su crítica, Searle propone el siguiente experimento mental. Imagina que no tienes ni idea de chino, que si ves un texto en chino no ves más que garabatos sin sentido. Imagina que te encierran en una habitación, y que en ella hay varias cestas llenas de símbolos chinos. Junto a ellas hay un manual en castellano que explica cómo combinar esos símbolos, pero dichas instrucciones se basan sólo en la forma de los garabatos y no en su contenido. Por ejemplo, una de las reglas del manual podría ser: "toma este garabato de la cesta A y ponlo junto a este garabato de la cesta B".

Imagina que meten en la habitación algunos otros símbolos chinos, junto con nuevas instrucciones para mandar fuera de la habitación ciertas combinaciones de símbolos chinos ante la entrada de nuevos símbolos.

Supongamos que fuera de la habitación, los "programadores" de este experimento llaman a los símbolos que entran en la habitación "preguntas" y a los que salen (combinados por ti) "respuestas". Con el tiempo, los programadores perfeccionan los manuales de instrucciones y tú te conviertes en un experto combinador de garabatos (en todo este tiempo no has aprendido el significado de esos garabatos). De hecho, el sistema llega a ser tan eficaz, que fuera de la habitación se realizan preguntas en perfecto chino y se reciben respuestas en perfecto chino, indistinguibles de las de un hablante chino.

¿Cuál es la gracia del asunto? Que sigues sin tener ni pajolera idea de chino. Has estado manipulando símbolos en base a su forma, sin saber nada de su contenido. Así que, aunque desde fuera de la habitación da la sensación de que dentro hay un hablante chino, la verdad es que no tienes ni idea de lo que estás haciendo.

¿Y la moraleja filosófica de todo esto? Que manipular símbolos en base a su forma no hace que conozcamos su contenido. Y esto es precisamente lo que hace un ordenador: no atiende al contenido de los símbolos, sólo a la forma. Para decirlo con términos precisos: lleva a cabo una manipulación sintáctica, no semántica. Y por lo tanto tampoco entiende lo que está haciendo, porque la sintaxis no es suficiente para la semántica.

Veamos entonces a qué conclusión nos lleva esto:

  1. La sintaxis no es suficiente para la semántica.
  2. Un programa de ordenador manipula símbolos en base a su forma o sintaxis, sin tener en cuenta el contenido semántico de éstos.
  3. La mente humana tiene contenidos semánticos.
  4. La mente humana no funciona como un programa de ordenador, ni un programa de ordenador puede ser una mente.
Como vemos, el argumento de Searle, si se acepta, es devastador para la inteligencia artificial, al eliminar la posibilidad de crear verdadera inteligencia mediante programas de ordenador. Y es importante señalar que la crítica searleana no depende del progreso tecnológico. No es una cuestión que se pueda resolver en un futuro, cuando tengamos mejores medios, ordenadores más potentes, etc. sino que tiene que ver con la definición misma de "ordenador digital" o "programa". Y todo esto con algo tan aparentemente inocente como una "habitación china".

Para saber más:

5 comentarios:

  1. Efectivamente: no existe la inteligencia artificial en sentido estricto si por "inteligencia" entendemos aquello que hacemos los humanos al pensar.

    El ejercicio que hacemos al pensar es irreductible a la pura combinación de símbolos que adquieren contenido semántico en un momento determinado (al convertirse en outputs), como muy buen muestra el experimento mental de Searle.

    Bueno, el post está muy claro. En realidad, mi comentario era una mera excusa para traer aquí esto:

    http://pzwart.wdka.hro.nl/mdr/research/fcramer/wordsmadeflesh/pics/chinese-room.png

    Tenía que hacerlo, ea.

    ResponderEliminar
  2. La imagen es un muy buen resumen del experimento mental. ¡Gracias por tu aportación y por tu comentario! Siempre es un orgullo recibir buenas palabras de una de las mejores filoblogueras de la red ;)

    ResponderEliminar
  3. Pues a mi me parece el sistema que empleamos en España para el acceso a la función pública.
    "El de la habitación es un hábil opositor que merece estar aquí fuera"
    Claro que ni tengo blog, ni filosofía ni reputación.

    ResponderEliminar
  4. Hola.

    Pues voy a hacer la pregunta "sencilla", por no complicarla demasiado y sin explicar mucho las circunstancias en las que se me ocurrió.

    ¿Se puede utilizar el experimento de la habitación china en contra de la suficiencia de la teoría de Wittgestein de la comprensión del significado? (comprender el significado de H es ser capaz de dar respuestas correctas a dicha proferencia exterior H).

    Este experimento viene a decir que dar respuestas correctas no es suficiente para que un objeto comprenda el contenido lingüístico. Si se extiende a los humanos...

    Saludos.

    -Primum bibere, deinde philosophare- (mi firma)

    ResponderEliminar
  5. Hola Lorenzo, he llegado casi de casualidad aquí, a un post que tiene la friolera de 3 años, pero eso no va a evitar que comente porque tu explicación me ha resultado muy interesante y refleja a la perfección lo que lleva pasando desde hace muchos años con todo lo relativo a la inteligencia artificial: Los ordenadores manipulan y construyen frases cada vez de un modo más convincente, pero es evidente que siguen siendo tan "tontos" como en sus inicios. Por cierto, por si algún visitante aún no lo conoce, Cleverbot.com alardea de ser el bot de IA (o de charla, como prefiero llamarlos yo) más potente de la actualidad, al menos entre los que se encuentran disponibles para el gran público.

    Por otro lado, y entrando ya en el terreno de la mera anécdota, estaba ojeando viejos blogs (entre ellos el tuyo) y ha sido el título del post lo que ha llamado mi atención. Desconocía por completo el concepto de "La habitación china", pero hace relativamente poco estuve jugando un videojuego experimental desarrollado por un grupo que se hacían llamar así. El vídeojuego, llamado Dear Esther, viene a ser como una película interactiva de apenas 2 horas de duración, aunque realmente la interactividad queda relegada a un plano muy secundario (el jugador solo debe limitarse a pasear por una isla). Pues bien, durante el transcurso del videojuego un narrador nos va contando fragmentos de una historia a modo epistolar, fragmentos que son seleccionados aleatoriamente de una base de datos que encierra el relato al completo narrado desde distintos puntos de vista y/o personajes. Al final, el relato resulta en gran parte enigmático debido a esta aleatoriedad o a la posible falta de datos cruciales, y también bastante interesante en su conjunto: Aunque la historia en sí no es excesivamente sorprendente, sabes que no la conoces al completo y tú mismo debes resolverla en tu cabeza con la información de la que dispones, lo que lleva a que distintos jugadores saquen conclusiones distintas. Con tu post, el propio nombre de los desarrolladores parece cobrar significado, y es por eso que no he podido evitar soltar esta parrafada que quedará interrumpida de un modo brusco justo aquí.

    ResponderEliminar

Puedes escribir lo que quieras excepto insultos, chorradas que no tengan absolutamente nada que ver con el post, y "HOYGANadas" en general. Si lo que quieres no es comentar este post sino contactar conmigo, envíame un e-mail o usa cualquier otro medio. Para evitar el spam y los trolls, los comentarios están moderados, por lo que no aparecerán inmediatamente.