lunes, 30 de marzo de 2009

La habitación china

El subtítulo de este blog ha sido, durante mucho tiempo "en directo desde la habitación china". ¿Qué habitación es esa? ¿Es una habitación decorada al estilo chino, llena de chinos, en un apartamento de Pekín u organizada según el Feng Shui?

Pues no. La habitación china es un experimento mental, propuesto por el filósofo John Searle para atacar la idea de que la mente es como un programa de ordenador. Idea que constituye la tesis central de lo que Searle llama "inteligencia artificial fuerte". Dicha tesis es una analogía entre el funcionamiento del cerebro y el funcionamiento de los ordenadores digitales que opera en ambas direcciones:

  • La mente funciona igual que un programa de ordenador, siendo el cerebro una especie de ordenador biológico. La mente es al cerebro lo que el programa es al ordenador.
  • Un ordenador, convenientemente programado para simular la inteligencia humana, no sólo es una simulación de inteligencia sino que es inteligencia. Dicho de otro modo: los ordenadores digitales pueden tener mente.

La crítica de Searle va dirigida a la línea de flotación de esta tesis: la definición misma de "ordenador digital". Es esencial para nuestra concepción de lo que es un ordenador que sus operaciones puedan especificarse de manera completamente formal, en términos de símbolos abstractos (unos y ceros, por ejemplo). Pero esos símbolos no se refieren a nada, no tienen significado, no tienen contenido semántico.

Y ahí está el problema de la tesis de la Inteligencia Artificial: nuestros estados mentales (nuestras creencias, deseos, etc...) sí tienen contenido semántico, aparte de los rasgos formales que puedan tener. Los pensamientos versan sobre algo: yo puedo pensar en Murcia, o desear una empanadilla, por ejemplo. Es decir, no sólo tienen forma sino que también tienen contenido, no sólo tienen sintaxis sino también semántica. La idea principal de la crítica de Searle es, por tanto, esta:

"La sintaxis sola no es suficiente para la semántica y los computadores digitales en tanto que son computadores tienen, por definición, solamente sintaxis"1.

Para apoyar su crítica, Searle propone el siguiente experimento mental. Imagina que no tienes ni idea de chino, que si ves un texto en chino no ves más que garabatos sin sentido. Imagina que te encierran en una habitación, y que en ella hay varias cestas llenas de símbolos chinos. Junto a ellas hay un manual en castellano que explica cómo combinar esos símbolos, pero dichas instrucciones se basan sólo en la forma de los garabatos y no en su contenido. Por ejemplo, una de las reglas del manual podría ser: "toma este garabato de la cesta A y ponlo junto a este garabato de la cesta B".

Imagina que meten en la habitación algunos otros símbolos chinos, junto con nuevas instrucciones para mandar fuera de la habitación ciertas combinaciones de símbolos chinos ante la entrada de nuevos símbolos.

Supongamos que fuera de la habitación, los "programadores" de este experimento llaman a los símbolos que entran en la habitación "preguntas" y a los que salen (combinados por ti) "respuestas". Con el tiempo, los programadores perfeccionan los manuales de instrucciones y tú te conviertes en un experto combinador de garabatos (en todo este tiempo no has aprendido el significado de esos garabatos). De hecho, el sistema llega a ser tan eficaz, que fuera de la habitación se realizan preguntas en perfecto chino y se reciben respuestas en perfecto chino, indistinguibles de las de un hablante chino.

¿Cuál es la gracia del asunto? Que sigues sin tener ni pajolera idea de chino. Has estado manipulando símbolos en base a su forma, sin saber nada de su contenido. Así que, aunque desde fuera de la habitación da la sensación de que dentro hay un hablante chino, la verdad es que no tienes ni idea de lo que estás haciendo.

¿Y la moraleja filosófica de todo esto? Que manipular símbolos en base a su forma no hace que conozcamos su contenido. Y esto es precisamente lo que hace un ordenador: no atiende al contenido de los símbolos, sólo a la forma. Para decirlo con términos precisos: lleva a cabo una manipulación sintáctica, no semántica. Y por lo tanto tampoco entiende lo que está haciendo, porque la sintaxis no es suficiente para la semántica.

Veamos entonces a qué conclusión nos lleva esto:

  1. La sintaxis no es suficiente para la semántica.
  2. Un programa de ordenador manipula símbolos en base a su forma o sintaxis, sin tener en cuenta el contenido semántico de éstos.
  3. La mente humana tiene contenidos semánticos.
  4. La mente humana no funciona como un programa de ordenador, ni un programa de ordenador puede ser una mente.
Como vemos, el argumento de Searle, si se acepta, es devastador para la inteligencia artificial, al eliminar la posibilidad de crear verdadera inteligencia mediante programas de ordenador. Y es importante señalar que la crítica searleana no depende del progreso tecnológico. No es una cuestión que se pueda resolver en un futuro, cuando tengamos mejores medios, ordenadores más potentes, etc. sino que tiene que ver con la definición misma de "ordenador digital" o "programa". Y todo esto con algo tan aparentemente inocente como una "habitación china".

Para saber más: