El Año de Turing

El Año de Turing

La informática a la que recurrimos para tuitear o hacernos una resonancia magnética es en esencia Alan Turing, uno de los científicos más importantes de la Historia. Fue un hombre generoso que afrontó con genialidad lógica horrores como el Nazismo pero al que el mundo devolvió sólo injusticia. Acercamos su obra a los lectores para que comprueben lo importante que fueron sus aportaciones. Creó la Informática tal y como la conocemos.

John tiene razón

Por: | 20 de junio de 2013

PABLO NOGUEIRA

Turing
El Test de Turing y la Habitación China de John Searle han sido comentados en entradas anteriores de este blog. Esta entrada trata de por qué el argumento de la Habitación China de Searle es una presentación insatisfactoria de una seria objeción al Test de Turing, y por extensión a la Teoría Computacional de la Mente.

Recordamos brevemente el argumento de Searle:

Tenemos un operador humano sin ningún conocimiento del lenguaje chino dentro de una habitación. El operador recibe a través de una ventanilla de entrada hojas de papel escritas en chino. El operador sigue al dedillo un libro de instrucciones que le indica el texto que debe escribir a partir del texto recibido. El operador desliza la hoja de papel con el texto resultante por la ventanilla de salida, y se repite el proceso.

Fuera de la habitación hay una persona, el «juez» (que podríamos llamar también el «intérprete») que, Searle da por supuesto, está convencida de que está conversando con otra persona china dentro de la habitación. Sin embargo, la persona dentro de la habitación no entiende chino, sólo produce símbolos a partir de símbolos, según le indican las instrucciones del libro.

John_Searle_cortoSearle establece la siguiente analogía: una computadora es como el operador dentro de la habitación. Sigue un libro de instrucciones, un programa. No entiende el significado de los símbolos. Solamente manipula sintaxis. Por lo tanto, la manipulación sintáctica de símbolos no es suficiente para explicar el entendimiento del significado de los mismos. Más llanamente: si una computadora pasa el Test de Turing de chino, no tiene por qué saber realmente de lo que está hablando.

Antes de continuar es preciso aclarar algunos aspectos importantes:

  • En su argumento, Searle usa la palabra «semántica» en vez de «entendimiento». También dice que las mentes humanas «tienen semántica» y «contenidos mentales», que los cerebros tienen «poderes causales», etc. No estoy interesado en esa terminología. Entiendo que Searle la usa de forma intuitiva, y por tanto yo también deseo usar «entendimiento» de forma intuitiva. Ciertamente sería idóneo poseer un significado preciso de «entendimiento». La cuestión es si la manipulación de símbolos sintáctica es suficiente como significado de dicha palabra. Al introducir su terminología Searle está intentando dar una explicación alternativa pero insatisfactoria al entendimiento.
  • El problema de los argumentos ideales es que introducen ruido, oportunidades para debates interminables sobre terminología, sobre las inexactitudes inconsecuentes, o sobre las particularidades del escenario. ¿Es el libro de instrucciones una metáfora adecuada de un programa? ¿Cómo puede elegirse una única respuesta de entre las infinitas posibles? ¿Cómo hace el operador para encontrar la respuesta? ¿Qué significa «significado»? ¿Son «semántica» y «significado» la misa idea? En esta entrada no ahondaré en estos aspectos que, como veremos, son irrelevantes.
  • Hay una objeción biológica al argumento de Searle que atribuye importancia al medio en el que se forman los símbolos. Pero el medio es irrelevante. Los símbolos pueden ser garabatos en papel, caldos moleculares, patrones de bits en la memoria de una computadora, etc. Se trata de una noción de símbolo bastante concreta: algo que el juez es capaz de interpretar como chino.
  • Hay una objeción de sistemas mucho más interesante que dice que el operador no entiende chino porque el entendimiento ocurre en el libro, o más precisamente, en la ejecución de las reglas del libro por el operador. La respuesta de Searle a esta objeción es decepcionante: «aunque el operador memorice el contenido del libro, sigue sin entender chino». Ciertamente, pero esa no es la cuestión. Los programas se almacenan en las memorias de las computadoras. La cuestión es si el programa (en ejecución) entiende chino. Las computadoras son diseñadas para ejecutar programas, una tarea que no requiere entendimiento de chino, más bien (y afortunadamente) no requiere entendimiento de nada. Técnicamente, la computadora es un actor irrelevante. (La idea de Sistema Formal Automático [2], un sistema formal de reglas que ejecuta las reglas por sí mismo y está construido en soporte físico, es quizás un concepto más preciso.) Podemos decir, por extensión o analogía, que una computadora entiende chino, pero lo que realmente decimos es que la computadora ejecuta un programa que entiende chino. Basta con que Searle responda a esta objeción diciendo que la ejecución de reglas por el operador sigue sin explicar el entendimiento del chino.
  • Curiosamente ambas respuestas presuponen que el intérprete es convencido. Pero la afirmación «si un programa convence a un juez de que entiende chino entonces debemos concluir que entiende chino» es una implicación. La premisa no ha sido realizada. Además, el entendimiento no tiene que ser una consecuencia inexorable de un comportamiento adecuado. Basten como contraejemplo los innumerables trabajos en Inteligencia Artifical «suave» (soft AI). Muchos propietarios del perrito robot AIBO de Sony le atribuyen capacidades que los fabricantes niegan categoricamente. Existen programas que realizan tareas mejor que los humanos pero que no entienden dichas tareas.

He aquí una versión más sencilla del argumento de la Habitación China:

Una calculadora no entiende el concepto de suma.

Calculadora-chinaSegún la objeción de sistemas, el entendimiento de la suma se encuentra en las reglas de la suma. La calculadora pasa de sobra el Test de Turing Aritmético, convence al juez de que entiende el concepto de suma, pues sabe sumar. Searle nos dice que el entendimiento no se encuentra en las reglas de la suma. Sólo son reglas que permiten a la calculadora comportarse como si las entendiera.

Algo parece faltar en las reglas de la suma y en las hipotéticas reglas del arte de conversar en chino. Si bien la escala es diferente, ambas se construyen utilizando las mismas piezas de acuerdo a la Tesis Church-Turing.

Dejando a un lado el factor importante de la decibilidad y la computabilidad, cualquier programador sabe que sus programas no entienden lo que hacen. Una cosa es atribuir entendimiento a los programas como convencíon de lenguaje: «el programa elige una frase», etc. Otra diferente es reducir el entendimiento a la ejecución del programa: «elegir una frase es ejecutar el programa de elección de frases».

Para entender el entendimiento debemos mirar dentro de la habitación. No basta con atribuciones operacionales. No debería ser necesario justificar ésto invocando un super-libro de reglas de chino. Eso es ciencia ficción. Como no entendemos cómo se puede tener entendimiento en un mundo sintáctico, decidimos que la sintaxis es todo lo que hay. Como los conductistas que afirman que sólo existe el comportamiento. La Teoría Computacional de la Mente parece razonable. Entender chino debe explicarse según el funcionamiento del cerebro, donde observamos procesos electro-químicos, organizaciones celulares, y diferentes niveles de abstracción. El cerebro se parece a una computadora. Se «parece». ¿Pero cómo se explica el entendimiento? ¿Y la conciencia?

A pesar de lo que se venda, nadie sabe cómo. La Teoría Computacional de la Mente no es una teoría. Es una hipótesis. Razonable, con evidencia favorable, pero hipótesis.

Existen programas capaces de derrotar a grandes maestros en el ajedrez. Esto no significa que el cerebro de un gran maestro cuando juega al ajedrez es uno de esos programas. Lo llamativo es que el gran maestro puede competir con uno de esos programas, utilizando la misma «máquina» que utiliza para lavarse los dientes. Es razonable suponer una analogía entre la máquina del gran maestro y el programa. Pero también es una duda razonable que quizás no se trata de un problema de escala y que hay muchos factores que todavía se nos escapan. (Esta falta de conocimiento no justifica las otras cajas negras causales como el alma, que carecen de mucha más evidencia favorable.)

Turing fue práctico: podemos utilizar un test operacional para atribuir X a una máquina, pues ahora mismo no sabemos cómo atribuir X de otra forma que operacionalmente. Searle nos recuerda que una atribución basada en un test operacional es sólo una atribución, no una caracterización. John tiene razón que para entender X debemos mirar dentro de la habitación.

Pablo Nogueira es profesor ayudante doctor de la Universidad Politécnica de Madrid

-----------------------

[1] Searle, J. (1980). Mind, brains and programs, Behavioural and Brain Sciences 3, pp. 417-424.

[2] Haugueland, J. (1985). Artificial Intelligence: The Very Idea. MIT Press.

Hay 2 Comentarios

Comparto con Roman que el tema es fundamental. También comparto su resumen de las intenciones de Turing (como indico en el último párrafo del artículo): si no podemos mirar dentro entonces debemos buscar criterios operacionales. Coincido en que si la "caja china" hablase chino (convenza al juez o a los jueces) entonces no cabe duda de que la conclusión es asumir que habla chino (piensa, etc). Una de las intenciones del artículo es criticar el experimento de Searle como rebuscado e innecesario. Pues no existe tal caja. Y para afirmar que no existirá no basta con el argumento de más investigación y más tiempo. Hay que mirar dentro. De otra manera: ciertamente suponer que si X hace Y entonces X es un "hacedor" de Y es una consecuencia obvia (como creo que indica Roman). Pero la cuestión es si "X hace Y" es cierta. Algunos dirán que "X hace Y" es posible pero se necesita más tiempo para conseguirlo. Otros (como yo), pensamos que "X hace Y" se puede ir dilucidando estudiando la naturaleza de X. Entre la descripción que hace Searle de la caja y una calculadora, no hay gran diferencia.... otra que ese supuesto superprograma que es el mismo X que se persigue.

Hola,


No comprendo como nadie contesta esto cuando es un tema fundamental y uno de los auténticos enigmas de nuestro tiempo.


Mi respuesta es que el autor del artículo yerra en punto fundamental. Yo creo que Turing propuso su definición
con una voluntad “constructiva”, es decir como una analogía al razonamiento matemático. Creo que lo que dijo Turing debe ser interpretado como “denominemos pensar a todo aquello que cumpla el test” o dicho de otra forma “piensa si y solo si cumple el test”. En ese sentido es inatacable porque no pretende establecer un test para distinguir cosas pensantes de cosas que no, sino precisar el significado de la palabra pensar remitiendolo una prueba (al igual que la continuidad y derivabilidad de una función en un punto depende de si puede pasar las pruebas).


La discusión yo creo es más sobre si el método de Turing para definir “pensar” -abandonando la inducción sobre observación de personas humanas y remitiendose a un algoritmo- es legítimo o no.


En lo de “mirar dentro” discrepo radicalmente porque es una inconsecuencia lógica. Si podemos mirar dentro para decidir, entonces no hay problema. El problema que Turing quería resolver es el que se presenta cuando no podemos mirar dentro. Y si no podemos mirar dentro ¿como vamos a distinguir entre dos cosas que se manifiestan iguales? ¿como sabemos que los demás hacen algo igual a lo que hacemos nosotros? Por analogía, no? pues igual la máquina. Así de simple.


Y finalmente una opinión más. La metáfora de “la caja china” que por cierto toda la vida había creido que era de Penrose (:S) peca de banalidad y de biologismo. De banalidad porque si hemos aceptado que una máquina que se comporte como una persona esta “pensando” (nada menos) ¿qué problema hay en aceptar que habla chino? El biologismo es que al poner a una persona dentro, parece que está añadiendo algo pero el problema persiste exactamente igual. Nadie había dudado que una persona comportandose mecánicamente y una máquina son análogas.


IMHO la máquina de Turing piensa (en el sentido que Turing dió a “pensar”) y la caja-máquina de Searle habla chino, le guste o no a su autor.

Los comentarios de esta entrada están cerrados.

Sobre los autores

Este blog es una obra colectiva en la que participarán científicos y expertos españoles y extranjeros cuya obra haya bebido de las aportaciones de Alan Turing. Aunque principalmente recogerá los avances científicos en la Informática, abarcará otras opiniones sobre la importancia de la misma en otros ámbitos: la Medicina, la Física, la Política, la Economía. El blog está coordinado por Pedro Meseguer y Juan José Moreno Navarro.

Archivo

julio 2013

Lun. Mar. Mie. Jue. Vie. Sáb. Dom.
1 2 3 4 5 6 7
8 9 10 11 12 13 14
15 16 17 18 19 20 21
22 23 24 25 26 27 28
29 30 31        

El País

EDICIONES EL PAIS, S.L. - Miguel Yuste 40 – 28037 – Madrid [España] | Aviso Legal