viernes, 26 de diciembre de 2014

¿Es la "habitación china" un experimento mental confiable?



            A quienes disfrutamos la ciencia ficción y la filosofía, nos vienen muy bien los llamados “experimentos mentales”. En vez de aburrirnos con argumentos que muchas veces resultan aburridos, es más divertido entretenerse con situaciones imaginarias que ponen a pruebas nuestras intuiciones, y a partir de ahí, aclarar nuestras posiciones filosóficas. A mí (y presumo que a muchos otros filósofos), la experimentación mental me resulta muy divertida.
            Pero, esta diversión tiene sus peligros, tal como lo ha advertido recientemente el filósofo Daniel Dennett en su libro Intuition Pumps. Los experimentos mentales pueden servirnos de guía inicial para aclarar nuestras posturas filosóficas, pero debemos estar atentos a sus riesgos, pues un experimento mental puede también conducirnos a conclusiones apresuradas, sobre todo si el experimento mental está mal planteado.

            Dennett dirige especialmente sus críticas contra el experimento mental de la “habitación china”, formulado por el filósofo John Searle. Este filósofo postuló que, por más que una máquina logre emular la mente humana, nunca tendrá conciencia. Pues, ocurriría algo similar a este hipotético escenario: una persona que no habla chino está dentro de una habitación con un manual para hablar chino (el cual consiste en instrucciones sobre con cuáles frases se debe responder a cada frase recibida); desde afuera, se le pasan papeles con frases en chino; la persona consulta el manual y responde a las frases, también en chino. Desde afuera, daría la impresión de que la persona que está dentro habla chino, pero en realidad, se trata de una persona que sólo manipula caracteres y sigue los algoritmos del manual, sin realmente comprender el idioma chino. Searle postula que lo mismo ocurre con la inteligencia artificial: puede dar la impresión de manejar el lenguaje humano, pero en realidad, la máquina seguiría sin conciencia, pues sólo se limitaría a seguir algoritmos, sin realmente comprenderlos. En palabras de Searle, la máquina dominaría la sintaxis, pero no la semántica.
            Este experimento mental de Searle siempre me ha fascinado. Pero, nunca me ha convencido. ¿Bajo qué criterio podemos postular que un sistema que procesa información tiene conciencia? Searle parece postular que sólo los cerebros hechos de materia orgánica tienen conciencia. Pero, ¿qué propiedades tiene el carbón, que no tenga el silicio, como para permitir la emergencia de la conciencia? Si, supongamos, vienen extraterrestres inteligentes cuya constitución corporal no es el carbón, ¿deberíamos asumir que ellos no tienen conciencia?
Por estos motivos, siempre me ha parecido que Searle peca de antropocentrista: sólo el hombre tiene conciencia. Yo, en cambio, opto por la opinión mucho más parsimoniosa, según la cual, todo aquel sistema que dé muestras de tener conciencia, tiene conciencia. El argumento de Searle es ingenioso, pero al final, si lo aplicamos con rigor, también podría aplicarse a los propios seres humanos, lo cual terminaría por ser una reducción al absurdo: ¿cómo sé que otros seres humanos son conscientes?, ¿no podría acaso ser que los otros seres humanos operan también como la habitación china, y dan apariencia de tener conciencia cuando, en realidad, no la tienen?   
            Desde hace años he manejado estas críticas en mi mente, pero tras leer Intuition Pumps, de Dennett, añado otra, que me parece muy relevante. Dennett denuncia que la mera forma en que Searle presenta su experimento mental, es ya defectuosa. En la formulación de Searle, la persona que está dentro de la habitación recibe los papeles desde afuera, consulta el manual de lengua china, y devuelve el papel con la frase que el manual le indica. En el escenario imaginado por Searle, todo esto es muy simple, lo suficiente como para postular que, en realidad, dentro de la habitación china, no hay nada que en realidad entienda la lengua china.
            Pero, Dennett astutamente señala que, para que un sistema como el que Searle postula realmente funcione, tiene que ser muchísimo más complejo de lo que Searle presenta. Hay trillones de combinaciones posibles en la lengua china, además del contexto en que se usan las palabras (la pragmática). En un caso como éste, ya no se trataría meramente de una persona que consulta un pequeño manual, sino un sistema que opera sobre una gigantesca base de datos y que calcula combinaciones casi infinitas.
De forma tal que, si desde la habitación china, se emiten papeles que fluyen con la conversación que se inicia desde afuera, eso sería suficiente como para postular que el sistema (no necesariamente la persona que pasa los papeles, pero sí el sistema integral; es decir, la persona más el manual) sí tiene conciencia.
Las limitaciones del experimento mental de Searle deberían colocarnos en alerta, y tener presente que, quizás, muchas otras situaciones imaginarias que se manejan en la filosofía (por ejemplo, el estado de la naturaleza), también son proclives a ser abusadas si se emplean defectuosamente. La intuición puede servirnos de mucho, pero nunca debemos emplearla como la única guía de nuestras posturas filosóficas.

No hay comentarios:

Publicar un comentario