A quienes disfrutamos la ciencia ficción y la filosofía,
nos vienen muy bien los llamados “experimentos mentales”. En vez de aburrirnos
con argumentos que muchas veces resultan aburridos, es más divertido
entretenerse con situaciones imaginarias que ponen a pruebas nuestras
intuiciones, y a partir de ahí, aclarar nuestras posiciones filosóficas. A mí
(y presumo que a muchos otros filósofos), la experimentación mental me resulta
muy divertida.
Pero, esta
diversión tiene sus peligros, tal como lo ha advertido recientemente el
filósofo Daniel Dennett en su libro Intuition
Pumps. Los experimentos mentales pueden servirnos de guía inicial para
aclarar nuestras posturas filosóficas, pero debemos estar atentos a sus
riesgos, pues un experimento mental puede también conducirnos a conclusiones
apresuradas, sobre todo si el experimento mental está mal planteado.
Dennett
dirige especialmente sus críticas contra el experimento mental de la “habitación
china”, formulado por el filósofo John Searle. Este filósofo postuló que, por
más que una máquina logre emular la mente humana, nunca tendrá conciencia.
Pues, ocurriría algo similar a este hipotético escenario: una persona que no
habla chino está dentro de una habitación con un manual para hablar chino (el
cual consiste en instrucciones sobre con cuáles frases se debe responder a cada
frase recibida); desde afuera, se le pasan papeles con frases en chino; la
persona consulta el manual y responde a las frases, también en chino. Desde
afuera, daría la impresión de que la persona que está dentro habla chino, pero
en realidad, se trata de una persona que sólo manipula caracteres y sigue los algoritmos
del manual, sin realmente comprender el idioma chino. Searle postula que lo
mismo ocurre con la inteligencia artificial: puede dar la impresión de manejar
el lenguaje humano, pero en realidad, la máquina seguiría sin conciencia, pues
sólo se limitaría a seguir algoritmos, sin realmente comprenderlos. En palabras
de Searle, la máquina dominaría la sintaxis, pero no la semántica.
Este
experimento mental de Searle siempre me ha fascinado. Pero, nunca me ha
convencido. ¿Bajo qué criterio podemos postular que un sistema que procesa
información tiene conciencia? Searle parece postular que sólo los cerebros
hechos de materia orgánica tienen conciencia. Pero, ¿qué propiedades tiene el
carbón, que no tenga el silicio, como para permitir la emergencia de la
conciencia? Si, supongamos, vienen extraterrestres inteligentes cuya
constitución corporal no es el carbón, ¿deberíamos asumir que ellos no tienen
conciencia?
Por estos motivos,
siempre me ha parecido que Searle peca de antropocentrista: sólo el hombre
tiene conciencia. Yo, en cambio, opto por la opinión mucho más parsimoniosa,
según la cual, todo aquel sistema que dé muestras de tener conciencia, tiene
conciencia. El argumento de Searle es ingenioso, pero al final, si lo aplicamos
con rigor, también podría aplicarse a los propios seres humanos, lo cual
terminaría por ser una reducción al absurdo: ¿cómo sé que otros seres humanos son
conscientes?, ¿no podría acaso ser que los otros seres humanos operan también
como la habitación china, y dan apariencia de tener conciencia cuando, en
realidad, no la tienen?
Desde
hace años he manejado estas críticas en mi mente, pero tras leer Intuition Pumps, de Dennett, añado otra,
que me parece muy relevante. Dennett denuncia que la mera forma en que Searle
presenta su experimento mental, es ya defectuosa. En la formulación de Searle,
la persona que está dentro de la habitación recibe los papeles desde afuera,
consulta el manual de lengua china, y devuelve el papel con la frase que el manual
le indica. En el escenario imaginado por Searle, todo esto es muy simple, lo suficiente
como para postular que, en realidad, dentro de la habitación china, no hay nada
que en realidad entienda la lengua china.
Pero,
Dennett astutamente señala que, para que un sistema como el que Searle postula realmente
funcione, tiene que ser muchísimo más complejo de lo que Searle presenta. Hay
trillones de combinaciones posibles en la lengua china, además del contexto en
que se usan las palabras (la pragmática). En un caso como éste, ya no se
trataría meramente de una persona que consulta un pequeño manual, sino un
sistema que opera sobre una gigantesca base de datos y que calcula combinaciones
casi infinitas.
De forma tal que,
si desde la habitación china, se emiten papeles que fluyen con la conversación
que se inicia desde afuera, eso sería suficiente como para postular que el
sistema (no necesariamente la persona que pasa los papeles, pero sí el sistema
integral; es decir, la persona más el manual) sí tiene conciencia.
Las limitaciones
del experimento mental de Searle deberían colocarnos en alerta, y tener
presente que, quizás, muchas otras situaciones imaginarias que se manejan en la
filosofía (por ejemplo, el estado de la naturaleza), también son proclives a
ser abusadas si se emplean defectuosamente. La intuición puede servirnos de
mucho, pero nunca debemos emplearla como la única guía de nuestras posturas
filosóficas.
No hay comentarios:
Publicar un comentario