Las tres famosas
leyes de la robótica de Isaac Asimov, postulan lo siguiente: 1) Un robot no
hará daño a un ser humano o, por inacción, permitir que un ser
humano sufra daño; 2) Un robot debe obedecer las órdenes dadas por los seres humanos, excepto
si estas órdenes entrasen en conflicto con la primera ley; 3) un robot debe
proteger su propia existencia en la medida en que esta protección no entre en
conflicto con la primera o la segunda ley.
Si bien estas leyes parecen muy propias del sentido
común, e invitan a una adecuada cautela en el desarrollo de la robótica y la
inteligencia artificial, muchos comentaristas han visto problemas en ellas. Los
filósofos Nick Bostrom y John Leslie, por ejemplo, han advertido que, en la
ejecución de estos algoritmos, las máquinas podrían interpretar que, para
evitar que los seres humanos sufran, es necesario acudir a una esterilización
masiva, y así, se asegurarían de que la especie humana no se reproduzca y se
extinga pacíficamente: de ese modo, el robot cumpliría su deber de no permitir
por inacción el sufrimiento. Por supuesto, el no tener hijos puede ser un
sufrimiento para la generación estéril, pero los robots podrían interpretar que
se ahorra mucho más sufrimiento haciendo desaparecer a la especie, y así, ante
ese dilema, promovería la extinción humana. Pues, bajo esas acciones, no habría
gente que sufra, y así, se resolvería el problema.
Esto parece monstruoso, por supuesto. Pero, el hecho de
que los robots, en estricto cumplimiento de un algoritmo aparentemente racional,
lleguen a esa conclusión, permitiría pensar que la extinción pacífica de la
especie humana es una opción filosóficamente aceptable. De hecho, así lo han
asumido los llamados filósofos ‘utilitaristas negativos’. El utilitarismo es
una variante de la doctrina que identifica lo bueno con lo útil. Tradicionalmente,
se asume que el imperativo utilitarista es la maximización del placer: crear la
mayor cantidad de bien para el mayor número de gente posible, tal como lo
postulaba la famosa frase de Bentham.
Pero, pronto aparecen problemas. Si queremos maximizar el
bien, entonces aparentemente no estaría mal multiplicar la población humana,
sin importar que se consiga un nivel de bienestar apenas tolerable. Con generar
trillones de seres humanos que apenas sientan algún placer, se habrá creado el
mayor bien para el mayor número de gente posible. Pero esto, como bien señaló
el filósofo Derek Parfit, es una “conclusión repugnante”. Sabemos muy bien que
un país con pequeña población, pero con buen nivel de vida (como Luxemburgo),
es preferible a un país con mucha población, pero con condiciones deplorables
(como Bangladesh).
Esto ha conducido a algunos utilitaristas a plantear que
el mandato no debe ser la maximización del placer, sino la minimización del
dolor. Pero, precisamente, para minimizar el dolor, la estrategia más fácil es,
sencillamente, hacer que la gente desaparezca. Ello no implica una desaparición
violenta a la manera de un genocidio, pues eso generaría mucho dolor. Pero, sí
implicaría la muerte pacífica de la generación actual, y el aseguramiento de
que no habría una generación de reemplazo. Para estos filósofos, el uso de métodos
anticonceptivos son una obligación moral, pues con ello, se estaría impidiendo
que venga al mundo gente nueva a sufrir, y así, eficazmente se minimizaría el
dolor.
David Benatar es el filósofo que más defiende esta
postura. A su juicio, no se hace ningún daño cuando se impide la concepción de
un niño (nadie sufre por no haber nacido), pero en cambio, sí se ahorra mucho
daño. En cierto sentido, el argumento de Benatar es parecido al argumento de
Epicuro, según el cual, no debemos temer a la muerte, pues sencillamente,
cuando la muerta está, nosotros ya no estamos, y no hay nadie para sufrir. Si
no existimos, no hay problema.
He leído exhortaciones a la extinción de la especie
humana por parte de filósofos como Arthur Schopenhauer, y siempre me han
parecido extravagantes, propias de un tipo de filosofía alemana grandilocuente,
pero insuficientemente analítica. Pero, los escritos de Benatar son harina de
otro costal, pues con análisis éticos muy precisos, llega a una conclusión que
parece repugnante, pero que con todo, resulta difícil de refutar. Y, además, el
hecho de que los robots, quienes seguirían los lineamientos éticos que les
programemos al pie de la letra, podrían terminar interpretando que es necesario
el fin de nuestra especie, pareciera darle sustento a la recomendación de
Benatar.
Por ahora, me parece que la mejor respuesta a la tesis de
Benatar consiste, sencillamente, en rechazar el utilitarismo negativo. Si hemos
de seguir el utilitarismo (y, en todo caso, es dudoso que debamos, pues el
utilitarismo tiene muchos problemas), debemos seguir un mandato combinado:
maximizar el placer y minimizar el dolor. Un mundo con nulo placer y nulo dolor
no sería bueno, pues el placer no sería maximizado. Un mundo con mucho placer y
aún más dolor tampoco sería aceptable, pues haría que aparezca un mundo parecido
al que Parfit describe en su “conclusión repugnante”. Habría que buscar un
intermedio: maximizar la cantidad de gente que siente placer, pero sin llegar a
un punto en el que, en promedio, la vida sea muy cercana a la miseria.
Es cierto que nadie sufre por no existir, pero al mismo
tiempo, el no tener la oportunidad de existir (o seguir existiendo) sí pareciera
ser un tipo de pérdida. Por ello, contra Epicuro, yo argumentaría que la muerte
sí es una tragedia, y que debemos hacer todo lo posible por evitarla; en este
sentido, simpatizo con los transhumanistas que buscan la inmortalidad. Asimismo,
contra Benatar, yo argumentaría que, si bien mis hijas seguramente van a sufrir
en este mundo, tengo la esperanza de que ellas encontrarán muchos momentos de
placer que, a la larga, sí harán valiosa su existencia.
Y, por último, yo recomendaría una modificación de las
leyes de Asimov (pues éstas parecieran ser estrictamente utilitaristas
negativas): no sólo los robots deben evitar que los seres humanos sufran, sino
que también, deben maximizar sus esfuerzos por generar placer a los seres
humanos. No obstante, con esto, también aparecerían otros problemas, pues como
terroríficamente señala Nick Bostrom, existe la posibilidad de que los robots
interpreten que la mejor forma de maximizar nuestros placeres es colocándonos
en un mundo simulado (a la manera de Matrix),
en el cual nunca haya dolor. Pero, este problema es ya harina de otro costal.
Este comentario ha sido eliminado por el autor.
ResponderEliminarBuenas,
ResponderEliminarQué tipo de inmortalidad crees que es deseable?
Es claro que si uno no puede morir, y sufre un accidente que le deja medio cuerpo destrozado, esa inmortalidad es más una pesadilla que algo deseable. Pero aún en el mejor de la casos la inmortalidad no parece algo bueno.
Sea como sea uno va a tener un patrón de actividades. La vidas aburridas van a tener un patrón con periodo corto (abababababa....), las buenas vidas son diversas (ailsscs8dc$k0dcwq@sc.....)
Pero como la vida no se acaba, por muy diversa que sea una vida,, las actividades se van a repetir y repetir y repetir... lo que daría mucho tedio y aburrimiento
https://www.youtube.com/watch?v=6vj0LdtAaZA
Saludos.