top of page

5-El Problema Duro

¿Puede una máquina ser consciente?

 

En el apartado “Hardware y software” del capítulo segundo apareció por primera vez la metáfora de la computadora, sugiriendo la idea de que los cerebros y las computadoras son esencialmente la misma cosa: objetos que procesan información. Ciertamente, si nos fijamos en cómo funciona el cerebro a nivel bajo, es fácil imaginarse el cerebro como un mecanismo que computa datos mediante sus neuronas, dándonos la impresión de que la metáfora de la computadora es bastante certera. Pero estoy seguro de que todo el mundo siente que hay algo que no funciona del todo bien en la metáfora. Una computadora puede efectuar cálculos, resolver problemas, jugar a go e incluso componer música, cosas que también puede realizar un humano. Pero un humano también puede emocionarse, sentir y desear. Y aún no hemos logrado una computadora que se ponga triste, ni que sienta celos, ni que desee ver el mar. Sentimos que nosotros somos un yo, pero no existe ninguna computadora que sea un yo. Sentimos que somos conscientes, pero estamos seguros de que ninguna computadora lo es. ¿Por qué las computadoras no poseen un yo a pesar de que funcionan de manera similar a un cerebro humano? ¿Qué necesitaría una computadora para ser consciente? ¿Qué tiene el cerebro humano de especial que no tenga una computadora?

Hemos llegado al punto central de este libro y su razón de ser. Todo lo dicho previamente tenía la única función de poder llegar hasta aquí, y todo el resto tendrá la única función de desarrollarlo. Se trata del Problema Duro, un problema tan terriblemente difícil que puede dejar mudo al pensador más agudo y sumir en la confusión al científico más lúcido.[18] El Problema Duro se puede formular de varias maneras: ¿qué es la conciencia?, ¿cómo se produce la conciencia?, ¿cómo puede un objeto físico tener experiencias subjetivas? Thomas Nagel lo expresó así: "Sin la conciencia, el Problema Mente-Cuerpo se convierte en poco interesante. Con la conciencia, el Problema Mente-Cuerpo se convierte en inabordable." Y Jerry Fodor, así: "Nadie tiene la más ligera idea de cómo algo material podría ser consciente. Nadie sabe ni siquiera cómo sería tener la más ligera idea de cómo algo material podría ser consciente. Hasta aquí llega la filosofía de la conciencia." La expresión “Problema Duro” fue acuñada por el filósofo David Chalmers, y contrariamente a lo que podría parecer, la intención de usar ese calificativo no reside en destacar su dificultad, sino en diferenciar el problema central de los demás problemas “blandos”. Ejemplos de problemas blandos de la conciencia podrían ser: ¿qué áreas del cerebro producen la experiencia consciente?, ¿es el test del espejo una prueba válida para demostrar la presencia de conciencia?, ¿es necesario un mínimo de inteligencia para ser consciente? Todos estos problemas son interesantes por sí mismos, pero no resuelven el problema esencial, el verdadero problema que plantea la conciencia. Lo que pretendía Chalmers ante todo era que nadie confundiera un problema blando con el problema esencial, afirmando por ejemplo haber resuelto el problema de la conciencia sólo por haber descubierto las áreas cerebrales implicadas en la experiencia consciente. Chalmers diría: “Es interesante, pero no has resuelto el problema principal, no has resuelto el Problema Duro”.

Que seamos un yo consciente es un hecho asombroso, aunque al principio cueste verlo de ese modo. Estamos acostumbrados a ser un yo consciente, y lo cotidiano no suele provocar asombro. Así que vamos a volver a la metáfora de la computadora para forzar un cambio de perspectiva: ¿es posible que una máquina pueda ser consciente? La mayoría de la gente no lo encuentra posible, asumiendo que la conciencia es una propiedad exclusiva de los seres vivos, pareciéndoles la posibilidad de un objeto metálico sintiendo miedo y dolor algo inimaginable, absurdo, carente de sentido. Pues bien, esa postura tan típica es, sin embargo, irracional e insostenible. Los seres vivos no son tan distintos de las máquinas como para justificar que unos puedan poseer propiedades vetadas a los otros. Ni siquiera existe una barrera natural que separe lo vivo de lo inerte de forma clara, inequívoca y evidente. De hecho, las definiciones de “ser vivo” suelen estar basadas en funciones (reproducción, adaptación al medio, intercambio energético, etcétera) más que en propiedades intrínsecas, y además dejan de lado a los virus, a los que resulta algo extraño catalogar como inertes. Quizás alguien pueda argumentar que lo vivo muestra una especial complejidad que no poseen los objetos inertes, como por ejemplo la que exhiben los procesos que involucran al ADN, pero no hay ningún motivo para pensar que esa complejidad sea imposible de alcanzar por medios artificiales. Por lo tanto, no hay ninguna razón que apoye la posibilidad de que exista una propiedad limitada a los seres vivos que no pueda poseer un objeto inanimado. Tanto las entidades vivas como las inertes están hechas de átomos y se hallan sometidas a las mismas leyes físicas. Incluso podríamos decir que los seres vivos son máquinas biológicas, sólo que hechas de carne en lugar de plástico o metal, y la carne no tiene nada tan especial que no pueda tener otro material. Afirmar que la conciencia sólo se puede dar en los seres vivos únicamente se podría sostener si consideramos que los seres vivos poseen propiedades extraordinarias que no cumplen ni puedan cumplir las demás entidades físicas. ¿Pero cuáles son esas propiedades? No existen tales propiedades. Ante este panorama puede que alguien esté tentado de afirmar desesperadamente que la conciencia no puede analizarse mediante la ciencia ya que se trata de un fenómeno inmaterial. Si optamos por esa vía, acabamos de resucitar el alma como explicación, cayendo en todos los pecados y tentaciones de los que hablábamos en el capítulo segundo. Si queremos evitar esa vía, tenemos necesariamente que aceptar que la conciencia debe de ser un fenómeno físico, y por tanto debe de ser posible construirlo, dando igual si el material es carne o metal. El problema es que a la gente le cuesta aceptar este hecho, porque le parece un hecho asombroso. Y es cierto, es un hecho realmente asombroso. ¡Igual de asombroso que el hecho de ser un yo consciente! Por lo tanto, lo asombroso no es el hecho de que puedan existir máquinas conscientes, lo asombroso es el hecho de que la conciencia exista. La idea de que exista un ente consciente es asombrosa, siendo el material del que está hecho ese ente algo escasamente relevante. La metáfora de la computadora es fundamental a la hora de abordar el Problema Duro porque nos saca de nuestra preconcepción basada en la experiencia cotidiana de que los seres vivos son naturalmente conscientes y los objetos inertes naturalmente inconscientes, permitiéndonos contemplar el fenómeno de la conciencia de forma distante y carente de prejuicios.

¿Y si es posible que existan máquinas conscientes, cómo es que aún no las hemos creado? Muy probablemente una máquina consciente sea enormemente compleja, fuera del alcance de nuestras capacidades actuales. Algunos intentan ver esto como una prueba de que la conciencia en máquinas es imposible, pero el que todavía no hayamos logrado una máquina así no es una prueba de que esa máquina no pueda existir. Es simplemente una prueba de lo lejos que estamos de resolver el Problema Duro. Y es que resolver la pregunta “¿Qué es la conciencia?” implica un conocimiento que seguramente conlleve la capacidad de construir una máquina consciente. De hecho, si alguien afirma haber resuelto el Problema Duro, mi primera reacción sería pedirle que me muestre una máquina consciente o al menos un procedimiento detallado para crearla. En caso de que no pueda hacerlo, dudaré muchísimo de que lo haya resuelto.

Un experimento ingenuo

 

Pues bien, vamos ahora mismo a intentar crear una máquina consciente. Y como ya hemos visto en el capítulo anterior, para crear una máquina consciente bastaría con crear una máquina que experimente alguna sensación. Podemos probar con el miedo, una de las seis emociones básicas junto con la ira, la sorpresa, el asco, la tristeza y la alegría. ¿Cómo podríamos crear una máquina que sienta miedo? Para empezar, vamos a intentar describir lo que es una emoción: una emoción es un conjunto de respuestas fisiológicas estereotipadas ante determinados estímulos, desarrolladas por la selección natural a lo largo de múltiples generaciones. Por ejemplo, la visión de una serpiente normalmente produce un aumento de la presión arterial, la glucosa en sangre, el ritmo cardíaco, el ritmo respiratorio, la tensión muscular, etc. Todas esas respuestas fisiológicas están encaminadas a preparar el cuerpo para una rápida huida del peligro, y ese conjunto de respuestas fisiológicas estereotipadas es a lo que llamamos miedo.[19] El resto de emociones básicas tienen historias parecidas. Por ejemplo, el asco se encarga de que no comamos comida en mal estado y la sorpresa aumenta nuestro estado de alerta ante un posible peligro, y para ello desencadenan sus propias respuestas fisiológicas esterotipadas. Acabada esta breve descripción de lo que es una emoción, procedamos a producir miedo en una máquina. Fabriquemos un robot humanoide que pueda moverse y andar. Pongamos una cámara en su cabeza que sea capaz de detectar la silueta, sonido y movimiento de una serpiente. Hagamos que el robot genere cambios en sus mecanismos internos cuando se produzca esa detección, cambios orientados a incrementar la rapidez de sus movimientos. Adicionalmente, consigamos que el robot corra en dirección opuesta a la serpiente. Ya está. Ya hemos creado una máquina que siente miedo.

¿Satisfecho? No creo que nadie lo esté. La presunta emoción de nuestra máquina herpetofóbica podría satisfacer a un observador muy ingenuo, pero carece de algo esencial: carece de la experiencia subjetiva. Al faltarle esa cualidad subjetiva, la emoción de nuestra máquina es en cierto modo falsa y vacía, una pantomima. Una máquina que sude, tiemble, corra o grite ante la visión de una serpiente sin sentir experiencias subjetivas sólo será un cascarón vacío, un objeto sin yo. Pero ¿qué es exactamente una experiencia subjetiva?

El problema de los qualia

 

De la palabra “cualidad” los filósofos han derivado la palabra “qualia” (plural “qualia”, singular “quale”), y la usan para referirse a los componentes subjetivos de la experiencia. Son precisamente esos componentes los que han hecho fracasar nuestro experimento anterior. ¿Pero a qué nos referimos exactamente con “componentes subjetivos de la experiencia”? Nos referimos a cosas tan cotidianas como el olor del pavo asado, el sonido de un oboe, el dolor de una quemadura, la nostalgia o el entusiasmo. Todos esos son ejemplos de qualia. Y no nos dejemos el más popular, el favorito de los filósofos: el color rojo. Pero es importante tener claro que el quale es sólo la parte subjetiva del fenómeno. Es decir, el quale del color rojo no se refiere en ningún momento a la luz, la energía o la longitud de onda, sino que se refiere estrictamente a la sensación mental experimentada al contemplar el color rojo. En realidad, esta aclaración podría ser innecesaria ya que un color es algo que se refiere exclusivamente a una sensación. El color rojo sólo existe dentro de nuestras cabezas. En el mundo exterior lo único que hay son ondas electromagnéticas con una longitud de onda determinada, y sólo se convierten en rojo en el momento en que son interceptadas por nuestra mente. De hecho, esa sensación de rojo es tan privada y personal que puede variar en cada individuo. Por ejemplo, algunos animales no pueden ver colores, y otros en cambio ven más colores que nosotros. Incluso restringiéndonos a nuestra especie, hay personas que ven menos colores que la media y personas que ven más colores que la media. Así pues, la luz roja puede provocar un quale determinado en nosotros, otro quale diferente en un perro y ningún quale en absoluto en una tostadora. El quale no es una propiedad del mundo exterior, es una propiedad de nuestra mente. Es una entidad tan mental que ni siquiera es necesaria la presencia del estímulo externo, pues podemos estar en plena oscuridad y aún así visualizar el rojo con “el ojo de la mente”. En ese caso no hay luz, sólo el quale desnudo. Probablemente el cerebro lo único que tiene que hacer para ello es reactivar el grupo de neuronas que se activa habitualmente al ver el rojo, aún en ausencia del estímulo original. Por lo tanto, el quale del color rojo está en las neuronas, no en la tela o en la luz.

A pesar de que hayamos introducido el término ahora, ya hablamos implícitamente de los qualia en el apartado “Una definición de la subjetividad” del capítulo cuarto. Por ejemplo, ahí ya vimos que los qualia son inefables, es decir, que no se pueden expresar con palabras. También vimos que son inobservables, lo que implica que por mucho que nos hubiéramos esmerado en la elaboración de la máquina del experimento anterior, no habríamos podido probar nuestro éxito. De igual manera, tampoco podemos saber con total seguridad si un humano siente miedo de verdad o está fingiendo. ¿Sería incluso posible que usted fuese el único humano que pudiera sentir miedo de verdad? Quizás los demás sudan, tiemblan, dicen “¡qué asustado estoy!” pero no sienten nada en absoluto. Sería realmente extraño que fuera ese el caso, pero no hay forma de probarlo. ¿Por qué los qualia son tan opacos? La opacidad está causada por el hecho de que aún no existe la tecnología suficiente como para poder ver o interpretar lo que acontece en nuestro cerebro a ese nivel. ¿Pero estamos seguros de que hay algo que ver? ¿Y si los qualia son invisibles, inmateriales? Otra vez las tentadoras explicaciones basadas en el alma. No nos dejemos seducir. Los qualia deben de ser físicos y observables, aunque aún no sepamos qué forma tienen exactamente. Es posible que cuando lo descubramos estemos cerca de resolver el Problema Duro, puesto que la pregunta “¿Qué son los qualia?” no es más que otra forma de formular el Problema Duro.

El pequeño abismo

 

Nuestro intento de dotar de conciencia a una máquina ha tropezado enseguida con los qualia y ya no se ha podido levantar del suelo. Se nos ocurre que quizá nuestro error es que no hemos elegido el tipo de máquina adecuado: de hecho, da la impresión de que ha sido una elección terrible. En los capítulos anteriores hemos insistido en la relación estrecha y singular que tienen la mente, el yo y la conciencia. Sin mente no parece haber ni yo ni conciencia, y sin embargo nos hemos decidido por una máquina con una capacidad mental muy escasa, casi podríamos decir que nula. Así que nuestro siguiente paso será intentar crear una máquina con mente, una máquina capaz de pensar. ¿Pero cómo podríamos hacer pensar a una máquina? ¿Cómo podríamos lograr salvar el abismo que parece separar a los objetos simples de los objetos pensantes?

Bueno, el abismo no parece ser insalvable puesto que en nuestra época ya existen máquinas pensantes. Pero el problema con las máquinas tan sofisticadas como las computadoras modernas es que son producto de una ciencia que ha avanzado tanto y tan deprisa que el ciudadano medio ya no las entiende, y como diría Arthur C. Clarke, son indistinguibles de la magia.[20] Para la inmensa mayoría de personas, una computadora es casi tan misteriosa como un cerebro humano. ¿Cuánta gente sabría explicar cómo consigue una computadora mover un cursor por una pantalla? Así que de momento vamos a dejar de lado a las complejas computadoras, partiendo de algo más sencillo. Mi ejemplo preferido de máquina pensante es la calculadora que inventó el matemático Blaise Pascal. La calculadora de Pascal, también llamada pascalina, efectúa sumas y restas mediante engranajes. Nada de electricidad, cables, chips, circuitos o transistores: sólo engranajes, manivelas y rodillos. ¡Una máquina pensante que todo el mundo puede entender! Se gira un engranaje que hace mover un rodillo hasta que aparezca el número seis en su parte superior, se gira el mismo engranaje dos posiciones más, el rodillo avanza dos posiciones y aparece el número ocho en su parte superior: la pascalina ha sumado seis más dos. Esta es una operación muy fácil para un humano, pero la pascalina es capaz también de manejar números de ocho cifras, y recordemos que además de sumar puede restar, lo cual lo convertía en un artilugio muy sofisticado para su época, mucho más que un ábaco. Incluso podríamos considerarla como una computadora primitiva. La pascalina piensa. Y al contrario que los cerebros y las computadoras modernas, es simple y transparente en todos sus pensamientos. Hasta un niño los podría entender. El abismo aparente entre objetos simples y objetos pensantes se estrecha un poco gracias a ingenios como la pascalina.

Soy consciente de que mucha gente no llamaría jamás “pensar” a lo que hace la pascalina. Estamos acostumbrados a que el pensamiento sea algo complejo, sofisticado, profundo. Todos esos adjetivos resultan cómicos aplicados a lo que la pascalina hace. El pensamiento de la pascalina surge de unos engranajes giratorios, que son sólo un poco más sofisticados que unas piedras rebotando en la ladera de una montaña. Pero ahí está la clave y la reflexión profunda: ¿de verdad es esencialmente diferente lo que hace la pascalina de lo que hace una computadora moderna? Las computadoras modernas son enormemente más sofisticadas que una pascalina, pero la base para su computación es la misma: algoritmos simples basados en lógica matemática. Esa es la esencia que comparten la pascalina y las computadoras modernas. ¿Compartirán nuestros cerebros la misma esencia?

La máquina definitiva

 

Puede que la pascalina piense, pero no parece una candidata adecuada a máquina consciente. La mente de la pascalina —la mente es lo que el hardware hace, si aplicamos la metáfora de la computadora a la frase de Marvin Minsky— es una mente muy simple, limitada a un par de operaciones aritméticas. Y nosotros buscamos una máquina con una mente más potente. Pero antes es necesario aclarar que con “potente” nos vamos a referir a capacidad, no a velocidad, ya que para nuestros propósitos la velocidad es una característica secundaria. El matiz es tan importante y la confusión tan probable que voy poner dos ejemplos. Primer ejemplo: diríamos que un dispositivo electrónico que es capaz de sumar y restar números de hasta ocho cifras en un microsegundo es igual de potente que la pascalina, ya que efectúa las mismas operaciones que ella, sólo que mucho más rápidamente. Segundo ejemplo: diríamos que un dispositivo hecho de engranajes que es capaz de sumar, restar y multiplicar números de hasta ocho cifras en cuatro horas es más potente que la pascalina, ya que puede hacer más operaciones que ella, independientemente de su velocidad. Entonces, lo que queremos es una máquina más potente que la pascalina en el sentido de que sea capaz de realizar mayor variedad de operaciones computacionales. ¿Y cuánta potencia vamos a necesitar? Pues bien, resulta que podemos permitirnos el lujo de ser exigentes, ya que es relativamente fácil conseguir una máquina con la máxima potencia computacional posible, capaz de realizar cualquier tipo de operación computable. Este sorprendente descubrimiento se lo debemos a Alan Turing, y esa máquina es llamada máquina de Turing en su honor. Vamos a describir brevemente lo que es una máquina de Turing, sin entrar en demasiados detalles.

Una máquina de Turing es un modelo teórico que describe a una computadora muy simple. Como una computadora ordinaria, su actividad se puede resumir en transformar una serie de datos entrantes (input) en otra serie de datos salientes (output). Así, cualquier computadora tiene un mecanismo encargado de leer datos, otro encargado de procesarlos y otro encargado de escribirlos. ¿Pero cómo hace la máquina de Turing para procesar los datos? Esa es la parte interesante, ya que la parte relativa a leer y escribir los datos es sólo técnica trivial, como por ejemplo la que describimos en el apartado “Hardware y software” del capítulo segundo. Imaginemos una máquina conectada a una tira de papel lo suficientemente larga (teóricamente infinita) y cuadriculada, habiendo en cada cuadro un uno o un cero. La máquina contiene en su arquitectura una tabla finita de instrucciones que determinan un conjunto de estados, así como la capacidad de almacenar en su memoria el estado actual. Las instrucciones son muy sencillas: moverse un cuadro a la izquierda, moverse un cuadro a la derecha, leer el símbolo, escribir un 1, escribir un 0, ir al estado X y parar. La máquina puede sobreescribir tantas veces lo desee, es decir, si la instrucción consiste en escribir un 0 y el cuadro contiene un 1, la máquina simplemente reemplaza el 1 por un 0. Por ejemplo, tenemos una máquina de Turing en el cuadro 82. El estado inicial le ordena a la máquina que escriba un 0, se mueva un cuadro a la derecha y vaya al estado 17. El estado 17 le ordena que lea el símbolo, y si hay escrito un 1, que escriba un 0 y vaya al estado 7, y si hay escrito un 0, que se mueva un cuadro a la izquierda y vaya al estado 29, y así. En algún momento la máquina dará con un estado que le ordene parar y la computación habrá finalizado. La serie de unos y ceros se habrá transformado en otra serie distinta, dando lugar a un output a partir de un input. Así piensa una máquina de Turing.

Supongo que a más de un lector le parecerá sorprendente que un mecanismo tan simple pueda ser capaz de computar todo lo computable, siendo capaz de ejecutar cualquier proceso por muy complicado que sea. Acabamos de ver que la pascalina estaba diseñada para sumar y restar exclusivamente, y parece lógico que un hardware determinado sólo pueda ejecutar un tipo de proceso determinado. ¿Cómo puede un único hardware servir para innumerables procesos algorítmicos diferentes? Aquí Turing nos iluminó con un poco de su magia. Si bien los algoritmos lógico-matemáticos utilizados para transformar los unos y los ceros los puede realizar el hardware —en este caso se dice que surgen de la arquitectura de la computadora—, Turing vio que era posible codificar esos algoritmos en el propio software, siendo innecesario elaborar una máquina de Turing diferente para cada conjunto de algoritmos particular.[21] Es decir, Turing vio que los unos y los ceros podían tener una doble función: como datos propiamente dichos y como instrucciones para procesar otros datos, lo que ahora llamamos un programa. De este modo, es posible ejecutar procesos variados y complejos en una única máquina simple debido a que la complejidad y la variedad puede recaer en el software y no necesariamente en la maquinaria que los ejecuta. Como consecuencia, si no logramos que una computadora haga lo que queremos no será culpa de las limitaciones del hardware sino de las instrucciones deficientes que le hemos introducido en forma de software, ya que cualquier computadora que sea igual de potente que una máquina de Turing —y todas las computadoras ordinarias lo son, ya que una máquina de Turing es muy simple— tiene que ser capaz de computar cualquier cosa.

La importante tesis que sostiene que la máquina de Turing puede computar todo lo computable se denomina Tesis Church-Turing. Por desgracia, esta tesis no se puede probar de manera formal, ya que define “computable” como todo lo que una máquina de Turing puede computar, formando un razonamiento circular. Aún así, está aceptada universalmente por la comunidad científica. El motivo de esta gran aceptación es que nadie ha podido diseñar una máquina que pueda computar un problema que no pueda ser computado por una maquina de Turing, y tampoco parece que tal máquina sea posible. Esa teórica supermáquina de Turing tendría que disponer de tiempo infinito o viajar en el tiempo para poder existir, según los matemáticos que la han estudiado. Dicho de otra manera, si algo no puede ser computado por una máquina de Turing, ninguna otra máquina real podrá hacerlo. No obstante, no perdamos de vista que la máquina de Turing es sólo un modelo teórico, y su implementación física sería una elección pésima para ejecutar un programa informático. Sobre todo por su escasa velocidad, la característica que hemos dejado al margen de nuestra definición de “potente”. Pero es que el valor de la máquina de Turing no es práctico, sino teórico. La máquina de Turing no se usa para computar, sino para extraer conclusiones. Y esas conclusiones son de enorme valor. De hecho, el motivo de que estemos hablando de la máquina de Turing en este apartado es una de ellas, una conclusión realmente asombrosa: si consideramos que la conciencia es un proceso computacional, una máquina de Turing es lo único que necesitamos para producirla. Y la conciencia parece ser un proceso computacional: no por casualidad nuestro cerebro es un objeto orientado a la computación, y no una masa globular resplandeciente y misteriosa. Así que una máquina de Turing debería poder ser consciente, y por extensión cualquier computadora ordinaria, sin necesidad de que tengamos que recurrir a algo más sofisticado. Por lo tanto, según parece desprenderse de la Tesis Church-Turing, hasta un simple smartphone podría ser consciente si estuviera alimentado con el software adecuado. Doy por supuesto que muchos lectores considerarán que esa afirmación es dudosa o incluso absurda, pero pido un poco de paciencia. Vamos a hablar largo y tendido de ella durante buena parte del resto de este libro.

El gran abismo

 

¿Puede tener conciencia una máquina? No es difícil imaginarme a un lector que encuentre esa posibilidad absurda, ridícula, incluso aborrecible. “¿Un conjunto de chips y cables que sienta, desee, sufra? ¡Imposible!” Pero ese rechazo no suele ser un rechazo intelectual sino emocional, causado únicamente por la incapacidad de imaginarse una máquina con la misma capacidad intelectual y mental que un ser humano. De hecho, no suele haber muchos argumentos más allá de la afirmación “no me creo cómo puede ser eso posible”. Y esa afirmación no es un argumento, es sólo una manifestación de incredulidad. Incredulidad que, como ya he dicho, incluso yo mismo comparto. ¡Pero que no es nada comparada con la incredulidad que me supone su negación! Una máquina consciente me parece un hecho asombroso, pero una demostración de que las máquinas jamás podrán ser conscientes me parece un hecho muchísimo más asombroso. Si una máquina no puede poseer conciencia y un cerebro humano sí, entonces estamos diciendo que hay algo especial en un cerebro humano que no podrá poseer jamás un objeto hecho de metal o plástico. ¿Pero qué es? ¿El material? ¿Qué propiedad mágica tiene la carne? ¿Por qué iba a ser el material tan importante? Podríamos hacer computadoras de casi cualquier material, sea metal, plástico, madera, hilos, cartones o pan duro. El material no es importante a la hora de computar información.

Hay un relato de ciencia ficción que refleja maravillosamente lo que intento decir en este apartado. Se llama Están hechos de carne y lo escribió Terry Bisson. Trata de un robot alienígena consciente al que se le comunica que en un planeta habitan seres inteligentes hechos de carne. Desconcertado, el robot alienígena pregunta entonces si esos seres pueden pensar. Después pregunta si esos seres no tendrán realmente un cerebro de metal envuelto en carne, y posteriormente si no será que esa carne está controlada remotamente por un ingenio robótico. La incredulidad del robot alienígena respecto a la carne pensante es tal que pasa por varias hipótesis desesperadas y extrañas antes de convencerse de que existe un ser inteligente y consciente que está hecho enteramente de carne. La idea de una carne consciente es para el robot alienígena tan ridícula y desconcertante como para nosotros la idea de un metal consciente.

La habitación china

 

A pesar de mis críticas a los filósofos que se oponen a la idea del metal consciente, tengo que admitir que a veces sus aportaciones son muy dignas. Una de las más famosas e interesantes es la Habitación China.[22] El filósofo John Searle la describió como una habitación repleta de tarjetas con caracteres chinos impresos, manejadas a gran velocidad por un operador humano que tiene que distribuirlas según unas reglas escritas en un enorme libro. Ese sufrido operador tiene que consultar ese libro constantemente, ya que no sabe absolutamente nada de chino y la única comunicación con el exterior consiste en una ranura por la cual salen y entran tarjetas escritas únicamente en chino. Las reglas del libro son parecidas a esta: “Si se reciben los caracteres A, B y C entonces se deberán devolver los caracteres R, B y W”. Se puede ver que el conjunto de reglas del libro es un reflejo del conjunto de algoritmos que emplea una máquina de Turing. El paralelismo es intencional por parte de Searle, ya que lo que él pretende es representar una computadora, siendo el libro de reglas el software y el operador el hardware. Esa computadora tiene su propio usuario, una mujer china sentada en el exterior de la habitación que es capaz de entender las tarjetas. La mujer china introduce en la ranura las tarjetas con los caracteres A, B y C, que en chino significan “¿El higo es una fruta?” y por la ranura salen los caracteres R, B y W que forman la frase “No, el higo es una infrutescencia.” Nótese que el libro de reglas tiene que ser realmente extenso y complejo para poder lograr la proeza de conversar en chino de esta manera. Se podría decir que el libro es el software de una IA (Inteligencia Artificial) extremadamente buena. Incluso podemos imaginarnos que el libro es tan perfecto que es capaz de hacer creer a la mujer china que en el interior de la habitación hay una persona que realmente entiende el chino, pudiendo incluso jugar a go[23] con ella, bromear o enamorarse. A eso se le llama pasar el test de Turing: lograr una IA tan alta que pueda hacerse pasar por humana ante un observador externo.

¿A dónde quiere ir a parar Searle con esta historia? Searle nos está intentando decir que por muy inteligente que nos pueda parecer una computadora, su mente no es equivalente a la de un humano. Los humanos comprenden lo que están haciendo, pero las computadoras ni comprenden ni necesitan comprender. El operador de la habitación no sabe chino, no tiene ninguna comprensión de lo que está haciendo o diciendo, simplemente se limita a seguir unas reglas mecánicas. Según Searle, las computadoras podrían simular comprender o ser conscientes, pero ni podrían comprender ni ser conscientes de verdad.

 

La argumentación de Searle causó toneladas de réplicas, generando un debate que perdura hasta la fecha. De las muchas que recibió Searle yo sólo expondré dos. La primera se basa en la poca sofisticación del libro de reglas. Un cerebro humano no sólo está procesando datos para manipular palabras, sino que está procesando datos para entenderlas. Así que para lograr entender chino, al libro le faltarían muchas más reglas, reglas ya no para engañar a la mujer que se halla en el exterior, sino al sólo efecto de lograr una comprensión del idioma chino en el sistema. El software de Searle es intencionalmente escaso. Si el software de la habitación es equivalente a un programa conversacional simple como SHRDLU[24], es obvio que no habrá conciencia, a menos que alguien crea que SHRDLU es consciente. Yo puedo programar un autómata conversacional que responda “de nada” a un “gracias” e incluso engañar a alguien para que piense que hay un humano detrás de la pantalla, pero eso no implica que exista conciencia en el autómata. La segunda se basa en la idea de que quien realmente entiende chino no es el operador, sino la habitación entera, refiriéndose a la habitación como el sistema operador-libro y considerando el entendimiento como un producto emergente del sistema, no una propiedad que tenga que surgir de la mente del operador humano. El cerebro es consciente pero las neuronas no, de la misma manera que la habitación entiende chino pero el operador no. Searle contestó a este argumento de forma ingeniosa, afirmando que el problema sería el mismo aunque no hubiera ni libro ni habitación, haciendo que el humano memorizara el libro de reglas. De esta manera ya no necesita el libro, pero sigue sin entender chino. Eso fuerza un poco la definición de “sistema” que acabamos de utilizar. ¿Es un sistema también el conjunto “parte de la mente que ha memorizado el libro de reglas-parte de la mente que aplica las reglas”? Yo creo que si el libro memorizado fuera lo suficientemente sofisticado, quien entendería chino no sería exactamente el operador, sino el sistema que surgiría de los procesos mentales del operador. Una especie de cerebro simulado en un cerebro real. Y menudo cerebro. Sería una proeza equivalente a imaginarse a una computadora con todos los detalles del hardware, memorizar la lista de unos y ceros correspondiente a un programa con una IA potentísima y ejecutar ese programa en la computadora que se está imaginando. Una mente real capaz de generar una mente virtual, una posibilidad que analizaremos en el último capítulo.

Estas dos réplicas parecen ser razonables y sensatas. No obstante, la sensación es que todavía quedan muchos puntos por resolver. A pesar de que escribamos más reglas en el libro y consideremos la comprensión como un fenómeno emergente de todo el sistema, ¿dónde está la conciencia en un ente así? ¿Dónde está el yo? ¿Dónde se producen los qualia? Bien, no lo sé. ¡Pero es que tampoco sé donde se hallan en un cerebro humano! En realidad, creo que lo que Searle hizo no fue más que crear una buena definición del Problema Duro, una más de las que ya existían. Preguntarse cómo es posible que se genere entendimiento en la Habitación China es básicamente lo mismo que preguntarse cómo es posible que se genere conciencia en una máquina o en un humano. Searle nos expone que una máquina no es capaz de entender algo, pero tampoco nos dice como el cerebro humano es capaz de entender algo. Y ahí está la gran debilidad del razonamiento de Searle. Cuando sepamos el mecanismo por el cual un cerebro humano comprende, sabremos entonces cómo construir una máquina que comprenda.

El espíritu en las cuerdas

 

La idea de que el conjunto operador-libro entiende chino a pesar de que ni el libro ni el operador entienden chino nos resulta muy extraña. De la misma manera, también nos resulta muy extraña la idea de una máquina de Turing consciente implementada a partir de elementos mecánicos sin propiedades mentales. Y si hemos comprendido el fondo del Problema Duro, también nos debería resultar muy extraña la idea de un cerebro consciente compuesto por neuronas inconscientes. Podemos ver un patrón común: nos cuesta creer en un objeto consciente formado por elementos inconscientes. ¿Cómo surge la conciencia en un sistema así? En el apartado “Fenómenos emergentes” del capítulo segundo afirmamos que la conciencia era un fenómeno emergente, y ahora podemos comprender lo que de verdad significaba eso: la conciencia parece ser una propiedad que brota misteriosamente de la nada, una entidad que flota entre el hardware. Comparémosla con una propiedad no emergente como la masa. La masa es una propiedad elemental de la materia que procede directamente de la propia materia, mientras que la conciencia es una propiedad que procede de ciertos patrones y sólo tiene una relación indirecta con la materia que forma esos patrones. Si golpeamos una roca y la partimos en mil pedazos, esos pedazos tendrán su propia masa, siendo la suma de las masas de los pedazos equivalente a la masa original de la roca. La propiedad no se pierde. Pero si golpeamos un objeto consciente y lo partimos en mil pedazos, en esos pedazos no veremos conciencia en absoluto. Habrá desaparecido, se habrá desvanecido en el aire, del mismo modo en que un mandala de arena desaparece en un golpe de viento.

Para entender mejor estas ideas, vamos a servirnos de un experimento mental al que llamaremos el Espíritu en las Cuerdas[25], una versión ligeramente modificada de otro experimento mental creado por Ned Block, el Cerebro-China. Me gustaría que el lector imaginara a unos centenares de billones de personas sosteniendo cada una cuatro extremos de cuerdas en su mano izquierda. Cada cuerda conecta a dos personas diferentes, formando una intrincada red. Las cuerdas tienen longitudes variables y mantienen la tensión necesaria para que se note inmediatamente en la mano si hay un tirón en alguna cuerda. Al igual que el operador de la Habitación China, cada persona tiene un libro de instrucciones, así que de ahora en adelante les llamaremos operadores. Los libros, que contienen instrucciones diferentes para cada operador, indican cómo responder ante los tirones de cuerdas. Por ejemplo, un libro podría indicar que ante tres tirones en la cuerda B hay que responder con cinco tirones en la cuerda C, así que el operador cogería la cuerda C con su mano derecha y proporcionaría cinco tirones seguidos. Los tirones de cuerdas son el lenguaje que conforma el software del sistema. Esta metáfora pretende evocar un cerebro, al igual que la metáfora del Cerebro-China[26], siendo la compleja red que se forma un reflejo de las redes neuronales.[27] Y al igual que las neuronas o el operador de la Habitación China, los operadores que sujetan las cuerdas no tienen ni idea de los datos que están procesando. Sólo siguen reglas fijas y simples.

¿Es posible que ese sistema pueda ser consciente? Si el lector lo encuentra absolutamente imposible, estará experimentando el sabor del Problema Duro. Nuestra intuición nos dice una y otra vez que eso no puede ser posible, que un ente así no debería de ser capaz de sentir. Podemos aumentar el número de personas, de cuerdas y de reglas, pero nuestra cabeza nos repite que sólo son cuerdas moviéndose, y que de ahí no puede surgir un ente consciente que experimente sensaciones subjetivas. ¿Dónde estaría ese ente consciente? ¿En las personas, que no entienden lo que están haciendo y que hasta se podrían sustituir sin ninguna repercusión por robots? ¿En las cuerdas? ¿En el sistema entero? Searle diría que es absurdo plantearse que un sistema así pueda ser consciente, pero mientras Searle se burla, yo me fascino. Me fascino ante esa opción porque, siendo tan extraña como es, la considero la menos absurda de las opciones posibles. Y al mismo tiempo entiendo perfectamente a Searle, porque es una opción tan absurda que cualquier persona sensata diría que es imposible. ¡Cuerdas creando un yo al tensarse! ¡Hasta a mí me parece imposible! Cuando hablé del Problema Duro dije que era frustrante, y me refería exactamente a esto, a la perplejidad que causa comprobar que todas y cada una de las explicaciones que a uno se le puedan ocurrir parecen absurdas, imposibles, ajenas al sentido común. La explicación de que la conciencia emerge de procesos computacionales puede parecer razonable de entrada, pero Searle y muchos otros pronto se dieron cuenta de que defender esa explicación implicaba aceptar que entes tan extraños como la Habitación China o el Espíritu en las Cuerdas pudieran ser conscientes. Y lejos de alejarme de esa implicación, rechazarla o quitarle importancia, la tengo muy presente. Tan presente que casi siempre que pienso en el Problema Duro lo hago imaginándome a esos entes extraños. Son precisamente la piedra de toque de las hipótesis que consideran la conciencia como una propiedad emergente causada por procesos computacionales. Así que constantemente oscilo entre la incredulidad de imaginarme la existencia de un espíritu entre las cuerdas y la incredulidad de considerar la conciencia como algo mágico al margen de todo el conocimiento científico actual. Y ya cuando me acuesto cansado de no llegar a ninguna conclusión, en mis sueños aparece ese misterioso yo formado por tirones, volando entre las cuerdas y surgiendo de la nada, riéndose de mi frustración.

Notas

 

[18] También llamado simplemente “problema de la conciencia”.

 

[19] No obstante, no siempre se produce una huida. A veces para la supervivencia es más conveniente quedarse quieto, lo que se traduce en una respuesta fisiológica consistente en quedarse “paralizado por el miedo”.

[20] “Toda tecnología lo suficientemente avanzada es indistinguible de la magia.”

[21] Una máquina de Turing capaz de emular cualquier máquina de Turing recibe el nombre de máquina de Turing universal. De ahora en adelante, siempre que hablemos de máquinas de Turing nos referiremos a esta última.

[22] En realidad Searle no cree exactamente que las máquinas no puedan tener conciencia. La opinión de Searle sobre este punto se explica más detalladamente en el capítulo siguiente.

[23] Es interesante considerar lo complejo que tendría que ser el libro de reglas para incluir algoritmos capaces de jugar una partida de go a un nivel decente.

[24] SHRDLU es un software diseñado por Terry Winograd para efectuar conversaciones, en concreto conversaciones sobre operaciones simples con objetos geométricos.

[25] Variación de la expresión “espíritu en la máquina” (en inglés, ghost in the machine) acuñada por el filósofo Gilbert Ryle.

[26] En el cerebro-China en lugar de cuerdas se usan teléfonos, cada persona simulando ser una neurona.

[27] El símil obviamente no es perfecto. Por ejemplo, cada neurona suele tener unos cuantos miles de sinapsis, mientras que cada operador del Espíritu en las Cuerdas tiene sólo cuatro. De ahí que el número de operadores sea obscenamente grande, pues se debe compensar la carencia de sinapsis. Un cerebro humano tiene unos cien mil millones de neuronas, mientras que en el Espíritu en las Cuerdas hay centenares de billones de operadores. Es cierto que este número imposible de imaginar puede complicar la visualización del experimento mental, pero creo que es necesario que el lector se haga una idea de la magnitud de la complejidad del asunto, al igual que en el apartado anterior creí necesario aclarar que el libro del operador de la Habitación China no puede ser un libro de tamaño normal.

bottom of page