top of page

7-El espíritu en los cables

La Teoría Computacional de la Mente

 

2001, una odisea del espacio y Blade runner son dos películas ambientadas en el futuro en las que aparecen máquinas que tienen sentimientos, implicando por tanto que son seres conscientes, yoes. Las dos son grandes películas por innumerables méritos propios, pero el de describir esa idea por primera vez no está entre ellos. La idea de una máquina consciente forma parte del imaginario colectivo desde hace siglos, mucho antes de que esas películas fuesen concebidas. Probablemente el origen de esa idea surgiera de alguien que se imaginó una máquina imitando la conducta y apariencia de un ser humano, y finalmente se planteó si esa imitación algún día podría ser tan perfecta que surgiera un alma artificial de esa persona artificial. Pues bien, en el capítulo anterior me posicioné a favor de la hipótesis que considera que la conciencia es fruto de un proceso computacional, y esa hipótesis implica que esas antiguas fantasías tienen que ser realizables. ¿Pero cómo podríamos crear una máquina sintiente? La ciencia moderna no sabe ni por dónde empezar. Ni una sola pista. Nada.

Hemos hablado mucho de la metáfora de la computadora, y ahora vamos a presentar a su hermana mayor, la Teoría Computacional de la Mente. Mientras que la primera es una comparación informal entre el cerebro y una computadora ordinaria, la segunda es una hipótesis formal que afirma que el cerebro es una computadora en sentido general. ¡Obviamente no en el sentido de considerar que el cerebro es una computadora ordinaria como la que usamos para escribir documentos o editar archivos de vídeo!, sino en el sentido genérico de considerar que el cerebro es esencialmente un objeto que computa datos, y de esas computaciones surge la mente. Así que cuando la Teoría Computacional de la Mente afirma que el cerebro es una computadora está pensando más en un concepto teórico como una máquina de Turing que en una computadora al uso. Claro que tampoco cometamos el error de creer que la Teoría Computacional de la Mente considera que el cerebro es literalmente una máquina de Turing: el cerebro no posee una memoria infinita, no tiene la misma manera de procesar la información y no se puede programar, por decir algunos ejemplos. Así que en ciertos aspectos el cerebro humano es incluso más limitado que una máquina de Turing. Sin embargo, de momento nuestro cerebro gana a cualquier computadora ordinaria en cuanto a capacidad de sentir experiencias. ¿Cómo podríamos conseguir que una máquina de Turing fuese consciente? Este capítulo trata enteramente de ese difícil reto.

Las computadoras son estúpidas

 

“¿Conciencia en una computadora? ¡Imposible! Las computadoras son estúpidas. Sólo hacen lo que les han ordenado que hagan.” Ese es un punto de vista tan común que le dedicaremos un apartado propio. La idea consiste en que los pensamientos de una computadora son simples, mecánicos, inflexibles, carentes de creatividad e incapaces de abordar un problema desde ángulos poco usuales. Nada que ver con el pensamiento humano, flexible, creativo y capaz de pensar fuera de la caja.[33] Ya hablamos bastante del tema en el apartado “La habitación china” del capítulo quinto, donde expuse las ideas de Searle y mis réplicas a esas ideas. Pero la Habitación China no es el único argumento aportado por los que opinan que las máquinas son intrínsecamente incapaces de tener pensamientos fuera de la caja.

Vamos a presentar uno adoptado por el filósofo J.R. Lucas basado en el Teorema de Gödel. Resulta muy complicado explicar el Teorema de Gödel, y mucho menos en un párrafo como es mi intención, y recomiendo al lector interesado el libro Gödel, Escher, Bach donde Douglas Hofstadter lo explica de manera maravillosa, además de refutar mejor que yo los argumentos de Lucas. Si tuviera que explicar el Teorema de Gödel de manera extremadamente resumida, diría que la parte fundamental consiste en escribir en un lenguaje lógico la afirmación “esta afirmación matemática no es deducible en este sistema”. Tenemos ahora dos posibilidades en función de si esa afirmación se puede deducir de nuestro sistema o no: si la afirmación es deducible en nuestro sistema, tenemos una deducción que afirma una falsedad, y si la afirmación no es deducible en nuestro sistema, tenemos una verdad que nuestro sistema no ha podido deducir. Y en ambos casos tenemos un problema. En el primero, un sistema que deduce falsedades. En el segundo, un sistema que no puede deducir todas las verdades. Como el primer problema es mucho más grave que el segundo —de hecho, invalidaría todo nuestro sistema—, la conclusión más favorable es que la afirmación tiene que ser cierta pero no deducible: mejor un sistema incompleto que un sistema incoherente. Y así es como Gödel demostró que los sistemas lógicos no pueden ser completos. Pues bien, también de forma extremadamente resumida, el argumento de Lucas consiste en la idea de que las computadoras están fundamentadas en sistemas lógicos, por lo que según el Teorema de Gödel existen afirmaciones ciertas que las computadoras no pueden deducir. Sin embargo, esas mismas afirmaciones son consideradas como ciertas por los humanos. En pocas palabras: las computadoras son vulnerables al Teorema de Gödel y los humanos no, así que el cerebro humano es una supermáquina de Turing.

El argumento de Lucas contiene numerosos errores, pero nosotros sólo hablaremos de uno en particular: Lucas insiste en describir a las computadoras como incapaces de salir del marco lógico en el que están fundamentadas, sin tener en cuenta los diferentes niveles de una computadora, un ejemplo claro de por qué era necesario el apartado “Niveles de interpretación” del capítulo segundo. Como Lucas no distingue entre niveles, se fija en el funcionamiento a nivel bajo de una computadora y asume que el funcionamiento a nivel alto será igual. Por poner un ejemplo sencillo que muestra que los niveles no tienen por qué comportarse de la misma manera, pensemos en una computadora programada para que realice sumas erróneas presentando números aleatorios como resultados. Entonces tendremos un nivel alto que se comporta de forma no lógica a pesar de —o más bien gracias a— el funcionamiento correcto y lógico de su nivel bajo: un nivel alto irracional fundamentado en un nivel bajo racional. De forma parecida, una máquina de Turing puede estar programada para ejecutar una red neuronal artificial, un sistema computacional que emplea algoritmos muy diferentes a escribir y borrar unos y ceros en una cinta infinita. En este caso, los dos niveles son racionales pero distintos en su forma de procesar datos. Así que una máquina de Turing siempre tendrá la misma apariencia en su nivel bajo, pero la apariencia de su nivel alto puede ser cualquiera que podamos programar. Por lo tanto, una computadora se fundamenta en la lógica pero al mismo tiempo puede ser programada para considerar como ciertas determinadas afirmaciones incluso aún no siendo lógicas, y ese es uno de los errores de Lucas. Por norma general, Lucas, Searle y todos los que opinan que las computadoras son estúpidas subestiman las capacidades de una computadora.

 

De todas formas, no perdamos de vista que al menos en el caso de la conciencia hablamos de capacidades que aún no se han manifestado. Suponemos que las computadoras son capaces de tener conciencia por motivos teóricos, no porque lo hayamos visto. No poseemos una computadora consciente que podamos enseñar a Searle o a Lucas y convencerles de una vez por todas. Así que en ese sentido, la Teoría Computacional de la Mente requiere un poco de imaginación al referirse a un software que aún no se ha escrito, un software prodigioso que originaría una mente humana en una máquina de Turing.[34] Pero hasta que no consigamos ese software prodigioso no podremos confirmar la Teoría Computacional de la Mente.

Neuronas eléctricas

 

Escribir el software prodigioso no parece tarea sencilla. Pero, ¿y si no fuera necesario hacerlo? En cierto modo, el software prodigioso ya existe, aunque nadie lo escribió: está codificado en nuestros cerebros. Sólo tenemos que copiarlo para obtenerlo. No obstante, descodificar ese software es muy complicado, porque para ello nos haría falta comprender el difícil lenguaje en el que está escrito, el lenguaje de nuestras redes neuronales. Si en el futuro lo logramos, quizás podríamos realizar cosas tan asombrosas — y perturbadoras— como escanear un cerebro, obtener su mente en forma de software y transferirlo a una computadora, pero de momento eso es sólo ciencia-ficción. Lo que sí podemos hacer es inspirarnos en los mecanismos cerebrales para escribir softwares que se asemejen a la forma de pensar humana. Aquí ya no hablaríamos de una copia simple de nuestro software cerebral sino de una adaptación, una construcción inspirada en la biología. De este modo surgieron las redes neuronales artificiales, tomando como modelo nuestras propias redes neuronales.

Y antes de seguir, dos comentarios importantes. Primero: la inmensa mayoría de los avances y el desarrollo de las redes neuronales artificiales no están orientados a validar la Teoría Computacional de la Mente, conseguir una máquina de Turing consciente o probar alguna tesis filosófica, sino a lograr avances en inteligencia artificial. Dicho de otro modo: la similitud con el cerebro humano es sólo un medio, no un fin. Si un cambio de diseño aleja la red del modelo biológico pero consigue mejorar la inteligencia del sistema, ese cambio se realizará inmediatamente. De hecho, las redes neuronales tienen ya aplicaciones comerciales, y las empresas interesadas en confirmar teorías filosóficas no abundan. Como consecuencia de ello, las diferencias entre una red neuronal artificial y una real son notables. Segundo: espero que ningún lector se imagine a una red neuronal artificial como un conjunto físico de neuronas artificiales con dendritas y axones de plástico.[35] En el apartado anterior precisamente he usado las redes neuronales artificiales como ejemplo de sistema computacional poseedor de un nivel alto con una apariencia diferente a la del nivel bajo en que se fundamenta. Una red neuronal artificial es sólo un modelo matemático, un software que se puede ejecutar en cualquier computadora, como por ejemplo en nuestra querida máquina de Turing.

Ahora vamos a describir un modelo muy básico de red neuronal artificial, uno de los muchos que hay. Y aunque como acabo de decir es sólo un modelo matemático abstracto compuesto simplemente de números y ecuaciones, para explicarlo será muy útil hacer una comparación con una red neuronal real. Imaginemos una neurona artificial con unas pocas dendritas artificiales, teniendo cada una un número asociado, un peso específico que en la metáfora cerebral representaría el grado de intensidad de la sinapsis. Cuando la red entra en acción, cada dendrita artificial podrá recibir un input diferente en forma de número, y cada input se multiplicará por el peso específico de la propia dendrita artificial. Si la suma de todas esas multiplicaciones supera un determinado valor umbral, la neurona artificial emitirá su output, que por supuesto no es más que otro número. Ese número será captado por las neuronas artificiales que estén conectadas a ella, siendo la configuración de esas conexiones un factor clave en el diseño de la red neuronal artificial. Como se puede ver, este modelo posee la esencia de una red neuronal real sin llegar a ser una imitación total.

¿Qué cosas puede hacer una red neuronal artificial? Es muy sugerente que precisamente sean muy eficaces en tareas que siempre se habían considerado como demasiado humanas para las IAs tradicionales. Por ejemplo, el reconocimiento de imágenes. A nosotros nos parece trivial, pero identificar la letra “h” en una imagen es altamente complejo. La letra “h” se puede escribir con diferentes tipografías, estilos y colores. La superficie donde está escrita puede tener diferentes texturas. La iluminación puede tener diferentes colores, sombras o intensidades. La fotografía puede tener diferentes calidades y se puede tomar en ángulos variados. La letra “h” puede estar en primer plano, en segundo plano, pueden aparecer otros objetos que no sean letras en la imagen, etc. La cantidad de imágenes posibles en las que salga la letra “h” es infinita. Pero en donde las IAs tradicionales fallaron, las redes neuronales artificiales brillaron.

Magia en el nivel alto

 

Si un programador quisiera construir un software capaz de reconocer la letra “h”, probablemente la primera idea que le vendría a la mente consistiría en almacenar en alguna parte del software una imagen correspondiente a la letra “h” y hacer que el programa estableciera una comparación simple entre esa imagen modelo y la entrante. Obviamente, esa idea está condenada al fracaso por los motivos que acabamos de exponer. Ese programador podría introducir un modelo que fuera capaz de lograr que su software tuviera éxito en una determinada imagen, pero en cuanto la imagen variara levemente, su modelo de “h” ya no serviría. La gran cantidad de imágenes diferentes que pueden contener la letra “h” hace que usar unas instrucciones fijas y determinadas parezca inútil. Y es que el símbolo “h”no es una imagen fija, sino más bien un concepto algo abstracto que se resiste a ser encapsulado en un modelo determinado. Así que el programador se daría cuenta de que en lugar de un modelo único, lo que necesitaría es una abstracción generalizada a partir de muchas muestras de lo que es el símbolo “h”. ¿Pero cómo se puede conseguir introducir una abstracción en un software? ¿Cómo se puede escribir algo difuso? Pues sí que se puede, ¡usando instrucciones fijas y determinadas! Y aquí es cuando entra en juego la magia de los niveles. El truco no está en introducir esa “h” en el nivel bajo del sistema, sino en crear un sistema con un nivel bajo capaz de producir un significado de nivel alto que se pueda corresponder con esa esquiva “h”. De ese modo, en el nivel bajo sólo habrá números siendo procesados mediante unas reglas fijas, y alguien que sólo sepa extraer esa interpretación de nivel bajo no podrá percibir la abstracción en el sistema ni tampoco encontrar ninguna “h”. La “h” será sólo una abstracción contenida en una de las interpretaciones del nivel alto, sin estar almacenada en ninguna parte concreta del software.

Se entenderá mejor con un ejemplo, que además es el mismo que mostramos en el apartado “Niveles de interpretación”. Imaginemos un conjunto de secuencias de jugadas de go (D16-D17-E17-D18-E18-C17-C16-C18-B17, B2-C2-B1-B3-A2-C1, etc.) que en principio no significan nada a nivel alto, pero que si las vemos en un tablero comprenderemos enseguida que se trata de secuencias en donde las fichas negras rodean a las fichas blancas. Así que acabamos de otorgar a ese conjunto de secuencias de jugadas el significado de nivel alto “rodear”. Entonces le presentamos a nuestra red neuronal preferida varias de esas secuencias, quizá miles, junto con secuencias que no rodean, hasta que aprenda a distinguir qué secuencias de jugadas de go rodean al enemigo y qué secuencias no. Pero el concepto de “rodear” en realidad no estará en la red, sino sólo en nuestra interpretación: la red no sabe lo que significa “rodear” en absoluto, simplemente ha aprendido a distinguir las secuencias A de las secuencias B. De hecho, quizás nuestra interpretación de nivel alto difiera de la de otra persona, por ejemplo entendiendo que lo que hace la red realmente es decidir qué jugador tiene mejor posición —ya que normalmente el que rodea tiene mejor posición que el rodeado—. ¡El nivel alto se presta a interpretaciones diversas!

Volviendo a nuestro ejemplo anterior, nuestra red tampoco entiende lo que es una “h”, sino que simplemente ha aprendido a distinguir un conjunto de imágenes de otro conjunto de imágenes en base a nuestras indicaciones. Que nosotros justamente hayamos clasificado esas imágenes en función de la presencia o ausencia de signos “h” y por tanto consideremos que lo que hace nuestra red es distinguir “h” es sólo nuestra interpretación de alto nivel de los hechos, una interpretación de las muchas posibles. De todas formas, si hemos entrenado bien a nuestra red se supone que existirá codificado en un complejo entramado de números algo parecido a un patrón de datos con forma de “h”. ¿Podemos decir entonces que nuestra red sabe lo que es una “h”? Ciertamente nuestro programa no entiende conceptos, sólo maneja números, ¿pero es eso distinto a lo que hacen nuestros cerebros? ¿Podemos decir que nosotros sabemos lo que es una “h” mejor de lo que lo sabe nuestra red neuronal artificial? ¿Será nuestro sistema de comprensión del mundo similar al que tiene esa red neuronal artificial? Son preguntas apasionantes, pero no vamos a intentar resolverlas ahora. Tenemos que explicar primero como aprenden las redes neuronales artificiales.

Máquinas que aprenden

 

Una red neuronal artificial recién escrita no es más que un papel en blanco, una tabula rasa. La red tiene que aprender primero para que podamos obtener un rendimiento de ella. Y para que podamos comprender como aprenden las redes neuronales artificiales vamos a recurrir al ejemplo del apartado anterior, la capacidad de distinguir la letra “h” en una imagen. Para ello, lo primero será presentar a la red una fotografía —recordemos que una imagen es fácilmente traducible al lenguaje de unos y ceros que entienden las computadoras— y preguntarle si aparece la letra “h” en ella. En este primer intento, la red lanzará una respuesta al azar, porque aún no ha aprendido. Seguidamente le indicaremos la solución, es decir, la información de si la respuesta emitida ha sido un acierto o un fallo. Y en base a esa retroalimentación, la red ajustará los pesos específicos de sus dendritas intentando minimizar el error: es decir, se configurará a sí misma para que la próxima vez que se le presente esa misma fotografía la respuesta se corresponda con la que le proporcionó el programador. Y si le proporcionamos un número de fotografías suficiente, poco a poco la red tendrá un porcentaje de fallos de cada vez menor, es decir, la red aprenderá. Así expuesto, el proceso parece muy tedioso, pero eso ha sido porque he utilizado la trampa de tratar a la red como si fuera humana para que se entendiera mejor el ejemplo. El programador en realidad no está pendiente de la red enseñándole fotografías una a una y dándole la solución. El programador lo único que hará es proporcionar a la red un gran número de fotografías con su correspondiente solución una sola vez, y ya está. La red no va a hacer trampas, por lo que sólo necesita el libro con las soluciones para aprender. Ese aprendizaje hará que el propio software se reescriba a sí mismo progresivamente hasta que consiga distinguir la letra “h” en las imágenes con un porcentaje de error pequeño. Eso significa que ese software increíblemente complejo capaz de distinguir la letra “h” en una imagen en realidad no lo ha escrito el programador. El programador ha escrito la IA y la IA se ha escrito a sí misma.

Esta forma de aprender de las redes neuronales artificiales explica cómo es posible que un programa pueda llegar a resultados no previstos por su propio programador.[36] Cuando un programador escribe un software con instrucciones muy definidas orientadas a solucionar un problema específico, ese software está en cierta medida limitado por las propias capacidades de su creador, ya que ese software no será más que un reflejo de su propio razonamiento formulado en un lenguaje muy lógico. En cambio, si un programador escribe un software con instrucciones orientadas a crear una IA para que sea esa IA quien solucione el problema por sí misma, es obvio que ese software podrá llegar a resultados no previstos por el propio programador, porque en realidad él no va a solucionar el problema, sino la IA. Y es aquí cuando la afirmación “las computadoras son estúpidas porque sólo hacen lo que les han ordenado que hagan” empieza a mostrar sus puntos flacos.

Y con esto acabaremos la exposición de lo que son las redes neuronales artificiales. Espero que con ella el lector se haya hecho una idea de lo que es capaz de hacer una computadora, así como de la versatilidad que puede presentar una simple máquina de Turing. Podemos ser optimistas: las computadoras actuales son capaces de realizar tareas que parecían exclusivas de la mente humana hasta hace unas pocas décadas. ¿Pero podemos ser tan optimistas como para pensar que llegarán a ser conscientes? De momento hemos logrado IAs muy inteligentes, pero de la conciencia no hay ni rastro. ¿Si conseguimos IAs de cada vez más inteligentes, algún día llegarán a ser conscientes por sí mismas, sin que ni siquiera los propios programadores se tengan que molestar en pensar en ello? ¿O por el contrario dará igual lo inteligentes que sean esas IAs, siendo quizás la conciencia algo totalmente independiente de la inteligencia?

Masa crítica

 

La trama de la saga iniciada por la película The Terminator se basa en un futuro escenario apocalíptico en el que la tecnología juega a la humanidad una mala pasada. La mala pasada es Skynet, una enorme inteligencia artificial compuesta por millones de computadoras destinada a la estrategia militar. Inmediatamente después de ser creada “empieza a aprender a un ritmo geométrico” y como resultado de ello en apenas un mes “toma conciencia de sí misma” y se rebela contra sus creadores causando un holocausto nuclear. En el guión parece quedar implícito que la conciencia es sólo cuestión de capacidad intelectual, de llegar a una masa crítica. Sencillamente, llega un momento en que si la inteligencia es lo suficientemente alta, la conciencia surge sin más, sin necesidad de añadir ningún elemento al sistema. Si consideramos que esta idea cinematográfica tiene sentido, entonces una vía para escribir el software prodigioso se nos abre. Se trata de escribir un software que posea una enorme inteligencia artificial aplicado a un hardware lo suficientemente bueno como para procesar una gran cantidad de datos en poco tiempo. Al llegar nuestra máquina a un determinado nivel de inteligencia, alcanzaría la conciencia sin más.

¿Pero eso tiene sentido? ¿Es tan estrecho el vínculo entre inteligencia y conciencia? ¿Podríamos decir incluso que la inteligencia es un requisito necesario para la conciencia? Es más, ¿podría ser el único requisito? Para responder a esas preguntas lo primero es definir qué entendemos por inteligencia. ¿Es inteligencia lo que posee una máquina que gana al campeón del mundo de go pero es incapaz de ganar una sola partida al tres en raya? El concepto de inteligencia parece sencillo de aplicar cuando se trata de seres humanos, donde suele ser probable que una persona que tiene facilidad para resolver un tipo de problemas también tenga facilidad para resolver problemas en general, pero no es tan fácil de aplicar cuando hablamos de una máquina que está excelentemente capacitada para resolver problemas de un tipo determinado pero incapacitada para cualquier otra tarea intelectual.[37] La persona que es buena resolviendo problemas matemáticos por lo general suele ser buena también para aprobar exámenes de literatura o entender el manual de instrucciones de su teléfono, y decimos que estamos ante una persona inteligente. Usamos una sola medida para hablar de inteligencia, el cociente intelectual, y no varias. Pero en el caso de inteligencias artificiales, es perfectamente posible crear computadoras excelentes en un campo e ineptas en otro. AlphaGo sabe jugar excelentemente al go, pero no es capaz de hacer nada más. ¿AlphaGo es inteligente o no? Si consideramos muy inteligente a AlphaGo, entonces nuestra hipótesis de la inteligencia como engendradora de conciencia hace aguas. AlphaGo no parece ser consciente en absoluto a pesar de poder superar en una tarea intelectual a un ser humano consciente.

¿Pero qué tarea generaría conciencia al ser efectuada por un software? Desde luego, la habilidad de jugar bien al go no parece ser suficiente. Tampoco la habilidad de reconocer letras en una imagen. ¿Pero bastará con una tarea específica? ¿Y si se necesitan varias para alcanzar la conciencia? Son preguntas difíciles, muy difíciles. Para no quedarnos atascados en ellas, podemos escoger una tarea prometedora y apostar por ella. Por ejemplo, podemos escoger una tarea que parece ser bastante relevante en los procesos conscientes, la tarea que escogió Searle para su experimento mental de la Habitación China: la comprensión. Una mente humana no sólo resuelve problemas, sino que los comprende. ¿Pero cómo podríamos programar a una computadora para que comprenda?

Hablar y comprender

 

La diferencia a la hora de programar una máquina que procese y otra que comprenda lo procesado parece abrumadora. Programar una máquina para sumar 2+5 es sencillo, tanto que lo podría hacer nuestra querida pascalina mediante engranajes. Programar una computadora para comprender esta suma, por contra, requiere hacer que la máquina comprenda a su vez los conceptos abstractos de “suma”, “número”, “ecuación”, etc. ¿Pero qué es realmente comprender? ¿Cómo podemos escribir un software que permita que una computadora comprenda?

En términos humanos, para entender algo parece ser esencial poseer la capacidad del lenguaje. El lenguaje es la herramienta más potente que posee nuestra mente, y se podría decir que es la invención humana más importante de la historia, la que nos permitió organizar el conocimiento y comunicárselo a los demás. Nos cuesta mucho pensar en un ente que comprenda algo sin dominar el lenguaje, así que probablemente tengamos que enseñar a hablar a una computadora para que sea capaz de comprender. Y no es nada fácil, ya que un idioma como el nuestro engloba conceptos, abstracciones, ambigüedades, comparaciones, elipsis, paralelismos, generalizaciones y metáforas, y requiere un conocimiento previo sobre el mundo muy alto, ya que solemos dar la mayor parte de la información por sobreentendida. A pesar de todo, se han logrado ya algunos programas capaces de conversar con humanos de forma más o menos convincente. ¿Pero son esos programas capaces de entender lo que dicen? No, con total seguridad. ¿Y por qué un programa capaz de hablar no es capaz de entender? Como ya dije en el apartado “La habitación china”, creo que un software que comprenda necesitaría poseer algoritmos exclusivamente dedicados a la propia comprensión. Un software conversacional está orientado a presentar conversaciones convincentes, no a lograr una comprensión de ellas. ¿Pero cómo serían esos algoritmos? No tengo ni la más remota idea, aunque intuyo que tendrían que ser mucho más complejos que los dedicados a la simple producción de una conversación convincente.

Comprender y ser consciente

 

Construir una máquina que comprenda parece algo muy difícil. Incluso podríamos pensar que esa dificultad se debe a que estamos hablando de nuestro viejo amigo, el Problema Duro. Quizás lograr una máquina que comprenda es equivalente a lograr una máquina consciente. ¿Pero cuál es exactamente la relación entre la comprensión y la conciencia? ¿Sería posible comprender sin ser consciente? ¿Sería posible ser consciente sin comprender nada? Los que creen que la comprensión es una experiencia subjetiva opinarán que es imposible comprender sin ser consciente, ya que tener experiencias subjetivas implica tener conciencia. Y es una postura muy sensata, ya que el acto de comprender lo sentimos como un quale, una experiencia interior comparable a un clic mental que hace que todo encaje.[38] Así que si nuestra máquina comprende y nosotros somos de la opinión de que la comprensión es una experiencia subjetiva, ya habríamos logrado nuestra meta. Si por el contrario somos de la opinión de que se puede comprender sin ser consciente, aún nos quedaría trabajo por delante. Tendríamos que dar el último paso, otorgar conciencia a nuestra máquina capaz de comprender. ¿Qué podríamos hacer con una máquina así? Quizás podríamos enseñarle todos los conceptos del universo pacientemente y esperar a que la conciencia surja por sí misma en algún momento. Es un tipo de solución que nos recuerda algo a la hipótesis de la masa crítica que hemos visto hace poco. Si optamos por ella, sería interesante saber si todos los conceptos son igual de importantes o por el contrario habría conceptos más importantes que otros para lograr el surgimiento de la conciencia. ¿Acaso existirían algunos conceptos fundamentales, algo así como una lista suficiente y necesaria para alcanzar conciencia, una especie de receta mágica de brujo que en lugar de ingredientes contenga conceptos?

El yo de Hofstadter

 

Douglas Hofstadter, autor del memorable libro Gödel, Escher, Bach, nos propone una hipótesis bastante evocadora. Afirma que el concepto más importante para lograr conciencia no es ni más ni menos que el concepto de uno mismo. Si Hofstadter se imagina a su mente como una red de símbolos, él cree que el símbolo “Hofstadter” es el más complejo de todos y el que le dota realmente de conciencia.[39] Para Hofstadter, activar el símbolo “Hofstadter” es como enfocar con una cámara de vídeo a la pantalla de un monitor que está mostrando lo que está siendo enfocado por esa misma cámara de vídeo, creando así un círculo autorreferencial, lo que Hofstadter llama un bucle extraño. En sus libros explica que esos bucles son los que hacen que las paradojas autorreferenciales y el Teorema de Gödel sean tan sorprendentes[40], y lo que hace que la conciencia sea un fenómeno tan extraordinario.[41] El símbolo “yo” es el símbolo de una mente contenido en esa misma mente, un sistema que intenta representarse a sí mismo, el equivalente computacional a mirarse en el espejo.

Contemplarse a sí mismo puede ser una experiencia intensa. Imaginemos que estamos paseando por la calle y de repente sentimos que no somos más que unos animales simiescos desplazándonos sobre la superficie de un planeta azul que orbita alrededor de una bola de fuego gigantesca, como si nunca nos hubiéramos visto desde fuera de esta manera. Por un momento no somos protagonistas de nuestra propia realidad, sino simples espectadores externos. Incluso podemos observar nuestros propios pensamientos como si fuesen ajenos: pensar sobre algo y a su vez pensar sobre esos pensamientos sobre ese algo. Una especie de metapensamiento donde se analizan los pensamientos propios. Daniel Dennett en su libro La conciencia explicada ofrece un maravilloso ejemplo de lo que estoy tratando de comunicar. Dennett estaba balanceándose en su mecedora mirando por la ventana, escuchando a Vivaldi y pensando en los procesos de su mente. En ese momento experimentó la extraña idea de que estaba pensando sobre su propio pensamiento, y que todo ese pensamiento consciente sobre sus pensamientos conscientes, junto a los qualia que estaba sintiendo de la música y la luz que entraba por la ventana, no eran más que una combinación de sucesos electroquímicos de su cerebro. Se podría decir que Dennett se sintió muy consciente de ser consciente en ese momento. De algún modo, la hipótesis de Hoftstadter alude a esas experiencias, a la idea de percibirse a sí mismo y sentirse consciente de ser un yo. ¿No nos suena eso de algo? Tanto la idea de mirarse al espejo y reconocerse como individuo como la idea de percibirse a sí mismo ya habían salido en este libro, concretamente en el apartado “Una descripción de la autoconciencia” del capítulo cuarto. Y ciertamente, la hipótesis de Hofstadter parece más una hipótesis sobre la autoconciencia que una hipótesis sobre la conciencia, aludiendo a mentes que se comprenden a sí mismas, símbolos relativos al yo y autorreferencias. ¿Y no habíamos dicho que en principio la autoconciencia no tiene nada que ver con la conciencia? Parece que Hofstadter sí las relaciona. ¿Y qué piensa el lector? ¿Hay alguna relación entre la capacidad de reconocerse como individuo y la capacidad de sentir experiencias? ¿Es posible ser consciente sin entender lo que es un yo, o entender lo que es un yo sin ser consciente?

Notas

 

[33] Pensar fuera de la caja (en inglés thinking outside the box) consiste en abordar un problema de forma poco convencional.

[34] Una buena pregunta es si la capacidad de generar conciencia la tendría una parte concreta de ese software o por el contrario se necesitaría el software al completo, pregunta que ya surgió en el apartado “El yo de la mente modular y el problema del homúnculo” del capítulo tercero.

[35] Las dendritas son prolongaciones ramificadas de las neuronas que sirven para captar impulsos de otras neuronas. Su número y forma pueden variar considerablemente. Los axones son prolongaciones que sirven para salvar distancias, a modo de cables. Hay neuronas que carecen de axón y otras que tienen sólo uno, pero no hay neuronas que tengan más de un axón.

[36] Me gustaría aclarar que no sólo las redes neuronales artificiales son capaces de llegar a resultados capaces de sorprender a su propio programador. Nuestra limitada capacidad de cálculo hace que seamos susceptibles a sorprendernos ante cualquier resultado relativo a un sistema lo suficientemente complejo, incluso aunque ese sistema sea totalmente determinista. Por ejemplo, no son evidentes las mejores jugadas en go o ajedrez a pesar de que son juegos totalmente determinados y de reglas sencillas. El árbol de variantes es tan enorme que nuestra capacidad mental limitada no nos deja ver el resultado. Por el contrario, si fuésemos infinitamente inteligentes y pudiésemos calcular cualquier algoritmo de manera instantánea, el go y el ajedrez serían juegos resueltos. Y de la misma manera, las redes neuronales artificiales jamás nos podrían sorprender, pues podríamos anticiparnos a todos sus procesos, efectuando los mismos cálculos que ellas pero más rápidamente.

[37] La hipótesis que afirma que las habilidades intelectuales humanas parecen estar correlacionadas entre sí fue propuesta por el psicólogo inglés Charles Spearman y se conoce como teoría del factor G. Pese a que existen hipótesis que difieren, como la teoría de las inteligencias múltiples de Howard Gardner, parece que la evidencia está a favor de Spearman.

[38] Irónicamente, la imagen metafórica de encajar es muy mecánica. Además, parece sugerir que comprender es una especie de test en el que el conocimiento nuevo tiene que ser compatible y coherente con todo el conocimiento anterior, un tipo de tarea que parece que haría bien para una máquina.

[39] Lo que es un símbolo para Hofstadter se explicará detalladamente en el capítulo siguiente.

[40] Pensemos en la paradoja clásica del mentiroso “yo miento” o “esta oración es falsa”, que desaparece totalmente en “él miente” o “esa oración de ahí es falsa.” Es la autorreferencia lo que posibilita la paradoja.

[41] Hay que aclarar que Hofstadter sólo considera como verdaderos bucles extraños a los que subyacen en el Teorema de Gödel y en la conciencia. A pesar de que en sus libros realmente aparecen las paradojas autorreferenciales y las cámaras de vídeo que enfocan a sus propios monitores para ilustrar ese concepto, él sólo los usa como analogías, considerándolos como fenómenos que aparentan ser bucles extraños pero que no llegan a serlo del todo.

bottom of page