¿Nadie podría sentir lo que yo siento?

FRANCISCO LAPUERTA

Vamos a jugar un poco más con los trasplantes neuronales. Si aceptamos el principio fisicalista de que cualquier estado mental no es más que el producto de un circuito neuronal, en el caso de que determinado circuito de un individuo fuera implantado en todos sus detalles en el cerebro de otro, este último experimentaría exactamente ese mismo estado mental. ¿O no? Supongamos que el estado mental es una sensación de dolor que usted siente en el estómago. Usted cree, por descontado, que la sensación de dolor es suya y nada más que suya. Sin embargo, una máquina de avanzada tecnología reproduce ese mismo circuito en otra persona y al instante oímos cómo se queja: “¡Me duele el estómago!”. Esa persona, por cierto, tiene el estómago perfectamente sano, pero sabemos que el dolor es una experiencia que registra el cerebro, así que no es esta la cuestión. El problema es:  ¿cómo otra persona podría tener exactamente la sensación que tiene usted? ¿No es un imposible? Lo que experimenta usted, por el hecho de que lo experimenta usted, no lo experimenta otro; y a la inversa, si lo experimenta otro, no lo experimenta usted. Tanto da que el fenómeno físico de la circuitería sea idéntico, pues el propietario no lo es. Vayamos entonces al grano: el hecho de que los estados mentales tengan un propietario parece una refutación del fisicalismo. ¿Es así?

Es indudable que todos vivimos con la convicción de que los dolores, como cualquier sensación, emoción o recuerdo, son privados. Los objetos físicos, sin embargo, no lo son. Mi reloj, por ejemplo, puede ser tuyo si te lo regalo. Mi corazón puede ser tuyo en el caso de que fallezca y me convierta en tu donante. Un reloj o un corazón pueden también no tener propietario. Los estados psíquicos, por el contrario, parecen ser siempre estados psíquicos de alguien; están ligados a un sujeto particular. No puede haber dolor o placer sin nadie que lo sienta. Se desprende de ello que un estado psíquico es algo más que un estado físico: los estados psíquicos son necesariamente privados y están ligados al sujeto que los experimenta, mientras que los físicos son intercambiables y no están ligados de manera necesaria a un sujeto, pues pueden perfectamente ser olvidados en el cajón de la cómoda sin que nadie los experimente. Por tanto, aunque los estados psíquicos son producidos por los físicos, no se pueden reducir a ellos.

Pues no está tan claro. Podría decirse, para empezar, que los estados psíquicos no son hechos o fenómenos que suceden en el mundo. No hay dolor, ni picor de piel, ni placer, ni emoción, ni recuerdo, en el mismo sentido que en la realidad no existe el fantástico caballo blanco que imaginamos. Todo eso que llamamos lo psíquico, es irreal. Ni siquiera sería correcto decir que son cosas que suceden en el interior de nuestra cabeza. Lo que sucede en el interior de nuestra cabeza es circuitería neuronal, no recuerdos ni sensaciones de picor o de frío. Esta es la respuesta del eliminativismo. No se trata de negar que los seres humanos tengamos sensaciones de dolor o pensamientos, sino de negar que tales cosas sean fenómenos reales con los que tengamos que contar para conocer y describir el mundo.

Menos radical, y mucho más interesante, es otra respuesta:  quizá los estados mentales son fenómenos reales, objetivos… y no necesariamente pertenecientes a un único sujeto. Pongamos unos cuantos ejemplos estrafalarios. Primero: a dos hermanos siameses unidos por la cadera les pica una abeja en la rodilla izquierda; ¿sienten el mismo dolor? Hay dos cerebros, luego, aunque se parezcan mucho, son dos dolores numéricamente diferentes. Segundo: a dos hermanos siameses que comparten el cerebro pero no el resto del cuerpo, les pican dos abejas al mismo tiempo, una a cada uno en su rodilla izquierda; ¿sienten el mismo dolor? Al haber un solo cerebro, podría decirse que se trata de un solo sujeto con dos cuerpos, por lo que sus respectivas picaduras convergen, por así decirlo, en el episodio doloroso de una única experiencia subjetiva. En el primer ejemplo, la experiencia mental, pese a tener una misma causa, no es compartida: es una causa física y dos efectos psíquicos. En el segundo ejemplo, pese a haber dos causas físicas, hay un único efecto psíquico. En ambos casos el estado mental es privado, pero ¿pertenece a un único sujeto?

Vamos ahora con un tercer ejemplo: usted está en una habitación viendo la tele, pero en la habitación de al lado hay una réplica exacta de usted viendo el mismo programa de televisión. Su doble es idéntico a usted en todas sus moléculas, sus cerebros son exactos. Las sensaciones visuales que entran por su retina y las que entran por la retina de su doble son las mismas, y también los recuerdos, las emociones o la sensación de bienestar profundo que siente al encontrarse viendo la televisión. ¿Hay en este caso una sola experiencia mental, o son dos? Si cree que es una sola experiencia, suponga que de repente una de las dos televisiones (la suya, por ejemplo) se estropea mientras la otra (la de su doble) sigue funcionando: ¿usted lo notaría? Si por el contrario cree que son dos experiencias diferentes a pesar de tener el mismo contenido, suponga entonces que la experiencia de su doble continúa siendo idéntica de por vida, pues todo cuanto sucede en el entorno de su doble es también idéntico: en este caso, ¿no sería el mundo de su doble algo tan desprovisto de conciencia psíquica como el mero reflejo de su imagen en un espejo? A lo mejor lo cree así porque está demasiado convencido de que la experiencia mental es privada y necesita un sujeto único, un propietario exclusivo. Pero el caso es que el doble del ejemplo es tan real como usted, no es un reflejo.

Es posible que tantas preguntas extraídas de ejemplos contraintuitivos hayan acabado sacándolo de quicio. Pero no va por ahí mi objetivo. Lo que pretendo es poner en duda que el dolor, la emoción, el recuerdo, los contenidos mentales en suma, sean realmente privados y pertenezcan por necesidad a un sujeto en exclusiva. Créame, no son ganas de marear a nadie, sino de intentar de nuevo salvar el fisicalismo.

Anuncios

Zombies filosóficos

FRANCISCO LAPUERTA

En filosofía de la mente, los zombies no son muertos vivientes como los de las películas. Un zombi filosófico es una máquina imaginaria cuya apariencia exterior y comportamiento no pueden distinguirse de los de una persona. Quizá haya visto usted la mítica película Blade Runner, de Ridley Scott. Pues bien, los zombies filosóficos son como los replicantes de esa película. Son indistinguibles de los seres humanos y parece que tienen conciencia, emociones, personalidad, pero en realidad no son más que puras máquinas construidas con cables.

Invito a imaginar primero cómo reaccionaríamos frente a uno de estos zombies. E invito también a pensar un poco en ellos, puesto que no son un mero entretenimiento de filósofos ociosos. Hay una ingente literatura filosófica publicada sobre el problema del zombi y no es para menos, puesto que si estos seres imaginarios fueran concebibles sin contradicción, constituirían una prueba en contra de una postura ampliamente extendida en filosofía de la mente: el fisicalismo.

Vayamos por partes. Primero imagine usted que tiene la posibilidad de hablar con una de estas máquinas. Frente a usted hay un robot androide de perfecta factura. Es un robot, pero no lo parece de ninguna manera. Su apariencia humana es impecable. Ha superado ampliamente el test de Turing. Si a usted se le ocurriera decirle que es una máquina y por tanto no tiene conciencia, él (o ella, si es de sexo femenino), se enfadaría. “¿Cómo puedes decir eso?”, imploraría, “¿no ves que hablo y pienso como tú, no ves que me emociono y lloro, que siento como cualquier persona y se me eriza la piel? Me desespera que digan de mí que soy un mero amasijo de cables. ¡No es verdad! Si me pinchas en el brazo, me duele. ¡Soy un ser humano y tengo derechos!”.

Para no desviar la atención del problema, digamos que usted puede corroborar en cualquier momento (quizá porque tiene un aparato portátil de raxos x) que efectivamente, el interior físico de esa “persona” es pura maquinaria hecha de microchips y nanotubos de grafeno. No existe la menor duda sobre el hecho de que físicamente es una máquina construida. La duda está en la cuestión de si tiene conciencia o no la tiene.

Aunque el zombi sea capaz de mostrar perfectamente a través de sus actos y palabras que tiene conciencia, usted sabe que ha sido diseñado para simular tal conducta. Al verlo, no puede dejar de pensar que sus diseñadores y constructores han hecho un magnífico trabajo. Su apariencia es verdaderamente asombrosa: parece tan humano que no puede distinguirse de un ser humano de carne y hueso. Pero, aunque lo parezca, dentro de él, no hay nadie.

Pues bien, si esto es cierto, el materialismo (también llamado fisicalismo) es falso. Le recuerdo que el fisicalismo es la postura que reduce la mente a operaciones físico-químicas de las neuronas.

Veamos por qué. Si el zombi es verosímil, es decir, si es lógicamente concebible un robot androide cuya conducta y apariencia sean absolutamente indistinguibles de las del ser humano, entonces, en el caso de que no le atribuyamos conciencia (en caso de que pensemos que dentro de él no hay nadie), estaremos suponiendo que, para que exista la conciencia, además de materia tiene que haber involucrado algo no físico que la haga posible, quizá algún tipo de sustancia inmaterial, espiritual, misteriosa o mágica, que aporte tal cualidad. Dicho de otra manera: si usted, tras enfocar hacia su interlocutor el aparato de rayos x portátil, es de los que consideran que el individuo que tiene delante es un puro objeto artificial sin conciencia, un autómata simulador de la vida humana, estará poniendo en evidencia que cree en alguna forma de dualismo, pues la mera maquinaria no le basta.

Y ahora le digo yo: ¿qué somos nosotros, más que robots biológicos ensamblados con billones de células, células que son también, cada una de ellas en sí misma, pequeñas pero complejísimas máquinas biológicas? Somos, como cualquier organismo vivo, una biomáquina natural no diseñada en un laboratorio, sino producida a ciegas a lo largo de un proceso de evolución por selección natural. Pero ¿acaso es importante saber quién ha hecho la máquina para decidir si tiene conciencia o no?

¿Por qué estamos tan seguros, siendo nuestra mente nada más que un efecto de la materia neural, de que somos seres dotados de conciencia? Evidentemente, porque tenemos un acceso interno a nuestra propia mente, un acceso privilegiado y exclusivo que lo corrobora. No obstante, nadie más que uno mismo puede comprobarlo, razón por la cual no es precisamente una comprobación objetiva y fiable. Pero ¿hacen falta más comprobaciones? ¿Por qué las personas que me rodean no dudan en ningún momento de que tengo conciencia? La respuesta es sencilla: porque me muestro como ellos. Porque mi exterior revela, a través de mis actos, palabras y expresiones, que tengo conciencia humana.

Ahí está la clave del asunto. Me muestro como todo ser humano: expreso emociones, razono, converso.. y me indignaría si alguien me considerara un zombi. Lo que me hace humano no es el material interno del que estoy hecho, sino la manera en que me muestro externamente, la manera en que actúo frente a los demás, la conducta que revelo. No soy una máquina sin conciencia porque no me comporto como tal.

Exactamente lo mismo le pasa al androide de nuestro experimento mental. En realidad, no es un zombi, es un ser humano. Un ser humano, eso sí, hecho de una materia que no es carne, hueso, tejido neuronal ni nada de lo que tenemos nosotros bajo la piel; está ensamblado con microchips y nanotubos de grafeno. Pero hemos quedado en que el tipo de materia que a uno lo constituye no importa. Lo relevante es lo que uno hace. Y el supuesto zombi, así lo hemos definido, hace lo mismo que las personas. Por tanto no es un zombi, es una persona.

Aunque es sumamente intuitiva, la idea de una máquina indistinguible del ser humano pero sin conciencia podría ser un error de concepto. Los zombies filosóficos no serían concebibles: los replicantes de Blade Runner estarían mal planteados y el fisicalismo en filosofía de la mente quedaría a salvo.

Mentes reproducibles

FRANCISCO LAPUERTA

Imagine que está usted en el futuro. No hace falta que sea un futuro muy lejano. Pongámonos en el año 2075. Usted se encuentra observando una preciosa mariposa de color amarillo. Tiene un fino dibujo anaranjado en la parte posterior de sus alas, un par de ocelos con una pequeña lágrima. En el momento en que la mira, sucede lo que ya sabemos: las células receptoras de su retina convierten la luz reflejada por las alas del insecto en impulsos eléctricos que llegan al lóbulo occipital de su cerebro y desencadenan unos movimientos neuronales gracias a los cuales usted se representa visualmente la mariposa. Esto es ver: la visión se produce en la corteza cerebral, no en los ojos; así ocurría en el pasado y así ocurre en el presente. Pero ahora estamos en el futuro, en el año 2075, y usted tiene un casco en la cabeza. Se trata de un casco de refinada tecnología que escanea con una precisión absoluta todos los movimientos de sus neuronas y transfiere un volumen asombroso de información a un programa de imagen. Esa información contiene todos los intercambios químico-eléctricos de las sinapsis de su cerebro en el instante en que mira la mariposa. El programa codifica esa información y la traduce a píxeles que aparecen en una pantalla, donde… Y aquí, la pregunta: ¿aparecerá la imagen de la mariposa? ¿Podrá incluso apreciarse el dibujo anaranjado de la parte posterior de las alas con su ocelo y su lágrima, tal y como usted lo está viendo?

Si cree que en el futuro podrá verse esa mariposa en la pantalla, usted ostenta una posición conocida en filosofía de la mente como materialismo reduccionista, a veces llamada sencillamente fisicalismo. Está suponiendo que la actividad mental, no sólo la visual sino cualquiera, un deseo, un pensamiento, una emoción, no es más que un fenómeno físico (neuronal) que podría teóricamente ser explicado estudiando sus mecanismos químico-eléctricos.

Dentro del fisicalismo existen dos variantes. Una de ellas, más suave, afirma que incluso con la tecnología más avanzada sólo llegaríamos a conocer el tipo de contenido mental. Con un escáner cerebral podremos en el futuro saber si alguien está pensando, soñando, emocionándose sintiendo ira o miedo, recordando un perfume o mirando un objeto móvil. Pero no sabremos qué está pensando, qué está soñando, hacia quién está sintiendo ira, de qué tiene miedo, ni cuál es el perfume o si lo que mira es un lepidóptero.

Frente a este fisicalismo de tipos se sitúa la variante más fuerte, el fisicalismo de casos, que defiende la existencia de una correlación exacta entre un suceso físico particular y el suceso mental correspondiente: el circuito neuronal x es idéntico al contenido mental x (esta opción recibe por ello el nombre de “teoría de la identidad”). Cada contenido mental concreto podrá ser descrito como un suceso físico único. Si con la tecnología apropiada la información contenida en dicha descripción fuera codificable y traducible, podríamos saber con la máxima concreción posible qué mira, qué piensa, qué recuerda o sueña una persona. Podrían usarse, llegado el momento, dispositivos tecnológicos que revelaran lo que pasa en el interior de la cabeza de las personas. Perderíamos así toda privacidad, lo que generaría la necesidad de equipos de protección y encriptamiento de datos. No nos atreveríamos a salir de casa sin nuestro escudo protector en forma de chip implantado detrás de la oreja.

Para plantear el problema de la reproducibilidad de la mente he puesto el ejemplo de la mariposa porque no se me ocurre cómo podría visualizarse en una pantalla un deseo, un recuerdo, un sabor, un olor o la sensación de frío. Pero es de suponer que si en coherencia con el fisicalismo de casos aceptamos que en el ejemplo de la mariposa llegaremos a ver la imagen en la pantalla, entonces estaremos aceptando, en general, que los contenidos mentales pueden codificarse en un lenguaje máquina y reproducirse. Y esto no es una tontería; al contrario, nos adentramos en un terreno que produce escalofríos: para empezar, cambiará de raíz la idea que tenemos del ser humano. Pues con la tecnología adecuada para la copia y la reproducción, los contenidos mentales de cualquier persona podrán ser transferidos a un cerebro artificial y activarse en él exactamente del mismo modo como funciona el cerebro biológico. Si tal cosa fuera posible, los seres humanos lograríamos la inmortalidad. ¿Se imaginan? Qué estupendo, ¿no? Pues no; no está claro que sea lo más deseable. Pero esto merece otra reflexión.

La mente como software: el test de Turing

FRANCISCO LAPUERTA

¿Es usted su mente? ¿Podría imaginarse siendo usted mismo desprovisto de mente? Si tuviera un cuerpo diferente pero la misma mente, ¿sería usted el mismo? ¿Es usted un cuerpo que alberga una mente? ¿O es una mente que se halla dentro de un cuerpo? ¡Está bien, ya no lo mareo más! Pero no deje de pensar en ello, pues probablemente el sentido común le dice que es un compuesto indisoluble de cuerpo y mente, lo que no deja de ser una solución de compromiso.

Cuerpo y mente son dos realidades diferentes, estableció Descartes. Desde la perspectiva neurocientífica actual, la separación no se ve tan tajante: el cuerpo es materia y la mente es algo psíquico que surge de la materia. Hoy se admite la idea general de que la materia puede pensar. Contra lo que opinaba Descartes, ningún científico en su sano juicio defiende que puede existir lo mental sin un sustrato físico del que emane. Hay quien niega la existencia de lo mental, pero nadie niega la realidad física.

¿En qué sentido puede decirse que la mente es producto de las neuronas? En varios sentidos, algunos de ellos diferentes e incompatibles entre sí.

Los materialistas eliminativos (como Paul y Patricia Churchland) piensan que lo mental, que es inobservable y sólo puede ser experimentado por una persona, no puede ser objeto de investigación científica; así pues, hay que estudiar el cerebro, que es lo único real. Las creencias, deseos, intenciones, emociones o recuerdos de una persona son una especie de ilusión privada en la que no podemos entrar.

Hay otros materialistas menos radicales, como Daniel Dennett, que se encuadran dentro del funcionalismo. Aceptando que la mente procede de la materia, son funcionalistas quienes piensan que la actividad químico-eléctrica de las neuronas es independiente de la mente en cierto sentido: la mente es una función que, en teoría, podría ser producida por un sustrato material diferente a las neuronas. A la hora de explicar el funcionalismo, la metáfora computacional es recurrente: la actividad psíquica es una suerte de programa informático que podría analizarse sin necesidad de introducirse en las entrañas del ordenador que hace posible su funcionamiento. La mente es, según esta metáfora, el software, mientras que el cableado cerebral es el hardware. Así concebida, la mente es una estructura superpuesta que podría estudiarse sin recurrir al sustrato biológico que la hace posible. Es una visión que parece acercarse temerariamente al dualismo, pero Descartes se revolvería en su tumba si alguien osara insinuarlo.

Los funcionalistas creen que una máquina compleja podría tener vida mental propia. Al fin y al cabo, tener una mente no es más que ejercer cierto tipo de capacidades o habilidades como imaginar un paisaje nevado, sumar números enteros o apreciar el sabor del chocolate. ¿Estoy bromeando? ¿De verdad podría llegar a hacer esto una máquina?

Si la máquina nos muestra que lo hace, sí. Nunca podremos ponernos en la piel (o los cables) de la máquina para saber si imagina esto o siente aquello, como tampoco podemos ocupar la mente de una persona para saber qué es lo que en su interior subjetivo experimenta. Lo único que es posible hacer es conectarla, interactuar con ella, ponerla a prueba, ver lo que hace y sacar conclusiones. Es lo que pretende el Test de Turing. 

Si un ordenador interviniera en un chat simulando ser una persona, en el caso de que tras responder todas las preguntas imaginables convenciera sin la menor duda a sus interlocutores de que quien se expresa por escrito en la pantalla es una persona, tendríamos que conceder que es una máquina con una vida mental análoga a la de un ser humano. Puedo suponer qué tipo de preguntas le haría usted si tuviera que ejercer como juez en esta prueba: preguntaría sobre los recuerdos más emotivos de la infancia de ese sujeto (máquina o persona) con el que está chateando, sobre aquellas situaciones que al rememorarlas le pondrían la piel de gallina; plantearía, en definitiva, cuestiones perturbadoras o sonrojantes con el fin de pillarle la trampa, de desenmascarar el disimulo. Ninguna máquina ha superado hasta hoy el test de Turing, pero cuando lo haga, porque llegará el día en que lo consiga, se habrá alcanzado una singularidad. La vida mental no será ya un atributo exclusivo del ser humano. Los funcionalistas habrán demostrado que tenían razón: podremos atribuir vida consciente a las máquinas.

Mover el cuerpo con la mente

FRANCISCO LAPUERTA

La mente es un mecanismo extraño, pues no parece movida por causas naturales, La prueba es que yo mismo, dando una orden sencilla, puedo poner en marcha un movimiento físico en mi propio cuerpo. Por ejemplo, mover un brazo. Una cosa tan sencilla… y al mismo tiempo tan enigmática.

Pues… ¿cuál sería en este caso la causa del movimiento del brazo? ¿El libre albedrío de la voluntad? ¿Querría eso decir que no existe una causa física necesaria que determina que un impulso nervioso viaje desde la corteza cerebral hasta el tejido muscular pasando por la médula? Por supuesto, tal impulso existe; pero ¿qué lo ha desencadenado? Supongamos que la respuesta es: lo ha desencadenado un circuito neuronal, es decir, intercambios químico-eléctricos entre miles de millones de neuronas. Pero esto no soluciona el problema, pues podemos seguir preguntando qué ha activado ese complejísimo circuito neuronal. ¿No ha sido, al fin y al cabo, una orden mental? ¿Y cómo algo mental puede mover algo físico?

Si aceptamos que la mente (o al menos los contenidos mentales que parecen ser producto de la voluntad) no está sometida a la causalidad natural, tenemos que enfrentarnos al problema de cómo algo que funciona al margen de la causalidad física puede generar un encadenamiento causal físico. ¡Un problema tan irresoluble tiene toda la pinta de estar mal planteado! Hay que verlo, por tanto, de otra manera: aceptando, por el contrario, que la mente, que no es más que la expresión de circuitería neuronal, está tan sometida a la causalidad física como la caída de una piedra. Pero en este caso deberíamos intentar resolver el problema del libre albedrío: si son producto de causas físicas, ¿cómo podemos decir que los contenidos mentales dependen de la libre voluntad? ¿No sería tan estúpido como decir que la piedra que está cayendo lo hace de manera voluntaria?

El problema de la causalidad mental lo planteó Descartes en el siglo XVII, pero no fue capaz de solucionarlo. Más de tres siglos después, algo tan aparentemente sencillo sigue siendo una cuestión no resuelta. El otro problema, el del libre albedrío, lo plantearon ya los filósofos estoicos en la época clásica. Tampoco ha sido resuelto satisfactoriamente… a no ser que creamos lo que nos dice Daniel Dennett al respecto.

Dennett es compatibilista: cree que son compatibles el determinismo causal y la libertad. El falso dilema entre determinismo y libertad viene precedido, según él, de algunos malentendidos sobre qué significa el determinismo de las acciones humanas.

Voy a intentar explicar de manera sencilla uno de estos malentendidos. Si a un estricto determinista le propusieran volver a través de una máquina del tiempo a un momento anterior de su vida, justo el momento en el que tomó una decisión equivocada, el determinista admitiría que volvería a cometer el mismo error; aunque quisiera, no podría evitar cometerlo de nuevo, pues si el punto inicial de la cadena causal es el mismo, el efecto también habría de ser el mismo. Determinismo es igual a inevitabilidad.

Dennett lo plantea de otro modo. En este viaje en el tiempo, si suponemos que el retroceso al punto inicial de la toma de una decisión equivocada es un retroceso consciente, el estado inicial ya no es absolutamente idéntico. El sujeto de este experimento sabría que ha vuelto hacia atrás en el tiempo, por lo que en el interior de su cerebro el microestado inicial habría cambiado. La causalidad interna que desencadena los movimientos de sus neuronas a la hora de tomar por segunda vez la decisión no sería la misma, por lo que podría reaccionar de un modo distinto. Lo que hizo, podría haberlo evitado.

Sin necesidad de viajar en el tiempo, así actuamos constantemente: rectificamos la trayectoria de nuestras acciones porque tenemos la capacidad de ejercer un control sobre nuestros procesos causales internos. También algunas máquinas inteligentes lo hacen: se autorreparan corrigiendo los algoritmos de sus programas cuando detectan un error. Como estas máquinas, los seres humanos funcionamos de un modo determinista; pero podemos cambiar nuestras propias tendencias en un grado de profundidad y versatilidad que actualmente ninguna máquina puede alcanzar. Determinismo no implica inevitabilidad. Podemos evitar cometer errores; precisamente por eso nos consideramos responsables de nuestros actos.

Somos robots

FRANCISCO LAPUERTA

En una entrevista reciente le plantearon esta cuestión a Daniel Dennett: “Al hablar de robots, usted ha afirmado que pueden llegar a ser conscientes”. Su rápida e inesperada respuesta debió sorprender al entrevistador: “¡Yo soy un robot consciente y tú eres otro!”.

Somos robots. ¿En qué sentido se puede decir tal cosa? Los seres humanos somos cuerpos materiales compuestos por 15 billones de células, cada una de las cuales no tiene ni la menor idea de quiénes son ni de qué entramado forman parte. Las células están vivas, pero su grado de conciencia es nulo. Las células son, no obstante, seres complejos que hacen ciega pero eficazmente su labor guiadas por las instrucciones contenidas en sus núcleos en forma de ADN. Podría afirmarse que son microrrobots naturales no diseñados, surgidos del largo proceso de la selección natural, con una notable capacidad para reproducirse por división (mitosis) y realizar tareas coordinadas en esa totalidad operativa que es el cuerpo. ¿Y la mente? Exactamente lo mismo: ninguna neurona piensa por sí misma. Cada una de las células de nuestro cerebro trabaja sin saberlo para contribuir de manera cooperativa en la producción de una complicada circuitería electroquímica cuyo asombroso resultado es la sensibilidad, el pensamiento, el recuerdo, la emoción… la conciencia.

Usted y yo, seres plenamente conscientes, somos auténticos robots biológicos: entidades materiales ensambladas con diminutos componentes sin conciencia. Y ahora piense: si la naturaleza, que no es inteligente ni hace planes, ha logrado este ingenioso producto, ¿por qué la tecnología humana no va a poder lograr algo semejante en un futuro?

La Singularidad: ¿una leyenda urbana?

La revista digital Edge, como cada año, ha lanzado a científicos y filósofos una pregunta inquietante. En esta ocasión, ¿Qué pìensa usted sobre las máquinas que piensan?

He aquí la respuesta completa de Daniel C. Dennett:

La Singularidad: ¿una leyenda urbana?

“La Singularidad -el temido momento en el que la Inteligencia Artificial (IA) sobrepasa la inteligencia de sus creadores y toma el control del mundo-  es un meme importante. Tiene todas las características clásicas de una leyenda urbana: cierta credibilidad científica (“Bueno, en principio, ¡supongo que es posible!”) combinada con un deliciosamente escalofriante clímax (“¡Nos dominarán los robots!”). ¿Sabías que si estornudas, eructas y te tiras un pedo al mismo tiempo, te mueres? ¡Uf! Tras décadas de alarmismo sobre los riesgos de la IA, podríamos pensar que la Singularidad se vería a estas alturas como una broma o una parodia, pero ha demostrado ser un concepto extremadamente persuasivo. Si a esto le añadimos algunos conversos ilustres (Elon Musk, Stephen Hawking y David Chalmers entre otros), ¿cómo no tomárnoslo en serio? Aunque este estupendo evento tenga lugar dentro de diez o cien o mil años en el futuro, no sería prudente comenzar a planear ahora la creación de las barricadas necesarias y mantener los ojos bien abiertos por si sobreviene la catástrofe? Yo creo, al contrario, que estas voces de alarma nos distraen de un problema mucho más apremiante; un desastre inminente que no necesita la ayuda de la Ley de Moore ni de nuevos avances para que alcance su punto de inflexión mucho más pronto: tras adquirir, después de siglos de duro trabajo, una comprensión de la naturaleza que nos permite, por primera vez en la historia, controlar muchos aspectos de nuestro destino, estamos a punto de abdicar este control y dejarlo en manos de entes artificiales que no pueden pensar, poniendo a nuestra civilización en modo auto-piloto de manera prematura. El proceso es insidioso porque cada paso que tenga un buen sentido local es una oferta que nadie puede rechazar. Sería una tontería que intentara usted hacer grandes cálculos aritméticos con lápiz y papel cuando una calculadora de mano es mucho más rápida y casi perfectamente fiable (no olvide los errores de redondeo), o que intentara memorizar los horarios de trenes cuando están disponibles al instante en su teléfono móvil Deje la lectura de mapas y la navegación a su sistema GPS; no es consciente, no puede pensar en ningún sentido significativo, pero es mucho mejor que orientarse por sí mismo para saber dónde se encuentra y adónde quiere ir.

Yendo aún más lejos, los médicos son cada vez más dependientes de sistemas de diagnóstico que son demostrablemente más fiables que cualquier diagnosticador humano. ¿Querría usted que su médico invalidase el veredicto de una máquina cuando ésta tome una decisión capaz de salvale la vida? Esta puede llegar a ser la mejor -la de más probable utilidad, la más inmediatamente útil- aplicación de la tecnología que hay en la máquina Watson de IBM, y plantear la cuestión de si se puede decir que Watson piensa (o es consciente) es algo que no viene al caso. Si Watson resulta ser mejor que los expertos humanos en la elaboración de diagnósticos a partir de los datos disponibles, será moralmente obligatorio que nos valgamos de sus resultados. Un médico que desafíe su competencia estaría pidiendo una demanda por negligencia. Ninguna área de la actividad humana parece estar claramente fuera de los límites de este tipo de acciones y potencialidades protésicas, que si en cualquier caso han de ser sometidas a control, sobre ellas recaerá la supervisión humana, como siempre se ha hecho. La elaboración de leyes e incluso la ciencia podrían llegar a ocupar nichos adyacentes a la cerámica artesanal y los suéteres tejidos a mano.

En los primeros días de la IA, se hizo un intento de imponer una clara distinción entre inteligencia artificial y simulación cognitiva. La primera iba a ser una rama de la ingeniería, y trataría de hacer su trabajo por las buenas o por las malas, sin ningún intento de imitar los procesos mentales humanos, excepto cuando esta vía resultaba una manera eficaz de proceder. La simulación cognitiva, por el contrario, iba a ser la psicología y la neurociencia orientada según modelos informáticos. Un modelo de simulación cognitiva que bien exhibiera errores o confusiones reconociblemente humanas sería un triunfo, no un fracaso. La diferencia entre estas dos aspiraciones sigue vigente, pero en gran parte se ha borrado de la conciencia pública: para los legos, IA significa superar el test de Turing, convertirse en humanoide. Pero los avances recientes en IA han sido en gran parte el resultado del alejamiento de (lo que creíamos entender sobre) los procesos de pensamiento humano y del uso de impresionantes poderes de procesamiento de datos en superordenadores para llevar a cabo conexiones valiosas y patrones sin tratar de hacerles entender lo que están haciendo. Curiosamente, los asombrosos resultados están obligando a muchos estudiosos de la ciencia cognitiva a hacer reconsideraciones; resulta que hay mucho que aprender acerca de cómo el cerebro hace su brillante trabajo de anticipación del futuro mediante la aplicación de las técnicas de extracción de datos y aprendizaje automático.

Pero el público seguirá imaginando que cualquier caja metálica que pueda hacer eso (sea cual sea el último logro de la IA) debe ser un agente inteligente muy parecido a un ser humano, cuando en realidad lo que hay dentro de la caja está extrañamente truncado, como una fábrica de dos dimensiones que adquiere su poder gracias precisamente a que no añade la sobrecarga de una mente humana con todas sus distracciones, preocupaciones, compromisos emocionales, recuerdos o lealtades. No es un robot humanoide en absoluto, sino un esclavo sin mente, el último avance en pilotos automáticos.

¿Qué hay de malo en entregar la monotonía del pensamiento a tales maravillas de alta tecnología? Nada, siempre y cuando (1) no nos engañamos a nosotros mismos, y (2) que de alguna manera consigamos mantener nuestras propias habilidades cognitivas sin que se atrofien.

(1) Es muy, muy difícil de imaginar (y tener en cuenta) las limitaciones de entidades que pueden ser ayudantes muy valorados; la tendencia humana es siempre a dotarlos de un exceso de conocimiento, como hemos hecho desde el notorio programa Eliza de Joe Weizenbaum en la década de 1970. Se trata de un gran riesgo, ya que siempre vamos a tener la tentación de pedir de ellos más de de lo que fueron diseñados para llevar a cabo, y a confiar en los resultados cuando no deberíamos.

(2) Úselo o piérdalo. Al hacernos cada vez más dependientes de estas prótesis cognitivas, corremos el riesgo de no saber qué hacer si alguna vez nos fallan. Internet no es un ser inteligente (salvo en algunos aspectos), pero nos hemos vuelto tan dependientes de la Red que si en algún momento colapsara, se desataría el pánico y podríamos destruir nuestra sociedad en pocos días. Este es el hecho ante el que debemos doblar nuestros esfuerzos ahora, puesto que puede suceder cualquier día.

El peligro real, por lo tanto, no son máquinas más inteligentes que nosotros, que podrían usurpar nuestro papel como capitanes de nuestro destino. El peligro real es que cedamos nuestra autoridad a máquinas estúpidas, otorgándoles una responsabilidad que sobrepasa su competencia.”