La Singularidad: ¿una leyenda urbana?

La revista digital Edge, como cada año, ha lanzado a científicos y filósofos una pregunta inquietante. En esta ocasión, ¿Qué pìensa usted sobre las máquinas que piensan?

He aquí la respuesta completa de Daniel C. Dennett:

La Singularidad: ¿una leyenda urbana?

“La Singularidad -el temido momento en el que la Inteligencia Artificial (IA) sobrepasa la inteligencia de sus creadores y toma el control del mundo-  es un meme importante. Tiene todas las características clásicas de una leyenda urbana: cierta credibilidad científica (“Bueno, en principio, ¡supongo que es posible!”) combinada con un deliciosamente escalofriante clímax (“¡Nos dominarán los robots!”). ¿Sabías que si estornudas, eructas y te tiras un pedo al mismo tiempo, te mueres? ¡Uf! Tras décadas de alarmismo sobre los riesgos de la IA, podríamos pensar que la Singularidad se vería a estas alturas como una broma o una parodia, pero ha demostrado ser un concepto extremadamente persuasivo. Si a esto le añadimos algunos conversos ilustres (Elon Musk, Stephen Hawking y David Chalmers entre otros), ¿cómo no tomárnoslo en serio? Aunque este estupendo evento tenga lugar dentro de diez o cien o mil años en el futuro, no sería prudente comenzar a planear ahora la creación de las barricadas necesarias y mantener los ojos bien abiertos por si sobreviene la catástrofe? Yo creo, al contrario, que estas voces de alarma nos distraen de un problema mucho más apremiante; un desastre inminente que no necesita la ayuda de la Ley de Moore ni de nuevos avances para que alcance su punto de inflexión mucho más pronto: tras adquirir, después de siglos de duro trabajo, una comprensión de la naturaleza que nos permite, por primera vez en la historia, controlar muchos aspectos de nuestro destino, estamos a punto de abdicar este control y dejarlo en manos de entes artificiales que no pueden pensar, poniendo a nuestra civilización en modo auto-piloto de manera prematura. El proceso es insidioso porque cada paso que tenga un buen sentido local es una oferta que nadie puede rechazar. Sería una tontería que intentara usted hacer grandes cálculos aritméticos con lápiz y papel cuando una calculadora de mano es mucho más rápida y casi perfectamente fiable (no olvide los errores de redondeo), o que intentara memorizar los horarios de trenes cuando están disponibles al instante en su teléfono móvil Deje la lectura de mapas y la navegación a su sistema GPS; no es consciente, no puede pensar en ningún sentido significativo, pero es mucho mejor que orientarse por sí mismo para saber dónde se encuentra y adónde quiere ir.

Yendo aún más lejos, los médicos son cada vez más dependientes de sistemas de diagnóstico que son demostrablemente más fiables que cualquier diagnosticador humano. ¿Querría usted que su médico invalidase el veredicto de una máquina cuando ésta tome una decisión capaz de salvale la vida? Esta puede llegar a ser la mejor -la de más probable utilidad, la más inmediatamente útil- aplicación de la tecnología que hay en la máquina Watson de IBM, y plantear la cuestión de si se puede decir que Watson piensa (o es consciente) es algo que no viene al caso. Si Watson resulta ser mejor que los expertos humanos en la elaboración de diagnósticos a partir de los datos disponibles, será moralmente obligatorio que nos valgamos de sus resultados. Un médico que desafíe su competencia estaría pidiendo una demanda por negligencia. Ninguna área de la actividad humana parece estar claramente fuera de los límites de este tipo de acciones y potencialidades protésicas, que si en cualquier caso han de ser sometidas a control, sobre ellas recaerá la supervisión humana, como siempre se ha hecho. La elaboración de leyes e incluso la ciencia podrían llegar a ocupar nichos adyacentes a la cerámica artesanal y los suéteres tejidos a mano.

En los primeros días de la IA, se hizo un intento de imponer una clara distinción entre inteligencia artificial y simulación cognitiva. La primera iba a ser una rama de la ingeniería, y trataría de hacer su trabajo por las buenas o por las malas, sin ningún intento de imitar los procesos mentales humanos, excepto cuando esta vía resultaba una manera eficaz de proceder. La simulación cognitiva, por el contrario, iba a ser la psicología y la neurociencia orientada según modelos informáticos. Un modelo de simulación cognitiva que bien exhibiera errores o confusiones reconociblemente humanas sería un triunfo, no un fracaso. La diferencia entre estas dos aspiraciones sigue vigente, pero en gran parte se ha borrado de la conciencia pública: para los legos, IA significa superar el test de Turing, convertirse en humanoide. Pero los avances recientes en IA han sido en gran parte el resultado del alejamiento de (lo que creíamos entender sobre) los procesos de pensamiento humano y del uso de impresionantes poderes de procesamiento de datos en superordenadores para llevar a cabo conexiones valiosas y patrones sin tratar de hacerles entender lo que están haciendo. Curiosamente, los asombrosos resultados están obligando a muchos estudiosos de la ciencia cognitiva a hacer reconsideraciones; resulta que hay mucho que aprender acerca de cómo el cerebro hace su brillante trabajo de anticipación del futuro mediante la aplicación de las técnicas de extracción de datos y aprendizaje automático.

Pero el público seguirá imaginando que cualquier caja metálica que pueda hacer eso (sea cual sea el último logro de la IA) debe ser un agente inteligente muy parecido a un ser humano, cuando en realidad lo que hay dentro de la caja está extrañamente truncado, como una fábrica de dos dimensiones que adquiere su poder gracias precisamente a que no añade la sobrecarga de una mente humana con todas sus distracciones, preocupaciones, compromisos emocionales, recuerdos o lealtades. No es un robot humanoide en absoluto, sino un esclavo sin mente, el último avance en pilotos automáticos.

¿Qué hay de malo en entregar la monotonía del pensamiento a tales maravillas de alta tecnología? Nada, siempre y cuando (1) no nos engañamos a nosotros mismos, y (2) que de alguna manera consigamos mantener nuestras propias habilidades cognitivas sin que se atrofien.

(1) Es muy, muy difícil de imaginar (y tener en cuenta) las limitaciones de entidades que pueden ser ayudantes muy valorados; la tendencia humana es siempre a dotarlos de un exceso de conocimiento, como hemos hecho desde el notorio programa Eliza de Joe Weizenbaum en la década de 1970. Se trata de un gran riesgo, ya que siempre vamos a tener la tentación de pedir de ellos más de de lo que fueron diseñados para llevar a cabo, y a confiar en los resultados cuando no deberíamos.

(2) Úselo o piérdalo. Al hacernos cada vez más dependientes de estas prótesis cognitivas, corremos el riesgo de no saber qué hacer si alguna vez nos fallan. Internet no es un ser inteligente (salvo en algunos aspectos), pero nos hemos vuelto tan dependientes de la Red que si en algún momento colapsara, se desataría el pánico y podríamos destruir nuestra sociedad en pocos días. Este es el hecho ante el que debemos doblar nuestros esfuerzos ahora, puesto que puede suceder cualquier día.

El peligro real, por lo tanto, no son máquinas más inteligentes que nosotros, que podrían usurpar nuestro papel como capitanes de nuestro destino. El peligro real es que cedamos nuestra autoridad a máquinas estúpidas, otorgándoles una responsabilidad que sobrepasa su competencia.”

Anuncios

Diseño sin diseñador

FRANCISCO LAPUERTA

Una de las cosas que hacen diferente a Daniel Dennett de cualquier otro pensador evolucionista es su insistencia en que la naturaleza está llena de diseño. Por lo general, los biólogos se limitan a decir que en la naturaleza hay apariencia de diseño, expresión con la que pretenden alejarse de la idea de Diseño Inteligente. Hay también (Richard Dawkins, destacadamente) quien prefiere usar el término diseñoide (“con forma de diseño”) para referirse a los rasgos adaptativos de los organismos. La forma de los pétalos de una orquídea, por ejemplo, tan eficaces para atraer a los insectos polinizadores, es un prodigio diseñoide. Frente a ellos, Dennett parece no temer los malentendidos que puede suscitar el término “diseño” y lo defiende frente a cualquier tipo de eufemismo afirmando que la naturaleza orgánica es, precisamente, el ámbito donde se muestran los diseños más inteligentes (mucho más inteligentes, por cierto, que los productos humanos). ¿Está queriendo decir que la naturaleza es sabia, racional, o que tiene deseos, creencias e intenciones de algún tipo? Aclarar este extremo es el propósito del presente artículo.

Retomemos primero la idea de ingeniería inversa. Podemos saber cómo funciona cualquier artefacto desmontando sus piezas y pensando para qué han sido concebidas. Al hacer ingeniería inversa logramos intuir la cantidad de esfuerzo e inteligencia que se ha invertido en la confección del aparato que tenemos entre manos. El encaje entre las piezas, su función, las relaciones causales y la cantidad de conocimiento que hay sobre las propiedades físicas en cada uno de los detalles que conforman el objeto, revelan el largo proceso de I+D (investigación y desarrollo) por el que se ha debido de pasar hasta llegar a la fabricación del producto.

Cuando el biólogo investiga sobre algún organismo o rasgo del organismo, como por ejemplo la ecolocalización de los murciélagos, hace exactamente lo mismo. Al analizar los ultrasonidos que los murciélagos emiten con su laringe y lanzan por la boca para captar con sus oídos el rebote y formarse una imagen mental de la presa, descubren cómo funciona el prodigioso mecanismo sensorial de estos mamíferos. El biólogo sabe que es el resultado de un proceso de transmisión genética a lo largo de miles de generaciones de las variaciones que la naturaleza ha seleccionado desechando las menos aptas para la supervivencia y la reproducción, pero la explicación del mecanismo no ha logrado hacerla estudiando los genes codificadores de la ecolocalización, sino haciendo ingeniería inversa: es decir, preguntándose qué función cumplen los ultrasonidos, los pabellones auriculares, etcétera. La selección natural es interpretada, en cierto sentido, como la investigación y desarrollo que hacen los seres humanos: se producen variantes y se someten a prueba para ver si funcionan; si no funcionan, son desechadas y sustituidas por otras. Ahora bien, la naturaleza hace esta selección lentamente, a lo largo de eones, de una manera completamente ciega y automática. Los individuos portadores de variantes genéticas (fruto de mutaciones) más aptos para la supervivencia y la reproducción son los que transmiten sus genes de generación en generación, mientras que los poco o nada adaptativos mueren sin reproducirse (en muchos casos, ni siquiera llegan a nacer). La evolución es un proceso espontáneo de prueba y selección cuyo resultado es el que vemos en el mundo orgánico: una exquisita funcionalidad, rica, compleja, eficaz… y aparentemente inteligente.

Igual que interpretamos las partes funcionales de un artefacto producido por el ser humano haciendo ingeniería inversa, todo el mundo vivo es interpretable en términos intencionales (en términos de función y propósito), pues la evolución por selección natural es, aunque ciego, un proceso de búsqueda y tanteo de razones para organizar (para diseñar) las cosas de un modo u otro de cara a la replicación genética. Son, por descontado, razones descubiertas por los investigadores humanos, no generadas en la mente de algún supuesto diseñador de la naturaleza. La palabra diseño no debería connotar necesariamente la intervención consciente de un artífice con inteligencia; aplicándola a las formas de lo viviente, no es un término metafórico, como lo sería cuando hablamos del diseño de las nubes o de una aurora boreal, sino un concepto que nos ayuda a describir rasgos u órganos funcionales (las nubes y las auroras boreales carecen de formas funcionales) o adaptativos. Es por ello plenamente correcto decir que la evolución diseña. O que determinado rasgo funciona por buenas razones.

Dennett cuenta en su último libro, Intuition pumps and other tools of thinking, que un día, hablando en un bar con unos estudiantes sobre los intrincados mecanismos del interior de las células, uno de ellos hizo esta reflexión: “Cuando ves todos esos pequeños y fantásticos robots haciendo su trabajo, ¿cómo es posible creer en la evolución?”; otro de ellos asintió con la cabeza. Dennett comenta sorprendido: “Aquellos escépticos de la evolución no eran unos palurdos, ¡eran estudiantes de medicina de Harvard!” (pág. 221). El problema, piensa Dennett, es que los biólogos evolucionistas les han repetido demasiadas veces a sus estudiantes que en la naturaleza no existe verdadero diseño, sino solamente apariencia de diseño. De tanto insistir en que el diseño es sólo aparente, se está empezando a fraguar ya un nuevo malentendido: en biología se evita hablar de diseño por miedo al fantasma del Diseño Inteligente, lo que es sin duda comprensible, pero esta reluctancia está haciendo más fuertes a los enemigos del adaptacionismo. A fuerza de insistir en la inconveniencia del término diseño, al final resultará que el poder de la selección natural es algo residual.

De hecho, en las últimas décadas han surgido numerosos autores (Stephen Jay Gould y Richard Lewontin entre los más destacados) que, sorteando el programa adaptacionista, han tratado de explicar los hechos de la evolución acudiendo a mecanismos alternativos a la selección natural, como las constricciones de desarrollo o genéticas. Por su parte, Dennett, alineado en el darwinismo más bien ortodoxo de John Maynard Smith, William D. Hamilton o Richard Dawkins, defiende que prácticamente todo en la naturaleza es forma adaptada a la función de sobrevivir y reproducirse. Es decir, diseño, propósito, razón. Tal diseño, propósito o razón no surge de la mente de un programador inteligente; es, más bien, algo que interpretamos nosotros cuando tratamos de explicar el por qué y el para qué de los organismos, su comportamiento, su fenotipo, sus órganos internos.

Como dijo un crítico, hay en la teoría de Darwin una extraña inversión del razonamiento: la más Perfecta Sabiduría (el maravilloso encaje de todos los organismos en la naturaleza) es producto de la Absoluta Ignorancia (la selección natural darwiniana). Así es, hay que admitirlo. Pero no se trata de una contradicción, puesto que la naturaleza está cargada de buenas razones para hacer lo que hace. Siendo absolutamente ignorante, logra hacer las cosas con una sofisticada ingeniería que puede ser posteriormente analizada por el observador curioso. Cualquiera que piense un poco en cómo el lento e ignorante proceso de la selección natural ha llegado a fraguar una célula eucariota, una orquídea, un elefante o un ser humano, se quedará admirado. Y podrá decir, como se oye habitualmente, que la naturaleza es sabia. O, en versión de Leslie Orgel, “la evolución es más lista que tú”.

La relación mente-cuerpo: un problema de psicología popular

FRANCISCO LAPUERTA

Los seres humanos tenemos mente porque tenemos cerebro: no hay la menor duda de que la mente es un efecto de la actividad neuronal. Pero ¿tienen mente los animales? ¿Tienen mente los ordenadores que ganan partidas de ajedrez a campeones del mundo? ¿O es la mente algo exclusivo de los humanos? Si es así, ¿depende sólo de nuestro cerebro? Si la robótica desarrolla en el futuro un cerebro artificial más complejo que el humano, ¿tendrán mente los robots? ¿Serán seres conscientes?

Creo que es posible estar de acuerdo en que para aceptar la existencia de mente no es necesario presuponer que toda mente ha de ser consciente. El dualismo cartesiano se inició a partir del error de considerar que la mente es per se algo consciente (Descartes argumentó que los animales y las máquinas no tienen mente), pero no voy ahora a recordar la polémica desatada por Descartes, sino a plantear qué es lo mental. Que la mente se origina en la circuitería neuronal es algo, como ya he dicho, fuera de toda duda (al menos está fuera de duda para los materialistas; felizmente, creo que la inmensa mayoría de científicos y filósofos de la mente coinciden -coincidimos- en este punto). Otra cosa es admitir que la mente es esa circuitería, en el sentido de que se puede reducir a ella (quienes defienden esta postura son los materialistas reduccionistas).

Para entender el reduccionismo hay que pensar en la posibilidad de que un futuro escáner cerebral pueda copiar o reproducir los contenidos mentales (recuerdos, imágenes, lenguaje, sensaciones). Imaginemos unos microscopios del futuro aplicados a la observación de los intercambios químico-eléctricos de las neuronas en el cerebro de una persona: ¿se podrá saber a partir de tal observación en qué está pensando? Las técnicas de neuroimagen que tenemos en la actualidad están muy lejos de conseguirlo. ¿Podrán lograrlo en el futuro si la tecnología avanzara ilimitadamente? Si usted cree que sí, entonces es partidario del reduccionismo.

Dennett es materialista, pero no reduccionista. Él piensa que por mucho que avance la tecnología jamás lograremos acceder a los contenidos mentales a partir de la observación del cerebro. La mente procede del cerebro, pero no es solamente sinapsis neuronal. ¿Qué es, entonces? ¿Algo más que simplemente neurotransmisores corriendo de un lado a otro de la corteza cerebral? ¿Algo inmaterial, acaso?

En realidad, el problema es que si intentamos definir la mente como algo diferente al cerebro, nos vamos hacia posiciones no materialistas, y por ese camino seguramente nos vamos a equivocar. Lo mejor es empezar desde cero y plantear las cosas de otro modo, como hace Dennett.

El cerebro es materia. Si es verdad que la mente procede del cerebro, entonces hemos de aceptar que la materia puede pensar (que me perdone Descartes). Si la materia puede pensar, hay que suponer la posibilidad de que los animales (incluidos los más básicos) y los robots piensen también. Por supuesto, cuando las máquinas igualen a los humanos en actividades cognitivas, cuando su comportamiento sea indistinguible del humano, tendremos que aceptar sin rechistar que las máquinas piensan (en otra ocasión me ocuparé de este asunto recordando el famoso test de Turing). Diremos: esta máquina parece tener deseos, intenciones, sensaciones corporales, recuerdos… esta máquina parece tener, en definitiva, estados mentales.

La pregunta, aquí, es qué nos permite conocer la diferencia entre parecer que se tiene estados mentales y tenerlos de verdad. La respuesta es: nada. Si realmente el comportamiento de un robot es indistinguible del de un ser humano, nada nos permitirá saber si el ser robótico es una máquina ciega que ejecuta órdenes de su programa interno o si, por el contrario, es algo “vivo”, aunque sea un artefacto, esto es, un androide con mente humana. Si resolvemos que es una máquina ciega apelando al carácter artificial del robot, al hecho de que ha sido construido, entonces no estaremos más que elevando un prejuicio: el prejuicio de que los seres humanos somos en muchos sentidos inigualables.

Fijémonos en qué estamos haciendo cuando, con una seguridad inquebrantable (confiando plenamente en que no son robots), atribuimos estados mentales a los seres humanos: suponer que tienen deseos, intenciones, creencias… ¿Puede esto ser contrastado científicamente? No. Ya he mencionado antes la actual imposibilidad de leer esos estados en el tejido neuronal. ¿Cómo estamos tan seguros, entonces? Bueno…, diríamos, …es que la psicología popular funciona. Hemos de llamarla psicología popular porque el recurso es muy de andar por casa: atribuir intenciones a otro es puro pensamiento analógico, en el sentido de que suponemos que los demás tienen mentes análogas a la nuestra. Como nosotros tenemos intenciones y deseos, los otros, que se nos parecen bastante en comportamiento, también los tienen. Tan popular es este recurso, que muchos lo extienden a sus perros y sus gatos.

En realidad, no podemos estar completamente seguros de estar haciendo lo correcto, pues no podemos meternos en las mentes ajenas. La atribución de estados mentales a otros es un recurso operativo, es una herramienta del sentido común, pero no es algo que pueda ser avalado por ningún tipo de rigor científico. Si es solamente un criterio operativo que nos resulta útil para entender el comportamiento ajeno, usémoslo con amplitud (y sin miedo a equivocarnos) también para comprender el comportamiento de animales y robots. Usémoslo para entender el funcionamiento de las máquinas; será muy útil, por ejemplo, para hacer ingeniería inversa y descifrar la lógica inherente de todo artefacto diseñado,  así como para conocer mejor los mecanismos adaptativos de la naturaleza. Y hagámoslo, por descontado, sabiendo que artefactos y organismos no tienen mente real (no nos equivoquemos en esto).

Es precisamente a esta conclusión a la que ha llegado Daniel Dennett. La mente es lo que él llama un sistema intencional. Este concepto es la clave de bóveda de su filosofía. Actúan como si tuvieran mente los seres humanos, pero también los animales y los robots. Actúan como si tuvieran mente los ordenadores, las calculadoras, cualquier máquina que procese información, hasta un simple termostato. Eso no quiere decir que estas máquinas piensen, ni razonen, ni mucho menos que sean conscientes. Lo único que pretende Dennett al extender la idea de mente más allá del cerebro humano es decir que para hacer inteligible el comportamiento de las máquinas o los organismos tenemos que recurrir necesariamente al lenguaje mentalista de la psicología popular. No está diciendo que las máquinas y los organismos sean poseedores de una mente real (¿qué es una mente real?, ¡nadie lo sabe!), independiente de la nuestra. Atribuir estados mentales a las cosas o los animales para explicarnos su comportamiento es una especie de juego inocente, pero extremadamente útil. Sabemos que no tienen mente humana, pero jugando a la ficción de atribuirles mente humana, antropomorfizando sin abandonar el sentido común, podemos saber cómo los insectos polinizan las plantas con flores, cómo funciona un motor eléctrico o porqué nacen o mueren las estrellas.

En rigor, acerca de qué es la mente no podemos decir más que esto: es una herramienta útil, una construcción teórica operativa. No es algo real, en el sentido de que no tiene consistencia ontológica material. Lo material es el cerebro. Pero tampoco es una realidad al estilo de la res cogitans cartesiana, ni de las ideas platónicas. Ni es algo, como dije anteriormente, que futuros neurocientíficos puedan estudiar con un microscopio. No es un fenómeno observable. Es un modo de representación, bien conocido en nuestra experiencia interna, que proyectamos sobre otros seres y artefactos. La fenomenología interna (aquello que experimentamos en primera persona), la aplicamos al exterior convirtiéndola en heterofenomenología (pasándola a tercera persona). Un recurso al mismo tiempo débil y poderoso, pues, aunque sin ninguna certeza, nos permite interpretar lo que ocurre a nuestro alrededor.

Ciencia cognitiva: trabajar con simulaciones

FRANCISCO LAPUERTA

La “ciencia cognitiva” es un enfoque interdisciplinar sobre la mente y su relación con el cerebro consolidado en los años 50 y 60 del pasado siglo, cuyo objetivo principal es explicar cómo funciona la mente a partir de modelos computacionales. Dennett es uno de sus padres fundadores. El enfoque computacional de la mente pretende servir tanto al propósito de conocer el funcionamiento de la mente como para el diseño de la inteligencia artificial. Lo interesante de la ciencia cognitiva es su base metodológica, que consiste en aceptar la simulación como método de investigación. Se supone que las simulaciones han de servir para reproducir el modo en que los seres humanos usamos la inteligencia.

Las teorías computacionales de la mente, sin embargo, en los últimos años han quedado en entredicho. Pero en cierta medida el enfoque computacional lo mantiene Dennett en la aplicación de la ingeniería inversa. La biología y la psicología evolucionista son para él ingeniería inversa: el biólogo y el psicólogo evolucionista trabajan al revés que cuando desarrollamos un proyecto; en lugar de construir, desmontar; en lugar de ir añadiendo elementos, ir quitándolos, mirando al mismo tiempo cómo y por qué estaban allí colocados, qué función cumplían dentro de la maquinaria. Despiezar para ver cómo funciona algo: esto es ingeniería inversa.

La ingeniería inversa es una forma de simulación. Se trata de desmontar no por el afán espurio de hacer añicos algo que tenía su estructura funcional en perfecto estado, sino por el interés de reproducir el ensamblaje construyendo modelos. Pueden ser modelos de inteligencia artificial o modelos para explicar cómo funcionan nuestras neuronas al procesar pensamientos, recuerdos, percepciones o emociones (modelos que podrán ser después comprobados mediante técnicas de neuroimagen). Un modo de acercarse a la mente sobre la previa aceptación del hecho comprobado de que la mente no es otra cosa que la actividad del cerebro en redes neuronales. Hecho que no por haber sido comprobado está exento de problemas, como plantearé en una próxima entrada.