La Singularidad: ¿una leyenda urbana?

La revista digital Edge, como cada año, ha lanzado a científicos y filósofos una pregunta inquietante. En esta ocasión, ¿Qué pìensa usted sobre las máquinas que piensan?

He aquí la respuesta completa de Daniel C. Dennett:

La Singularidad: ¿una leyenda urbana?

“La Singularidad -el temido momento en el que la Inteligencia Artificial (IA) sobrepasa la inteligencia de sus creadores y toma el control del mundo-  es un meme importante. Tiene todas las características clásicas de una leyenda urbana: cierta credibilidad científica (“Bueno, en principio, ¡supongo que es posible!”) combinada con un deliciosamente escalofriante clímax (“¡Nos dominarán los robots!”). ¿Sabías que si estornudas, eructas y te tiras un pedo al mismo tiempo, te mueres? ¡Uf! Tras décadas de alarmismo sobre los riesgos de la IA, podríamos pensar que la Singularidad se vería a estas alturas como una broma o una parodia, pero ha demostrado ser un concepto extremadamente persuasivo. Si a esto le añadimos algunos conversos ilustres (Elon Musk, Stephen Hawking y David Chalmers entre otros), ¿cómo no tomárnoslo en serio? Aunque este estupendo evento tenga lugar dentro de diez o cien o mil años en el futuro, no sería prudente comenzar a planear ahora la creación de las barricadas necesarias y mantener los ojos bien abiertos por si sobreviene la catástrofe? Yo creo, al contrario, que estas voces de alarma nos distraen de un problema mucho más apremiante; un desastre inminente que no necesita la ayuda de la Ley de Moore ni de nuevos avances para que alcance su punto de inflexión mucho más pronto: tras adquirir, después de siglos de duro trabajo, una comprensión de la naturaleza que nos permite, por primera vez en la historia, controlar muchos aspectos de nuestro destino, estamos a punto de abdicar este control y dejarlo en manos de entes artificiales que no pueden pensar, poniendo a nuestra civilización en modo auto-piloto de manera prematura. El proceso es insidioso porque cada paso que tenga un buen sentido local es una oferta que nadie puede rechazar. Sería una tontería que intentara usted hacer grandes cálculos aritméticos con lápiz y papel cuando una calculadora de mano es mucho más rápida y casi perfectamente fiable (no olvide los errores de redondeo), o que intentara memorizar los horarios de trenes cuando están disponibles al instante en su teléfono móvil Deje la lectura de mapas y la navegación a su sistema GPS; no es consciente, no puede pensar en ningún sentido significativo, pero es mucho mejor que orientarse por sí mismo para saber dónde se encuentra y adónde quiere ir.

Yendo aún más lejos, los médicos son cada vez más dependientes de sistemas de diagnóstico que son demostrablemente más fiables que cualquier diagnosticador humano. ¿Querría usted que su médico invalidase el veredicto de una máquina cuando ésta tome una decisión capaz de salvale la vida? Esta puede llegar a ser la mejor -la de más probable utilidad, la más inmediatamente útil- aplicación de la tecnología que hay en la máquina Watson de IBM, y plantear la cuestión de si se puede decir que Watson piensa (o es consciente) es algo que no viene al caso. Si Watson resulta ser mejor que los expertos humanos en la elaboración de diagnósticos a partir de los datos disponibles, será moralmente obligatorio que nos valgamos de sus resultados. Un médico que desafíe su competencia estaría pidiendo una demanda por negligencia. Ninguna área de la actividad humana parece estar claramente fuera de los límites de este tipo de acciones y potencialidades protésicas, que si en cualquier caso han de ser sometidas a control, sobre ellas recaerá la supervisión humana, como siempre se ha hecho. La elaboración de leyes e incluso la ciencia podrían llegar a ocupar nichos adyacentes a la cerámica artesanal y los suéteres tejidos a mano.

En los primeros días de la IA, se hizo un intento de imponer una clara distinción entre inteligencia artificial y simulación cognitiva. La primera iba a ser una rama de la ingeniería, y trataría de hacer su trabajo por las buenas o por las malas, sin ningún intento de imitar los procesos mentales humanos, excepto cuando esta vía resultaba una manera eficaz de proceder. La simulación cognitiva, por el contrario, iba a ser la psicología y la neurociencia orientada según modelos informáticos. Un modelo de simulación cognitiva que bien exhibiera errores o confusiones reconociblemente humanas sería un triunfo, no un fracaso. La diferencia entre estas dos aspiraciones sigue vigente, pero en gran parte se ha borrado de la conciencia pública: para los legos, IA significa superar el test de Turing, convertirse en humanoide. Pero los avances recientes en IA han sido en gran parte el resultado del alejamiento de (lo que creíamos entender sobre) los procesos de pensamiento humano y del uso de impresionantes poderes de procesamiento de datos en superordenadores para llevar a cabo conexiones valiosas y patrones sin tratar de hacerles entender lo que están haciendo. Curiosamente, los asombrosos resultados están obligando a muchos estudiosos de la ciencia cognitiva a hacer reconsideraciones; resulta que hay mucho que aprender acerca de cómo el cerebro hace su brillante trabajo de anticipación del futuro mediante la aplicación de las técnicas de extracción de datos y aprendizaje automático.

Pero el público seguirá imaginando que cualquier caja metálica que pueda hacer eso (sea cual sea el último logro de la IA) debe ser un agente inteligente muy parecido a un ser humano, cuando en realidad lo que hay dentro de la caja está extrañamente truncado, como una fábrica de dos dimensiones que adquiere su poder gracias precisamente a que no añade la sobrecarga de una mente humana con todas sus distracciones, preocupaciones, compromisos emocionales, recuerdos o lealtades. No es un robot humanoide en absoluto, sino un esclavo sin mente, el último avance en pilotos automáticos.

¿Qué hay de malo en entregar la monotonía del pensamiento a tales maravillas de alta tecnología? Nada, siempre y cuando (1) no nos engañamos a nosotros mismos, y (2) que de alguna manera consigamos mantener nuestras propias habilidades cognitivas sin que se atrofien.

(1) Es muy, muy difícil de imaginar (y tener en cuenta) las limitaciones de entidades que pueden ser ayudantes muy valorados; la tendencia humana es siempre a dotarlos de un exceso de conocimiento, como hemos hecho desde el notorio programa Eliza de Joe Weizenbaum en la década de 1970. Se trata de un gran riesgo, ya que siempre vamos a tener la tentación de pedir de ellos más de de lo que fueron diseñados para llevar a cabo, y a confiar en los resultados cuando no deberíamos.

(2) Úselo o piérdalo. Al hacernos cada vez más dependientes de estas prótesis cognitivas, corremos el riesgo de no saber qué hacer si alguna vez nos fallan. Internet no es un ser inteligente (salvo en algunos aspectos), pero nos hemos vuelto tan dependientes de la Red que si en algún momento colapsara, se desataría el pánico y podríamos destruir nuestra sociedad en pocos días. Este es el hecho ante el que debemos doblar nuestros esfuerzos ahora, puesto que puede suceder cualquier día.

El peligro real, por lo tanto, no son máquinas más inteligentes que nosotros, que podrían usurpar nuestro papel como capitanes de nuestro destino. El peligro real es que cedamos nuestra autoridad a máquinas estúpidas, otorgándoles una responsabilidad que sobrepasa su competencia.”

Anuncios