revista de divulgación del Instituto de Astrofísica de Andalucía

Sala limpia

¿Tomarán las máquinas el control algún día y se rebelarán contra nosotros?

Miguel Abril (IAA-CSIC)
La respuesta

1. Sí.          
2. No.
3. Da igual, porque de todas formas los caminantes blancos van a terminar con todos.

El concepto de inteligencia artificial está implícito en el desarrollo de las computadoras desde sus orígenes. A pesar de que los ordenadores son básicamente máquinas de calcular muy rápido y con mucha precisión, y está claro que eso no es lo que entendemos por inteligencia, ya en 1950 Alan Turing, en su ensayo Computing Machinery and Intelligence, se planteaba si alguna vez se podría diseñar una máquina que pensase por su cuenta. La respuesta a su propia pregunta fue el test que lleva su nombre y que ha dado pie a innumerables argumentos de películas de ciencia ficción (Blade Runner y Ex-Machina son dos ejemplos evidentes). Probablemente el público general, más allá de los expertos en el tema, empezó a tomarse en serio la idea de que las máquinas pudieran superar a los humanos en 1997, cuando el ordenador Deep Blue venció al campeón mundial Gary Kasparov en una serie de seis partidas. Claro que esa tampoco es la prueba definitiva, porque el ajedrez está muy relacionado con la memoria y el cálculo de probabilidades, y eso a ellos se les da muy bien. Hoy hay aplicaciones informáticas capaces de realizar funciones tradicionalmente más asociadas a capacidades humanas, como escribir ciertos textos periodísticos en diarios y revistas (Los Angeles Times y Forbes, por ejemplo). No es que te mueras de risa con ellos, pero dan información precisa y concreta, y con toda seguridad con menos faltas de ortografía que las que se descubren últimamente en la prensa escrita. Actualmente se investiga en el desarrollo de máquinas que aprenden de sus propios errores y otros aspectos más propios de la inteligencia humana que de la programación tradicional de algoritmos, como la detección de patrones. Diversos proyectos se centran en la  interacción máquinas-cerebro, desarrollando interfaces de control de sistemas complejos mediante sensores que recogen las ondas cerebrales. Otra iniciativa, bautizada como Human Brain Project, pretende realizar una simulación en supercomputadora del cerebro humano, que resultará fundamental para conseguir a medio plazo una interfaz de interconexión entre este y las máquinas (BIC, Brain Interface Computer). Mención aparte merece el proyecto Inititative 2045, cuyo objetivo es nada más y nada menos que transferir la estructura cerebral humana completa a un avatar. La cosa tiene su miga, y da pie a discusiones filosóficas. ¿Dónde reside el espíritu humano? ¿Existe un alma separada del cuerpo físico, o ambas son parte de lo mismo? Si, como sostienen algunos, el cerebro no solo alberga recuerdos y conocimientos, sino que también nuestra consciencia y nuestra alma son pura química que se desarrolla en la red neuronal, la transferencia de dicha red a una máquina compleja equivaldría a convertirnos en seres inmortales.
Pero vamos a lo interesante: la pregunta. ¿Tomarán las máquinas el control algún día y se rebelarán contra nosotros? A mí estas cosas siempre me habían parecido una chorrada. Mucha máquina, mucha máquina, pero mientras el doctor Doofenshmirtz de turno (reto a los más frikis del lugar a que recuerden quién es este villano) se siga acordando de ponerle a sus creaciones un botón de  apagar, no vamos a dejar de tener el control. Ahora, sin embargo, no lo tengo tan claro. Un botón de apagar te serviría si viniera un Terminator a por ti y te diera tiempo a despistarlo bailando ‘Despacito’ (es solo una opción, hay otras) para que tu compañero de aventuras en el Día del Juicio Final pudiera deslizarse por detrás hasta encontrar el interruptor. Porque sí, un Terminator es una máquina de alta tecnología, pero algún tipo de baterías debe llevar, digo yo. Por suerte o por desgracia, la situación es bastante más compleja. Un ataque de las máquinas no tendría su origen en robots individuales que te dispararan proyectiles explosivos o te cortaran en dos con un láser de alta potencia (qué pena, porque matarte, te mata, pero mola un montón), sino en el descontrol generalizado del entramado tecnológico que hemos montado para sostener nuestra civilización. Dos pruebas del poco control que tenemos sobre el monstruo que hemos creado se han dado hace solo unos días. La primera, el ciberataque a empresas a escala mundial que se produjo a principios de mayo de 2017 y que trajo en hacker, perdón, en jaque, a toda la seguridad del planeta. Según parece, no tuvo consecuencias más graves porque a un chaval de catorce años se le ocurrió comprar un dominio de internet por diez libras. No, yo tampoco entiendo nada. La segunda, el caos informático originado por la caída de servidores de la compañía British Airways, que dejó a miles de viajeros en tierra sin necesidad de que ningún avión se averiase ni ningún controlador decidiera pedir un aumento de sueldo. Así que la situación, más que “¡Las máquinas se han vuelto locas! ¡Entretén al Terminator, a ver si puedo rodearlo y encuentro el botón!”, sería más parecida a “¡Las máquinas se han vuelto locas! ¡Apaga la nube!”. Y no, amigo, la nube no se puede apagar. Y, si se consiguiera hacer, tal vez anularíamos la amenaza de las máquinas, pero a la vez provocaríamos el descontrol en procesos fundamentales en la vida moderna (medios de transporte, generación y distribución de energía, coordinación de fuerzas del orden, gestión de emergencias, por poner unos pocos ejemplos) y la pérdida irreparable de datos críticos para el funcionamiento de nuestra sociedad tecnológica. En último término, las consecuencias podrían ser tan graves como… ¡la pérdida de la receta de las torrijas de la abuela! Salvo para los seguidores de esta sección, claro, que en su momento (ver número 44) fueron debidamente informados de estos riesgos y la almacenaron en un trozo de papel o en tablillas de barro cocido con escritura cuneiforme. Conclusión: cuidado con las máquinas, que son más traicioneras que el colesterol malo. Todo esto podría parecer una simple paranoia de este humilde articulista, si no fuera porque lo respaldan opiniones de gente que sabe mucho más. Como Elon Musk, que afirma que “la IA es potencialmente más peligrosa que las armas nucleares”, o un tal Stephen Hawking: “Una vez que los seres humanos desa-rrollen la IA, esta despegará por sí misma y se rediseñará a un ritmo cada vez mayor. Los seres humanos, limitados por la lenta evolución biológica, no podrán competir”. Hawking también dice que mejor no contactar con civilizaciones extraterrestres, que si vienen va a ser peor. Igual tienes razón, Stephen, pero… qué curiosidad, ¿no?

 

La pregunta

Que no, que no hay pregunta. Una vez más mi capacidad de enrollamiento me ha llevado a quedarme sin espacio. Necesitaría una nanopregunta… Uhmmmm… Nano… Robots… ¡Venga, vale!: en el próximo número, robots diminutos.