"La IA nos matará a todos", afirma uno de los mayores expertos del mundo. No firmó la carta de Elon Musk porque se queda muy corta
Desde que Elon Musk, Steve Wozniak, Harari y los demás hicieron pública hace unos días su carta abierta a favor de una moratoria de seis meses en el desarrollo de IAs avanzadas para permitir su correcta regulación y supervisión, el debate público en torno a la inteligencia artificial parece haberse dividido entre los que están a favor de la misma y los más tecno-entusiastas, que consideran la postura de los primeros un mero ejercicio de neoludismo.
Sin embargo, hay otras posturas posibles en esta discusión. Como la de Eliezer Yudkowsky, un experto en IA y 'activista del racionalismo' que está convencido de que los firmantes de la carta se quedan terriblemente cortos en su petición:
"Esta moratoria de 6 meses sería mejor que ninguna moratoria. Respeto a todos los que han dado un paso al frente [pero] yo me abstuve de firmar porque creo que la carta subestima la gravedad de la situación y pide demasiado poco para resolverla".
Gary Marcus, uno de los firmantes de la carta, se lamentaba de que no haya logrado calar lo suficiente, y aclaraba que él "no teme a los robots, teme a las personas". Sin embargo, lo que a Yudkowsky le preocupa no es el uso que la gente le dé a GPT-4 ni a GPT-5, sino la siguiente fase de la IA, cuando ésta llegue a ser más inteligente que los humanos:
"Muchos expertos en estos temas, entre los que me incluyo, creen que el resultado más probable de construir una IA sobrehumanamente inteligente, en circunstancias remotamente parecidas a las actuales, es que literalmente todos los habitantes de la Tierra morirán. No como en el sentido de "tal vez exista alguna remota posibilidad", sino en el de "obviamente será lo que pase", […] como hubiera pasado si el Autralophitecus hubiera llegado a competir contra el Homo Sapiens".
Nuestro protagonista afirma que, a día de hoy, no sabemos cómo imbuir en una IA así una preocupación por la Humanidad ni por la vida sensible en general. No cree que tal preocupación sea per se incompatible con la IA, pero sí que si no esperamos a saber cómo implementarla, el resultado será una IA que "ni nos quiera ni nos odie", que sólo nos vea como algo "hecho de átomos que puede utilizar para otra cosa".
"La intención abiertamente declarada de OpenAI", explica, pasa por esperar a que alguna IA del futuro se encargue de imbuir esa preocupación a sus semejantes por nosotros. "Sólo con oír que éste es el plan debería bastaría para que cualquier persona sensata entrara en pánico. El otro laboratorio líder en IA, DeepMind, sencillamente no tiene ningún plan".
Hay que aclarar que Yudkowsky no vincula nada de esto al hecho de que las IAs sean o no 'conscientes'. Para él, el peligro que representan "es intrínseco a la noción de sistemas cognitivos potentes".
"Dicho esto, […] no tenemos ni idea de cómo determinar si los sistemas de IA son autoconscientes —ya que no tenemos ni idea de cómo descodificar nada de lo que ocurre en su gigantescas matrices inescrutables— y, por lo tanto, puede que en algún momento creemos inadvertidamente mentes digitales".
¿Qué hacer?
La propuesta de Yudkowsky es breve en su formulación, pero amplia (amplísima) en sus repercusiones. Y no admite medias tintas:
- La moratoria sobre nuevas IAs complejas debe ser indefinida y mundial, sin excepciones para gobiernos y ejércitos.
- Debemos apagar todos los grandes clusters de GPU, y rastrear y destruir todas las GPU ya vendidas. De nuevo, sin excepciones para gobierno y ejércitos.
"Apagadlo todo. No estamos preparados ni en camino de estarlo en un futuro previsible. Si seguimos adelante con esto todo el mundo morirá, incluidos los niños que no eligieron esto. Apagadlo todo".