Futuròlogos
(de Oxford , MIT y Cambridge) en biotecnología , inteligencia artificial y nanotecnología dicen que se podría avecinar el fin de la humanidad si no se hacen las cosas bien. ¿ciencia-ficción
o paranoia conspirativa?
EL NEGRO
FUTURO DEL SER HUMANO
Miedo
en Oxford y a Cambrige: ponen en marcha un Departamento del fin del mundo
(se denomina facultad en Perú )
http://www.elconfidencial.com/alma-corazon-vida/2014-10-12/miedo-en-oxford-y-a-cambrige-ponen-en-marcha-un-departamento-del-fin-del-mundo_228565/#
Un grupo de filósofos y científicos
se han reunido para anticipar las potenciales amenazas a la raza humana. (iStock)
Héctor G.
BarnésTwitter de Héctor G. BarnésHéctor G.
12/10/2014 (05:00) 0
¿Qué clase de departamento debería
tener una universidad si quiere contarse entre las mejores del mundo?
Los de
semiótica, lingüística y filosofía parecen imprescindibles en las carreras de
letras, así como los de física, biología o química en las ciencias.
A dicha lista está añadiéndose uno nuevo que
puede sonar al lector desprevenido a ciencia-ficción o
paranoia conspirativa, pero que ya se encuentra implantado en las
universidades más señeras del mundo, como son Oxford o
Cambridge.
Se trata del departamento de riesgos existenciales, como
se denomina en Cambridge, o el Instituto de la Vida de Futuro, nombre que ha recibido
en el americano MIT. También podríamos llamarlo,
familiarmente, como el Departamento del Fin del Mundo.
La misión
básica de todos estos centros es
anticipar aquellas situaciones a las que la tecnología nos puede llevar en las
próximas décadas, y de qué manera podemos evitar que la humanidad tome un
camino equivocado.
Se trata, en su mayor parte, de hacer frente a
las pesadillas de la alta tecnología, en especial las pandemias
creadas por la bioingeniería y la nanotecnología, así como por el
desarrollo de la inteligencia artificial. Hipótesis de futuro que pueden cercenar la vida de millones de personas en
un segundo, y cuya peligrosidad se ha multiplicado exponencialmente desde
que en los años 40 la bomba nuclear diese al hombre por primera en su historia
la posibilidad de arrasar la vida sobre la tierra.
Jaan
Tallinn, cofundador de Skype, es uno de los principales inversores de estos departamentos.Jaan
Tallinn, cofundador de Skype, es uno de los principales inversores de estos
departamentos.
No se trata
solamente de las apuestas realizadas por las universidades sino, sobre todo, de
los nombres propios que han dado luz a dichas empresas. Uno de los más célebres
es el estonio Jaan Tallinn, fundador de Skype, que ha invertido cerca de dos
millones de dólares en distintos proyectos de este tipo, entre los que se
encuentran el FHI (Future of Humanity Institute)
de la Universidad de Oxford, fundado en el 2005.
O
Eliezer Yudkowsky, teórico computacional que ha señalado que el auge
de la inteligencia artificial puede ser devastadora del hombre.
O el autor
de The Final Hour (2004), Martin Rees, que en
dicho libro señalaba que las probabilidades de supervivencia del hombre a final
de este siglo no superan el 50%. Son sólo
algunos de los hombres de aquellos que se han propuesto alertar al hombre de
los males que se avecinan.
Algo
maligno se acerca por ese camino
De entre
todos esos nombres, quizá el más relevante sea el del filósofo sueco de 21 años Nick Bostrom, autor
de Superinteligencia: caminos, peligros, estrategias (Oxford University Press),
que fundó el departamento de la Universidad de Oxford y colabora también
en el centro de la Universidad de Cambridge, conocido como Centre for the Study of the Existencial Risk (CSER).
Un reciente artículo publicado en The New Statesmen
entrevistaba al pionero de este grupo de investigación sobre “las
consecuencias apocalípticas de nuestros actos”. “Es como un niño al que se le
pone en las manos un arma cargada, cuando debería estar jugando con soldaditos
o cascabeles”, explicaba.
“Como especie, tenemos
acceso a tecnología para la que deberíamos tener una madurez mayor”. Actualmente, su departamento cuenta
con 18 investigadores seleccionados de un amplio ramillete de disciplinas.
Mi mayor pesadilla es el lobo
solitario fanático de la ecología y con conocimientos de biotecnología
El problema,
señala, es que no hay vuelta atrás, y que es imposible convencer de forma
amistosa a las industrias tecnológicas y políticas de que quizá no deberíamos
investigar más sobre la inteligencia artificial o la biotecnología. Tampoco
ello sería una buena opción, puesto que estas pueden resultar muy beneficiosas
bien utilizadas.
¿De qué manera se puede manifestar
dicha amenaza?
Como
recuerda, hoy en día existe cierto consenso respecto a que en los próximos 50
años seremos capaces de crear inteligencia artificial semejante a la de un
humano. Y de igual manera que las prestaciones de los ordenadores han aumentado
sensiblemente en los últimos años, esta
inteligencia se multiplicaría de forma exponencial en poco tiempo.
Nick
Bostrom fue el encargado
de fundar este centro en la Universidad de Oxford.
.
No es la inteligencia el problema,
sino la capacidad de control de la misma. Bostrom señala que el ser humano ignora totalmente a los
gorilas porque es consciente de que se trata de seres cuya inteligencia no se
puede comparar a la de los hombres y, por ello, ha creado una sociedad que
busca satisfacer únicamente las necesidades humanas. De igual manera, es
probable que la nueva inteligencia artificial simplemente estableciese una
sociedad al margen del ser humano. No es la peor de las posibilidades, pero sí
una de las más probables.
Millones
de humanos menos en unos minutos
Aún más
peligrosa resultan las amenazas de la biotecnología. Este mismo año, el
profesor de la Universidad de Wisconsin Yoshihiro
Kawaoka fue capaz de crear una cepa mortal del
virus de la gripe aviar H1N1, resistente
al sistema inmune y que podría acabar con el 5%
de la población humana. De caer en malas manos, o en caso de que alguien
consiguiera crear un virus semejante, la humanidad se encontraría desprotegida
ante ataques bacteriológicos.
Como señala
Martin Rees en un reportaje publicado en Salon, “mi mayor pesadilla es el lobo
solitario fanático de la ecología y con conocimientos de biotecnología que cree
que sería mejor para el mundo si hubiese menos humanos saqueando la biosfera”.
Crearemos
mentes planetarias que piensen y sientan cosas más allá de nuestra comprensión
que vivan durante miles de millones de años
Frente a
ello, otras amenazas como la del cambio climático parecen relativamente
amables. El propio Bostrom señala que, aun en el caso de que el informe Stern
sobre el cambio climático fuese cierto y el
efecto invernadero provocase la reducción del 20%
del producto interior bruto de la economía mundial, ello simplemente nos
devolvería “a la riqueza de hacer 10 o 15 años”, una mera disrupción
transitoria a largo plazo. Por su parte, Taallin convenció de la utilidad de su
empresa a Huw Price, profesor de filosofía de
Cambridge, después de recordarle que las posibilidades de morir por un
desastre relacionado con la inteligencia artificial eran más altas que de morir
de cáncer o de un ataque al corazón.
Pese a que
el apocalipsis es lo que les da de comer, sus palabras no están llenas de
pesimismo. Rees aclara que sus preocupaciones
son el correlato de un futuro que se presenta brillante para el ser humano,
siempre y cuando se controlen los peligros, y Bostrom recuerda que podemos dar
lugar a criaturas con “mentes planetarias que piensen y sientan cosas más allá
de nuestra comprensión que vivan durante miles de millones de años”. Por ahora,
y antes de eso, se conforman con contar con unos 4 millones de dólares anuales
para sus proyectos. Una cantidad simbólica a cambio de salvar al ser humano de
su propia extinción. ¿O no? Price no lo tiene tan claro: “No tengo una gran
confianza en que vayamos a marcar una gran diferencia, pero creo que sí
contribuiremos un poco. Y, dado que estamos tratando con costes potencialmente
gigantescos, creo que merece la pena hacer una pequeña aportación, que es como
ponerse el cinturón de seguridad: merece la pena hacer un pequeño esfuerzo
porque hay mucho en juego”.
No hay comentarios:
Publicar un comentario