La
inteligencia artificial no es una amenaza para los humanos, por ahora
http://lat.wsj.com/articles/SB10519272371067384842904580367304046421456?tesla=y
Nota del autor del blog: imagino que
los humanos podemos dañar a otros pues tenemos medios de locomoción propios es
decir podemos manipular una pistola o caminar y golpear a alguien, pero si fuéramos cuadripléjicos
por mas inteligentes que seamos no dañaríamos a nadie salvo haya una interface
con un robot tipo terminator .
Imagino el verdadero peligro en que una
inteligencia artificial sea usada en simbiosis no con el pentágono, que es más
o menos democrático, sino con el presidente ruso Putin por ejemplo y esta haga lo que le
dice la inteligencia artificial o al revés que el presidente Putin o el comité central del Buro político chino (unos
5 personas) ordene hacer tal o cual cosa
a la inteligencia artificial
Por Gary Marcus
martes,
6 de enero de 2015 16:03
EDT
Joaquin
Phoenix en la película ‘Her’. Warner Bros. Pictures/Everett Collection
“El desarrollo de la
inteligencia artificial plena podría suponer el fin de la raza humana”.
—
Stephen Hawking, 2 de diciembre
¿La inteligencia artificial amenaza
nuestra especie, como sugirió hace poco el cosmólogo Stephen Hawking?
¿Es el desarrollo de la inteligencia
artificial el equivalente a “llamar al demonio”, como dijo el pionero de tecnología
Elon Musk ante una audiencia en el Instituto Tecnológico de Massachusetts en
octubre? ¿Las máquinas inteligentes sustituirán o incluso aniquilarán a la raza
humana?
Como
científico cognitivo y fundador de una startup que se enfoca en el “aprendizaje
de máquinas”, pienso en estas preguntas casi todos los días.
Pero no
entremos en pánico. Las máquinas “superinteligentes” no llegarán pronto. Las
computadoras de hoy son buenas para tareas limitadas diseñadas cuidadosamente
por los programadores, como calcular el saldo de una cuenta o aterrizar aviones
pero, después de cinco décadas de investigaciones, siguen siendo débiles en
cualquier cosa que se parezca remotamente a inteligencia humana genuina.
Incluso los
mejores programas informáticos disponibles no tienen la flexibilidad del
pensamiento humano. Un adolescente puede aprender un videojuego en una hora; su
programa de computación promedio aún puede realizar solamente la tarea para la
cual fue diseñada. (Algunas nuevas tecnologías son ligeramente mejores, pero
siguen teniendo dificultades para llevar a cabo una tarea que requiera
planificación de largo plazo.)
Una preocupación más inmediata es que
una máquina no tiene que ser superinteligente para hacer mucho daño, si tiene
el poder suficiente.
Los colapsos
bursátiles conocidos como “flash crash” son un ejemplo: se han perdido cientos
de millones de dólares en cuestión de minutos como resultado de fallas menores
y difíciles de eliminar por completo.
El peligro
inminente, si no el mayor peligro a largo plazo, es que programas informáticos
mediocres puedan causar considerables daños si no son controlados. ¿Qué pasará,
por ejemplo, cuando un software casi perfecto —pero todavía imperfecto—
controle no sólo transacciones bursátiles sino también autos sin conductores?
Una cosa es que una falla de software borre su lista de compras; otra cosa es
que choque su auto.
Nada de esto
significa que deberíamos abandonar las investigaciones de inteligencia
artificial.
Los autos
sin conductor probablemente cobrarán algunas vidas, pero también evitarán
decenas de miles de muertes.
Los doctores
robóticos (tal vez un par de décadas en el futuro) podrían en ocasiones tomar
malas decisiones, pero también proveerán servicios médicos de alta calidad en
lugares que de otra manera no contarían con doctores capacitados.
Prohibir la
inteligencia artificial podría desperdiciar una oportunidad de salvar o mejorar
radicalmente millones de vidas.
Aun así, la
escalabilidad de la inteligente artificial —un solo programa puede ser copiado
millones de veces— significa que cada nuevo programa
acarrea riesgos si tiene acceso al mundo exterior.
Mientras más
autonomía les demos a las máquinas, mayor la necesidad de tener dispositivos de
seguridad. Un programa “aislado” en su iPhone, con ningún acceso real al mundo
exterior, no es de gran preocupación. Un programa que realiza operaciones
bursátiles necesita más protecciones.
Un
robot de uso general que vive en su hogar, con acceso completo a Internet,
necesitaría muchas más.
El problema
es que nadie sabe aún en lo que debería consistir esa supervisión.
Aunque la
inteligencia artificial no plantea una amenaza existencial inmediata, nadie en
el sector privado o el gobierno tiene una solución a largo plazo para sus
potenciales peligros.
Hasta que veamos
algún mecanismo que garantice que las máquinas nunca intentarán reemplazarnos,
o relegarnos a zoológicos, deberíamos tratar el problema de la inteligencia
artificial seriamente.
Las
computadores se han vuelto mucho mejores para muchas cosas en las últimas
décadas, desde el ajedrez y la aritmética al tráfico de redes, pero hasta ahora
no han mostrado el menor interés en nosotros o nuestras posesiones.
Si esto se mantiene así, todo indica que
continuarán siendo nuestros socios en lugar de nuestros conquistadores.
Podríamos
estar preocupados por nada.
No obstante,
los alarmistas también tienen su razón.
El problema
real no es que el dominio mundial venga automáticamente de una mayor
inteligencia de las máquinas; es que no tenemos absolutamente ninguna manera,
por ahora, de predecir o regular lo que vendrá.
¿Deberíamos
exigir transparencia en programas que controlan recursos importantes?
¿Financiar
avances en técnicas de “verificación de programa”, que trata de hacer que los
programas hagan lo que están diseñados para hacer?
¿Prohibir
ciertas aplicaciones específicas y riesgosas?
Por ahora,
cualquiera puede escribir prácticamente cualquier programa en cualquier
momento, y no contamos con casi ninguna infraestructura para predecir o
controlar los resultados. Y ese es un motivo de preocupación real.
Marcus es
profesor de psicología y neurociencia de la Universidad
de Nueva York y presidente ejecutivo de Geometric Intelligence. Su más
reciente libro es “The Future of the Brain” (algo así como El futuro del cerebro).
No hay comentarios:
Publicar un comentario