En
Davos se da a conocer el uso de las máquinas y de la inteligencia artificial
con fines militares. El Comité
Internacional para el Control de los Robots Armados (ICRAC) se plantea usarlos
dentro de algunos años. BAE Systems, les dará a los robots la decisión de matar
o no matar (imagino algo así como los sensores del depredador )
Los
robots inteligentes generan división en Davos
http://www.swissinfo.ch/spa/inteligencia-artificial_los-robots-inteligentes-generan-divisi%C3%B3n-en-davos/41912304
Por Matthew Allen, Davos
CIENCIA
TEMAS: FORO
DAVOS 2016
...
Idiomas: 4
22
DE ENERO DE 2016 - 18:41
Un robot de
la compañía helvético-sueca de ingeniería ABB capaz de servir té y cafe.
(Thomas Kern/swissinfo.ch)
(Thomas
Kern/swissinfo.ch)
Los robots
inteligentes apenas dan sus primeros pasos, pero ya son fuente de preocupación.
En Davos se los culpa de que destruirán empleos y terminarán con la clase
media, e incluso, con la propia raza humana. Para muchos participantes del Foro
Económico Mundial (WEF) estas críticas son injustificadas.
Imaginar un
mundo lleno de máquinas inteligentes que un día alcanzarán la misma capacidad
cognitiva del ser humano, podrán pensar de forma creativa y estarán en
capacidad de emitir juicios morales en un campo de batalla, es una perspectiva
inquietante para muchos. En contrapartida, concebir un universo en el que los
robots ayudan a cuidar de los enfermos, enseñan a los niños, limpian la casa y
facilitan los ahorros de energía parece un escenario mucho más apetecible.
Los sistemas
inteligentes ya están aquí, forman parte de nuestra vida y se presume que
seguirán perfeccionándose hasta, quizás, superar al hombre, como sucede con los
programas de ajedrez o con los dispositivos GPS que son capaces de encontrar la
ruta menos congestionada en un trayecto específico.
Esta semana,
uno de los paneles de debate en el Foro Económico
Mundial (WEF, en inglés) de Davos se consagró al
Sistema de Inteligencia Artificial que permite, por ejemplo, que una máquina domine numerosos y complejos
juegos de vídeo apenas unas horas después de haberse conectado a ellos por
primera vez.
"Si un bebé recién
nacido esa misma tarde es capaz de utilizar juegos de computadora a un nivel
sobrehumano, posiblemente usted comience a preocuparse”, afirmó Stuart Russell, profesor de
Ciencias Informáticas en la Universidad de California. "Basta tener
sentido común para entender que todo aquello que puede resultar más inteligente
que uno mismo supone un riesgo”.
Un argumento
que rechaza tajantemente Manuela Veloso, profesora de Informática en la
Universidad Carnegie Mellon, en Estados Unidos.
"¿Acaso vamos por
la vida desconfiando de las personas que son más inteligentes que nosotros?”, increpa a swissinfo.ch la experta en
IA. “Me gustaría mucho que hubiera robots más inteligentes que yo para ayudarme
a invertir mejor mi dinero o a cambiar de proveedores de servicios; tener a
disposición autómatas capaces de tomar mejores decisiones que las mías. Existen
tantos beneficios de poder contar con máquinas con una capacidad de razonar
menos limitada que la nuestra”.
Manuela
Veloso, profesora de Informática en la Universidad Carnegie Mellon
(Pittsburgh), con el empleado de ABB, Ivan Lundberg.
(Thomas
Kern/swissinfo.ch)
Veloso
considera poco sensato aceptar todas las historias de miedo que se cuentan en
Davos –y en el resto del mundo–sobre los efectos nefastos del desarrollo de la
IA.
Historias
de miedo
“Si
infundimos a los niños tanto temor a la robótica, no contribuirán a los avances
de la tecnología”, sentencia Veloso.
"Es extraordinario
que seamos conscientes de los peligros porque esto nos permite avanzar en las
investigaciones de la mejor manera posible, pero eso es distinto a dejar de dar
pasos al frente. Aún hay un largo camino por andar en este ámbito”, dice.
La profesora
considera que la clave está en integrar límites de seguridad en la programación
de los robots para que estos solo funcionen para el bien de la humanidad. Una
técnica desarrollada por la Universidad Carnegie Mellon consiste en integrar
lindes claramente definidos en las máquinas, que les dan la orden de detenerse
y pedir ayuda humana cuando han alcanzado estas fronteras.
(Reuters)
ROBOTS
ASESINOS
¿Nos
acercamos a un campo de batalla?
Por
Simon Bradley
Las máquinas
empiezan a sustituir poco a poco a los seres humanos en el campo de batalla. Se
estima que en 20 o 30 años podrán estar ...
El ámbito
laboral y el empleo también son terreno sensible en el caso de las máquinas
inteligentes. En el marco Foro de Davos, la compañía helvético-sueca de
ingeniería ABB presentó a YuMi como el “primer robot verdaderamente colaborativo que hay en el
mundo”. Este autómata está equipado con dos brazos y con sensores
que le permiten interactuar de forma totalmente segura con los humanos, algo
que no había sucedido nunca antes.
Para Ulrich Spesshofer, presidente de ABB, ha
llegado la hora de sacar a los robots de las cajas para incorporarlos a la vida
productiva y compartir tareas con los seres humanos.
La propuesta
de Spesshofer obliga a debatir los riesgos que esto puede suponer para el
empleo de muchas personas. En la víspera de la actual reunión anual en Davos,
el WEF presentó un detallado informe en el que estima que hasta 5 millones de empleos podrían desaparecer en tareas que
pueden ser remplazadas por robots y ‘softwares’ inteligentes de aquí al año
2020. Esencialmente, esto sucedería en los ámbitos administrativo y operativo, pero también en el contable o el
sector de la salud.
Quitar
la llave a la puerta
El panorama
descrito por ABB preocupa a los sindicatos.
“Hay que
plantearse serios cuestionamientos cuando estamos ante la perspectiva de una
civilización con robots que tendrán la misma capacidad
cognitiva y creativa, así como el mismo libre albedrío del hombre.
Estaríamos rebasando el límite de lo que la gente considera tolerable. Es un
nuevo terreno de desarrollo que requiere, por tanto, nuevas regulaciones”,
explica a swissinfo.ch Philip Jennings, secretario general del Sindicato Global
UNI.
Pero también
hay observadores que confían en que las nuevas tecnologías son capaces de
generar un crecimiento neto del empleo en el futuro, tanto en el desarrollo de
los robots como en el proceso de aprender a utilizarlos, asegurar su
mantenimiento o seguirlos perfeccionando.
Manuela
Veloso está convencida de que el ser humano es perfectamente capaz de seguir el
camino correcto cuando se trate de dar respuesta a todas estas preocupaciones.
“Los budistas
afirman que la humanidad posee la llave para abrir el cielo, pero es
exactamente la misma que abre el infierno. Y esta llave no viene con
instrucciones de cómo abrir una u otra puerta”, puntualiza la profesora.
“En este
caso, la tecnología es la llave y podemos darle un buen o un mal uso. La
elección es siempre nuestra. Todo está bajo nuestro control. Ya no podemos dar marcha atrás hacia un mundo
sin computadoras, así que debemos reflexionar sobre cómo aprovechar al máximo
su potencial”, añade.
Guerra de robots
Otra de las
mesas redondas que tuvo lugar en Davos esta semana se centró en el uso de las máquinas y de la inteligencia artificial con fines
militares. Uno de los paneles tenía como título: ¿Qué pasaría sí los robots decidieran ir a la
guerra?
Stuart
Russell, miembro Comité Internacional para el Control de los Robots Armados
(ICRAC en inglés), reconoció que, si esa es la voluntad de los
gobiernos, técnicamente será posible introducir máquinas para matar en los
campos de batalla dentro de pocos años. Y como ejemplo citó los llamados cuadricópteros, que pueden ser equipados con armas y sensores destinados a realizar
ataques selectivos, y podrían tener como objetivo a individuos específicos
o grandes grupos de personas.
Este debate
del WEF alertó también sobre la falta de reglamentos de guerra para esta nueva
realidad, lo que se debe a la rapidez con la que se ha desarrollado la
inteligencia artificial en el ámbito militar.
Este tema se
ha abordado en Suiza, país depositario de los Convenios de Ginebra sobre la
guerra. De hecho, se han sostenido diversas reuniones en la citada ciudad para
hablar sobre los riesgos de las máquinas programadas para matar, una de ellas
cubierta por swissinfo.ch en el verano de 2014.
Durante el
debate del WEF celebrado el jueves, Roger Carr,
presidente del fabricante de equipos militares BAE
Systems, reconoció que crece la preocupación sobre la forma en la que
una máquina evaluaría el momento en el que debe disparar con respecto a la
forma, y criterios subjetivos, que tomaría un ser humano. Por ello, hizo un
llamamiento a los gobiernos para actúen y fijen reglas en un campo donde, en la
actualidad, se corre el riesgo de que nos convirtamos en artífices de la
destrucción o en meros observadores de esta por falta de acciones”.
Traducción
del inglés: Andrea Ornelas, swissinfo.ch
No hay comentarios:
Publicar un comentario