Vistas de página en total

miércoles, 19 de julio de 2017

¿Cómo se le enseña la moral a un robot?

Un elemento fundamental de la Revolución Tecnológica

¿Cómo se le enseña la moral a un robot?

El mundo está cambiando y cada vez dependemos más de la tecnología, que  avanza a pasos agigantados. La inteligencia artificiales una de las áreas más importantes del desarrollo tecnológico, pero traen amenazas que deben preveerse. Stephen Hawking, Elon Musk y Simon Parkin (autor del artículo que compartimos líneas abajo), plantean importantes cuestionamientos al respecto.
El uso de máquinas que están programadas para pensar y actuar con un cierto nivel de inteligencia “humana” y autonomía se conoce como inteligencia artificial (AI). Nuestras vidas están cambiando radicalmente por esta tecnología, y ya se utiliza en una amplia gama de servicios cotidianos. Muchas aplicaciones en computadoras, celulares y retailers son diseñadas para buscar patrones en el comportamiento del usuario y luego reaccionar a ellos. También están programadas para utilizar la información almacenada en sus bases de datos para mejorar la reacción a los comandos y predecir ciertas conductas.
Fuente: 1843magazine.com
Como dice Parkin, “La mayoría de los avances en los campos de la genética, la nanotecnología y la neurofarmacología, si se consideran aisladamente, parecen no tener una dimensión moral, y mucho menos social. Sin embargo, cuando las tecnologías resultantes se mezclan y son administradas por AIs, el peligro es que descubrimos que nuestro progreso tecnológico ha superado nuestra preparación moral.”
Una manera de controlar la AI fue propuesta por Isaac Asimov (en 1942) en sus Tres Leyes de la Robótica:
1. Un robot no puede hacer daño a un ser humano o, por inacción, permitir que un ser
humano sufra daño.
2. Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas
órdenes entrasen en conflicto con la 1ª Ley.
3. Un robot debe proteger su propia existencia en la medida en que esta protección no
entre en conflicto con la 1ª o la 2ª Ley.
Otro enfoque, actual, es el motivacional: con el diseño de un sistema que aprenda a través del tiempo al igual que los seres humanos y adquieran valores a medida que maduran. El problema es que los científicos no saben realmente cómo funciona esto en los seres humanos.
La humanidad está a punto de dar nuevos saltos en su calidad de vida por los avances tecnológicos que están empezando a masificarse. (Ver en LampadiaRobots ingresan a la fuerza laboral). Esto nos lleva a debatir seriamente los aspectos éticos del uso de las nuevas tecnologías y su posible amenaza. Aunque ya podríamos estar un poco tarde.
Más allá de los miedos tradicionales al cambio, la reacción estratégica debiera ser la de prepararse para adaptar las nuevas tecnologías a procesos que limiten posibles consecuencias indeseadas de su desarrollo. Debemos empezar a prepararnos, y analizar posibles alternativas para el control esta gran tecnología, que promete increíbles oportunidades para el futuro.
La Revolución Tecnológica, con la robótica, la inteligencia artificial, Big Data, algoritmos, realidad virtual y realidad aumentada, tiene la capacidad potencial de producir procesos imposibles de ser controlados por los seres humanos. Por lo tanto, es menester que, sin perder más tiempo, nos aboquemos a establecer paradigmas y mecanismos que den cierta seguridad para evitar desarrollos que más tarde no podamos controlar. Lampadia
Enseñándole a los robots la diferencia entre lo bueno y lo malo
La inteligencia artificial está superando a la clase humana en una gama de campos cada vez mayor; pero, ¿cómo podemos asegurarnos de que se comporte de manera moral? Simon Parkin conversa con las personas que están intentando enseñarle ética a las computadoras.

Fuente: 1843magazine.com
Revista 1843 – The Economist
Simon Parkin
Junio/julio, 2017
Traducido y glosado por 
Lampadia
Hace más de 400 años, de acuerdo a las leyendas, un rabino se arrodilló junto a las orillas del río Vltava en lo que ahora se conoce como la República Checa. Sacó unos puñados de arcilla del agua y cuidadosamente los acomodó en la forma de un hombre. Los judíos de Praga, falsamente acusados ​​de usar la sangre de los cristianos en sus rituales, estaban siendo atacados. El rabino, Judah Loew ben Bezalel, decidió que su comunidad necesitaba un protector más fuerte que cualquier humano. Inscribió la palabra hebrea para "verdad", emet, en la frente de su creación y colocó en su boca una cápsula inscrita con una fórmula cabalística. La criatura saltó a la vida.
El Golem patrulló el ghetto, protegiendo a sus ciudadanos y realizando trabajos útiles: barrer las calles, transportar agua y cortar leña. Todo fue armonioso hasta el día en que el rabino olvidó inhabilitar el Golem para el Sabbath, como era requerido, y la criatura se volvió en un asesino. El rabino se vio obligado a borrar la letra inicial de la palabra en la frente del Golem para volverla ‘met’, la palabra hebrea para "muerte". La vida se deslizó del Golem y se volvió polvo.
Este cuento, que muestra los riesgos de construir un sirviente mecánico a la imagen del hombre, ha ganado popularidad en la edad de la inteligencia artificial. Legiones de robots ahora llevan a cabo nuestras instrucciones irreflexivamente. ¿Cómo nos aseguramos de que estas criaturas, sin importar si están construidas de arcilla o silicio, funcionen siempre en nuestro mejor interés? ¿Debemos enseñarles a pensar por sí mismas? Y, si es así, ¿cómo vamos a enseñarles lo correcto y lo incorrecto?
En 2017, estas son preguntas urgentes. Los automóviles sin conductor han acumulado millones de millas en nuestras carreteras mientras toman decisiones autónomas que podrían afectar la seguridad de otros usuarios humanos. La robótica en Japón, Europa y Estados Unidos está desarrollando robots para proporcionar atención a adultos  mayores y discapacitados. Uno de estos robots de servicio, que fue lanzado en 2015, se llamó Robear (tenía la cara de un cachorro de oso polar), es lo suficientemente fuerte como para levantar a los pacientes frágiles de sus camas; y, si puede hacer eso, también puede, posiblemente, aplastarlos. Desde el año 2000, el ejército estadounidense ha desplegado miles de robots equipados con ametralladoras, cada uno capaz de localizar objetivos y apuntarlos sin la necesidad de implicación humana (sin embargo, no se les permite tirar del gatillo sin supervisión).
Algunas figuras públicas también han alimentado la sensación de temor que rodea la idea de máquinas autónomas. Elon Musk, un empresario de tecnología, afirmó que la inteligencia artificial (IA) es la mayor amenaza existencial para la humanidad. El verano pasado, la Casa Blanca encargó cuatro talleres para que los expertos discutieran esta dimensión moral de la robótica. Como dice Rosalind Picard, directora del Grupo de Computación Afectiva del MIT: "Cuanto mayor sea la libertad de una máquina, más necesitará estándares morales".
En un futurista complejo de oficinas en el serpenteante río Vltava, cerca de donde el rabino esculpió su Golem, se escucha el zumbido de un banco de computadoras. Son unos extraños profesores, pero son tan dedicados como cualquier humano a la noble tarea de la educación. Sus estudiantes no se sientan delante de la pantalla de cada computadora, sino más bien en sus discos duros. Esta escuela virtual, que lleva el nombre de GoodAI [de good (buena) artificial inteligence], se especializa en la educación de inteligencias artificiales (IAs): enseñándoles a pensar, razonar y actuar. La visión global de GoodAI es entrenar inteligencias artificiales en el arte de la ética. "Esto no significa que la pre-programación de AI siga un conjunto de reglas prescritas donde les decimos qué hacer y qué no hacer en cada situación posible", dice Marek Rosa, un exitoso diseñador de videojuegos eslovaco y fundador de GoodAI, quien ha invertido 10 millones de dólares en la compañía. "Más bien, la idea es capacitarlos para aplicar sus conocimientos a situaciones que nunca han vivido".
Los expertos coinciden en que el enfoque de Rosa es razonable. "Intentar preprogramar cada situación que una máquina ética pueda encontrar no es trivial", explica Gary Marcus, un científico cognitivo de NYU y CEO y fundador de Geometric Intelligence. "¿Cómo, por ejemplo, se programa en una noción como ‘equidad’ o ‘daño’? Ni tampoco, señala, este enfoque de codificación explica los cambios en las creencias y actitudes. "Imagínese si los fundadores estadounidenses hubieran congelado sus valores, permitiendo la esclavitud, menos derechos para las mujeres y así sucesivamente. En última instancia, queremos una máquina capaz de aprender por sí misma."
Rosa ve a la IA como un niño, una pizarra en blanco sobre la cual se pueden inscribir los valores básicos y que, con el tiempo, podrá aplicar esos principios en escenarios imprevistos. La lógica es buena. Los seres humanos adquieren una sensación intuitiva de lo que es éticamente aceptable observando cómo se comportan los demás (aunque con el peligro de que podamos aprender un mal comportamiento cuando se nos presenta con modelos erróneos).
GoodAI monitorea la adquisición de valores proporcionando un mentor digital, y luego lentamente aumenta la complejidad de las situaciones en las que la IA debe tomar decisiones. Los padres no dejan que sus hijos crucen una autopista, sostiene Rosa. En su lugar, les enseñan primero a cruzar una calle. "De la misma manera, exponemos a la IA a entornos cada vez más complejos donde puede basarse en conocimientos previamente aprendidos y recibir retroalimentación de nuestro equipo".
GoodAI es sólo una de varias instituciones dedicadas a comprender la dimensión ética de la robótica que ha surgido en todo el mundo en los últimos años. Muchas de estas instituciones gozan de títulos grandiosos y premonitorios: El Instituto del Futuro de la Vida, el Grupo de Robótica Responsable y la Iniciativa Global sobre Sistemas Éticos Autónomos. Hay una serie de ideas en circulación sobre la mejor manera de enseñar moralidad a las máquinas. Rosa tiene una, Ron Arkin otra.
Arkin es un robo-eticista calvo de aproximadamente 60 años, con grandes ojos detrás de enormes lentes. Él enseña Ética de la Computadora en Georgia Tech en Atlanta, pero su trabajo no se limita al aula. La investigación de Arkin ha sido financiada por una variedad de fuentes, incluyendo el Ejército de los Estados Unidos y la Oficina de Investigación Naval. En 2006 recibió fondos para desarrollar hardware y software que harán que las máquinas de combate robóticas sean capaces de seguir los estándares éticos de la guerra. Ha argumentado que los soldados robots pueden ser éticamente superiores a los humanos. Después de todo, no pueden violar, saquear o quemar un pueblo por motivos de cólera o ira.
Enseñar a los robots cómo comportarse en el campo de batalla puede parecer sencillo, ya que las naciones crean reglas de compromiso siguiendo las leyes acordadas internacionalmente. Pero no todos los escenarios posibles en el campo de batalla pueden ser previstos por un ingeniero, al igual que no todas las situaciones éticamente ambiguas están cubiertas por, digamos, los Diez Mandamientos. ¿Debe un robot, por ejemplo, disparar contra una casa en la que un objetivo de alto valor está compartiendo una comida con civiles? ¿Debería prestar apoyo a un grupo de cinco reclutas de bajo rango en un lado de una ciudad asediada, o un oficial de alto rango en el otro? ¿Debería tomarse la decisión sobre una base táctica o moral?
Para ayudar a los robots y sus creadores a navegar por estas cuestiones en el campo de batalla, Arkin ha estado trabajando en un modelo que difiere del de GoodAI. El "adaptador ético", como se le conoce, busca simular las emociones humanas, en lugar de emular el comportamiento humano, para ayudar a los robots a aprender de sus errores. Su sistema permite que un robot experimente algo similar a la culpa humana. "La culpa es un mecanismo que nos desalienta de repetir un comportamiento particular", explica. Es, por lo tanto, una herramienta de aprendizaje útil, no sólo en humanos, sino también en robots.
"Imagina que un agente está en el campo y realiza una evaluación de daños de combate antes y después de disparar un arma", explica Arkin. "Si el daño de la batalla ha sido excedido por una proporción significativa, el agente experimenta algo análogo a la culpabilidad." Por ejemplo, el sentimiento de culpa aumenta cada vez, si hay más daño colateral de lo que se esperaba. "En cierto umbral el agente dejará de usar un sistema de armas particular. Pero, más allá de eso, dejará de usar las armas por completo. "Mientras que la culpa que un robot podría sentir se simula, los modelos son, sin embargo, tomados de la naturaleza y, al igual que en los seres humanos, tienen una estructura tripartita: La creencia de que una norma ha sido violada, preocupación por las acciones de uno mismo, y un deseo de volver al estado anterior.
Es una solución ingeniosa, pero no una sin problemas. Por un lado, el modelo de culpabilidad requiere que las cosas salgan mal antes de que el robot pueda modificar su comportamiento. Eso podría ser aceptable en el caos de la batalla, donde el daño colateral no es totalmente inesperado. Pero en los hogares y hospitales civiles, o en las carreteras, la tolerancia del público por errores mortales robóticos es mucho menor. Es más probable que un robot asesino sea desensamblado a que se le ofrezca la oportunidad de aprender de sus errores.
Desde las aulas virtuales hasta la culpa simulada, los enfoques para enseñar la moral del robot son variados, embrionarios y, en cada caso, vienen acompañados de distintos problemas. En Georgia Tech, Mark Riedl, director del EntertainmentIntelligenceLab, está probando un método que encuentra su inspiración no en el aula sino en la biblioteca.
Al leer miles de historias de IAs, y permitirles elaborar un conjunto de reglas para el comportamiento basado en lo que encuentran, Riedl cree que podemos comenzar a enseñar a los robots cómo comportarse en una gama de escenarios, desde una cena hasta durante el robo de un banco. Una gama de organizaciones y compañías como DARPA, la agencia de I + D del Departamento de Defensa de EE.UU., el Ejército de Estados Unidos, Google y Disney financian el trabajo del equipo.
Cuando nos reunimos en un restaurante cerca de su laboratorio, Riedl comentó que está de acuerdo con la filosofía básica de GoodAI. "Es cierto: la respuesta a todo esto es criar a los robots como niños", dice. "Pero no tengo 20 años para criar un robot. Es un proceso que consume mucho tiempo y es costoso. Criar a un úniconiño es todo lo que puedo manejar. Mi idea era usar las historias como una forma de acortar este proceso de aprendizaje".
Riedl llegó a esta idea mientras investigaba cómo se podrían utilizar las historias para enseñarle a las IA las reglas de las situaciones sociales humanas. "Si Superman se viste como Clark Kent y se reúne con alguien para cenar, tienes esta pequeña demostración de lo que la gente hace cuando entra en un restaurante", dice Riedl. Toman un asiento. Pedimos sus bebidas antes de la comida. Estos son los valores sociales, en términos del orden en que nos gusta hacer las cosas. Ahora, por lo general no hay dilema ético en términos de restaurantes. Pero hay señales, tales como: "¿Por qué no fueron a la cocina y buscaron la comida?" No podría decirle a una IA por qué no, pero puedo demostrar que eso no es lo que se supone que debes hacer".
Riedl consigue una multitud de fuentes de historias en Amazon's Mechanical Turk. "Instruimos a los trabajadores de Amazon a describir una historia típica sobre un tema dado, como ir a un restaurante", explica Riedl. Los participantes a veces reciben un personaje y, usando un formato, deben llenar campos en blanco con fragmentos de la historia (por ejemplo, "Mary entró en el restaurante." "Mary esperó para sentarse." "Mary se quitó el abrigo y ordenó una bebida”. Los algoritmos de procesamiento del lenguaje natural buscan frases de diferentes historias que son similares entre sí y, a partir de esa información, empiezan a sacar conclusiones sobre reglas y normas sociales.
Una IA que lee cien historias sobre robar versus no robar puede examinar las consecuencias de estas historias, entender las reglas y resultados, y comenzar a formular un marco moral basado en la sabiduría de las multitudes. "Tenemos estas reglas implícitas que son difíciles de anotar, pero los protagonistas de los libros, la televisión y las películas ejemplifican los valores de la realidad. Comienzas con historias sencillas y luego progresas a historias de jóvenes adultos. En cada una de estas situaciones se observan situaciones morales cada vez más complejas”.
Aunque difiere conceptualmente de los GoodAI's, el enfoque de Riedl cae en la disciplina del aprendizaje automático. "Piense en esto como la identificación de patrones, que es lo que se trata gran parte del aprendizaje de las máquinas", dice. "La idea es que le pidamos a la IA que mire a mil diferentes protagonistas que están experimentando maso menos el mismo dilema. Entonces, la máquina puede calcular la media de las respuestas y formular valores que coincidan con lo que la mayoría de la gente diría que es la manera "correcta" de actuar.
Hay una cierta simetría poética para la solución: del Golem al monstruo de Frankenstein y más allá, los seres humanos siempre han recurrido a historias al imaginar el impacto monstruoso de sus creaciones. Al igual que hay conclusiones sombrías en estas historias, también hay una preocupación de que, si se alimenta a la IA sólo con enseñanzas oscuras, podría terminar entrenándolo para ser malo. "La única manera de corromper la IA sería limitar las historias en las que el típico comportamiento sucede de alguna manera", dice Riedl. "Podría recoger las historias de antihéroes o aquellas en las que los malos ganan todo el tiempo. Pero si el agente se ve forzado a leer todas las historias, se vuelve muy, muy difícil para cualquier individuo corromper la IA”.
El enfoque parece estar resultando notablemente eficaz. "Sabemos que el sistema está aprendiendo de las historias de dos maneras", dice Riedl. "En primer lugar, realizamos una evaluación y pedimos a la gente que juzgue las reglas que aprendió el sistema. Las reglas son cosas como 'cuando vas a un restaurante, pedir bebidas viene antes de pedir comida. Segundo, el sistema puede generar historias, y estas historias pueden ser juzgadas por los humanos”.
En su mayor parte, el equipo ha encontrado que el conocimiento aprendido por el sistema es típicamente de sentido común. Pero ha habido algunas sorpresas. "Cuando entrenamos nuestro sistema sobre ir en una cita al cine, el sistema aprendió que besar era una parte importante del esquema. No esperábamos eso, pero en retrospectiva no es sorprendente”.
Para los ingenieros de Audi, que construyen automóviles sin conductor, o los técnicos de BAE Systems que construyen armas autónomas, enseñarle a las IAs cuando es socialmente apropiado besar o hacer cola puede no parecer directamente relevante para su trabajo. La mayoría de los avances en los campos de la genética, la nanotecnología y la neurofarmacología, si se consideran aisladamente, parecen no tener una dimensión moral, y mucho menos social. Sin embargo, cuando las tecnologías resultantes se mezclan y son administradas por AIs, el peligro es que descubrimos que nuestro progreso tecnológico ha superado nuestra preparación moral.
Riedl afirma que estamos en un momento crucial de la historia y, como sociedad, nos enfrentamos a una simple elección. "Podemos decir que nunca podremos tener un robot perfecto, y porque hay algún tipo de peligro nunca debemos hacer nada", dice. "O podemos decir: 'Hagamos nuestro mejor esfuerzo y tratemos de mitigar el resultado.' Nunca vamos a tener un auto perfecto. Van a haber accidentes. Pero se tendrán menos accidentes que los humanos. Así que... nuestro objetivo debe ser no ser peor que los humanos. Sólo tal vez, podría ser posible ser mejor que los humanos. "
Fuente: 1843magazine.com
En la ciencia ficción, el momento en que un robot gana la sentiencia (capacidad de adquirir sentimientos) suele ser el momento en que creemos que tenemos obligaciones éticas hacia nuestras creaciones. Un iPhone o un portátil puede ser muy complejo en comparación con un martillo o una pala, pero cada objeto pertenece a la misma categoría: herramientas. Y sin embargo, a medida que los robots empiezan a adquirir la apariencia de emociones, a medida que comienzan a comportarse como seres humanos, y aprenden y adoptan nuestros valores culturales y sociales, tal vez necesitan revisarse las viejas historiasPor lo menos, tenemos la obligación moral de averiguar qué enseñar a nuestras máquinas sobre la mejor manera de vivir en el mundo. Una vez que lo hayamos hecho, podremos sentirnos obligados a reconsiderar cómo los tratamos. Lampadia
Nota: Simon Parkinis es escritor y periodista británico, y autor de "Deathby Video Game" Ilustraciones de Brett Ryder

No hay comentarios:

Publicar un comentario