Vistas de página en total

miércoles, 5 de octubre de 2016

Las redes neuronales son muy fáciles de engañar y eso podría ser peligroso en el mundo real. aunque los algoritmos de inteligencia artificial ya se emplean en física cuántica en el CERN y en Astrofísica para indicar que señales pueden ser prometedoras y Los detectores de ondas gravitatorias lo usarán para entender y eliminar las fuentes de ruido más pequeños. //Davide Castelvecchi encontrado en Nature.

Las redes neuronales son muy fáciles de engañar y eso podría ser peligroso en el mundo real. aunque los algoritmos de inteligencia artificial ya se emplean en física cuántica en el CERN y en Astrofísica para indicar que señales pueden ser prometedoras y Los detectores de ondas gravitatorias lo usarán para entender y eliminar las fuentes de ruido más pequeños.





Nota del autor del blog: es un artículo científico de la Revista Nature no es un artículo de un diario 

Podemos abrir el cuadro negro de la IA?

http://www.nature.com/news/can-we-open-the-black-box-of-ai-1.20731


La inteligencia artificial está en todas partes. Pero antes de que los científicos confían en que, primero tienen que entender cómo aprenden las máquinas.

Davide Castelvecchi

05 de octubre de el año 2016




Ilustración de Simon Prades

Dean Pomerleau todavía puede recordar su primera pelea con el problema de recuadro negro. Era el año 1991 y que estaba haciendo un intento pionero para hacer algo que ahora se ha convertido en algo común en la investigación-vehículo autónomo: enseñar a un ordenador la forma de conducir.

Esto significaba tomar el volante de un vehículo militar Humvee especialmente equipado y guiándola a través de calles de la ciudad, dice Pomerleau, que era entonces un estudiante graduado de la robótica en la Universidad Carnegie Mellon en Pittsburgh, Pennsylvania. Con él en el Humvee era un equipo que se había programado para mirar a través de una cámara, interpretar lo que estaba ocurriendo en la carretera y memorizar cada movimiento que hizo en respuesta. Con el tiempo, Pomerleau esperaba, la máquina podría producir suficientes asociaciones para dirigir por sí mismo.

ESCUCHA
Shamini Bundell entera de un problema de recuadro negro de AI
The video could not be loaded, either because the server or network failed or because the format is not supported: https://translate.googleusercontent.com/polopoly_fs/7.39671!/audiofile/nature-2016-10-06-AI.mp3
00:0000:00
En cada viaje, Pomerleau sería entrenar al sistema durante unos minutos, y luego convertirlo suelta a conducir en sí. Todo parecía ir bien - hasta que un día el Humvee se acercó a un puente y de repente se desvió hacia un lado. Él evitó un choque solamente por el acaparamiento de la rueda de forma rápida y volver a tomar el control.

De vuelta en el laboratorio, Pomerleau trataba de entender que el equipo había salido mal. "Parte de mi tesis fue abrir el cuadro de negro y averiguar lo que estaba pensando," explica. ¿Pero cómo? Se había programado el ordenador para actuar como una "red neuronal" - un tipo de inteligencia artificial (IA) que se inspira en el cerebro, y que prometía ser mejor que los algoritmos estándar para tratar con situaciones complejas del mundo real.

Desafortunadamente, este tipo de redes son también tan opaco como el cerebro. En lugar de almacenar lo que han aprendido en una casa de vecindad cuidada memoria digital, que difunden la información de una manera que es muy difícil de descifrar. Sólo después de probar exhaustivamente las respuestas de su software a diversos estímulos visuales se Pomerleau descubre el problema: la red había estado utilizando bordes con pastos como una guía para la dirección de la carretera, por lo que el aspecto del puente confundido.


Veinticinco años más tarde, el desciframiento de la caja de negro se ha convertido en exponencialmente más difícil y más urgente. La tecnología en sí misma se ha disparado en la complejidad y la aplicación. Pomerleau, que ahora enseña robótica a tiempo parcial en la Universidad Carnegie Mellon, describe su pequeño sistema van montados como "versión de un hombre pobre" de las enormes redes neuronales están ejecutando en las máquinas de hoy en día. Y la técnica de aprendizaje profundo , en el que las redes son entrenados en vastos archivos de datos grandes, está encontrando aplicaciones comerciales que van desde automóviles auto-conducción a los sitios web que recomiendan los productos sobre la base del historial de navegación de un usuario.



Promete convertido en omnipresente en la ciencia, también. Futuros observatorios de radioastronomía necesitarán un aprendizaje profundo para encontrar señales que valen la pena en sus lo contrario cantidades inmanejables de datos ;

Los detectores de ondas gravitatorias lo usarán para entender y eliminar las fuentes de ruido más pequeños; y
los editores lo utilizarán para rastrear y etiquetar millones de artículos de investigación y libros. Con el tiempo, algunos investigadores creen, ordenadores equipados con el aprendizaje profundo pueden incluso mostrar la imaginación y la creatividad.

"Usted acaba de tirar de datos en esta máquina, y sería volver con las leyes de la naturaleza", dice Jean-Roch Vlimant, un físico del Instituto de Tecnología de California en Pasadena.

Sin embargo, estos avances podrían hacer que el problema de recuadro negro aún más aguda. Exactamente cómo se encontraba la máquina de esas señales que vale la pena, por ejemplo?
¿Y cómo puede alguien estar seguro de que es lo correcto?
Hasta qué punto la gente debería estar dispuesto a confiar en el aprendizaje profundo? "Creo que definitivamente estamos perdiendo terreno frente a estos algoritmos," dice en robótica Hod Lipson en la Universidad de Columbia en la ciudad de Nueva York.

Él compara la situación con el cumplimiento de una especie exótica inteligente cuyos ojos tienen receptores no sólo para los colores primarios rojo, verde y azul, pero también para un cuarto color. Sería muy difícil para los seres humanos para entender cómo el extranjero ve el mundo, y para el extranjero que nos lo explique, dice. Las computadoras tendrán dificultades similares que explican las cosas a nosotros, dice. "En algún momento, es como explicar Shakespeare a un perro."


Frente a estos desafíos, los investigadores de IA están respondiendo como lo hizo Pomerleau - mediante la apertura de la caja de negro y haciendo el equivalente de la neurociencia para entender las redes en el interior.

Las respuestas no son perspicacia, dice Vincenzo Innocente, físico del CERN, el laboratorio europeo de física de partículas cerca de Ginebra, Suiza, que ha sido pionero en la aplicación de la IA en el campo. "Como científico," dice, "no estoy satisfecho con sólo distinguir a los gatos de los perros. Un científico quiere ser capaz de decir: "la diferencia es tal y tal '".


Buen viaje
Las primeras redes neuronales artificiales fueron creados en la década de 1950, casi tan pronto como había computadoras capaces de ejecutar los algoritmos. La idea es simular pequeñas unidades de computación - las 'neuronas' - que están dispuestos en capas conectadas por una multitud de 'sinapsis' digitales (ver "Haz IA sueño con ovejas eléctricas? ' ) Cada unidad de la capa inferior toma de datos externa , como píxeles de una imagen, a continuación distribuye la información hasta algunas o todas las unidades de la capa siguiente. Cada unidad en que segunda capa luego integra sus entradas de la primera capa, utilizando una regla matemática simple, y pasa el resultado más arriba. Con el tiempo, la capa superior se obtiene una respuesta - por, por ejemplo, la clasificación de la imagen original como un "gato" o un "perro".


Diseño: Nik Spencer / Naturaleza; Fotos: Keith McDuffee / Flickr / CC BY; djhumster / Flickr / CC BY-SA; Bernard Dupont; Linda Stanley; Phil Fiddyment / Flickr / CC BY


El poder de este tipo de redes se debe a su capacidad de aprender. Dado un conjunto de datos de entrenamiento acompañado de las respuestas correctas, pueden mejorar progresivamente su rendimiento mediante la deformación de la fuerza de cada conexión hasta que sus salidas de nivel superior también son correctos. Este proceso, que simula la forma en que el cerebro aprende mediante el fortalecimiento o debilitamiento de las sinapsis, con el tiempo produce una red que pueda clasificar con éxito nuevos datos que no eran parte de su conjunto de entrenamiento.


Esa capacidad de aprender era una gran atracción para CERN físicos de vuelta en la década de 1990, cuando fueron de los primeros en utilizar de forma rutinaria las redes neuronales a gran escala para la ciencia: las redes resultaría ser una gran ayuda en la reconstrucción de las trayectorias de metralla subatómica que viene de colisiones de partículas en el CERN LHC .

Pero esta forma de aprendizaje es también por qué la información es tan difusa en la red: al igual que en el cerebro, la memoria está codificada en la fuerza de las conexiones múltiples, en lugar de almacenarse en lugares específicos, como en una base de datos convencional.
"¿Dónde está el primer dígito de su número de teléfono almacenado en su cerebro? Es probable que en un montón de sinapsis, probablemente no demasiado lejos de los otros dígitos ", dice Pierre Baldi, un investigador de aprendizaje de máquinas en la Universidad de California, Irvine. Pero no es una secuencia bien definida de bits que codifica el número. Como resultado, dice el científico del equipo Jeff Clune en la Universidad de Wyoming en Laramie, "a pesar de que hacemos estas redes, estamos más cerca de la comprensión de ellos que somos un cerebro humano".



Google AI maestros algoritmo antiguo juego de Go


Para los científicos que tienen que hacer frente a grandes volúmenes de datos en sus respectivas disciplinas, esto hace que el aprendizaje de una profunda herramienta que debe utilizarse con precaución. Para ver por qué, dice Andrea Vedaldi, un científico de la computación en la Universidad de Oxford, Reino Unido, imaginemos que en un futuro próximo, una red neuronal-aprendizaje profundo es entrenado utilizando las mamografías de edad que han sido etiquetados de acuerdo en que las mujeres iban a desarrollar de mama cáncer. Después de este entrenamiento, dice Vedaldi, el tejido de una mujer aparentemente sana ya podría 'mirar' cancerosa a la máquina. "La red neuronal podría tener implícitamente aprendió a reconocer los marcadores - características que no conocemos, pero que son predictivos del cáncer", dice.

Pero si la máquina no podía explicar cómo lo sabía, dice Vedaldi, presentaría los médicos y sus pacientes con graves dilemas. Es bastante difícil para una mujer de elegir una mastectomía preventiva porque ella tiene una variante genética conocida hasta sustancialmente el riesgo de cáncer . Pero podría ser aún más difícil de tomar esa decisión sin siquiera saber lo que el factor de riesgo es - incluso si la máquina de hacer la recomendación resultó ser muy preciso en sus predicciones.

"El problema es que el conocimiento se cuece en la red, en lugar de en nosotros," dice Michael Tyka, un biofísico y programador de Google en Seattle, Washington. "¿Realmente hemos entendido nada? En realidad, no - la red tiene ".

Varios grupos comenzaron a estudiar este problema de recuadro negro en 2012. Un equipo dirigido por Geoffrey Hinton, un especialista de aprendizaje de máquinas en la Universidad de Toronto en Canadá, participó en un concurso de visión por computadora y demostraron por primera vez que la capacidad de aprendizaje profundo para clasificar las fotografías de una base de datos de 1,2 millones de imágenes superó con creces la de cualquier otro enfoque AI 1 .

Profundizando en la forma en que esto era posible, el grupo de Vedaldi tomó algoritmos que Hinton había desarrollado para mejorar el entrenamiento de la red neuronal, y, esencialmente, las pasó a la inversa. En lugar de enseñar una red para dar la interpretación correcta de una imagen, el equipo comenzó con redes pretrained y trató de reconstruir las imágenes que los produjeron 2 . Esto ayudó a los investigadores a identificar la forma en que la máquina estaba representando diversas características - como si estuvieran pidiendo una red neuronal cáncer manchado hipotética: "¿Qué parte de este mamografía has decidido es un marcador de riesgo de cáncer"

"El problema es que el conocimiento se cuece en la red, en lugar de en nosotros."
El año pasado, Tyka y sus compañeros de investigación de Google siguieron un enfoque similar para su conclusión final. Su algoritmo, que llamaron profundo sueño, comienza a partir de una imagen - por ejemplo una flor, o una playa - y lo modifica para mejorar la respuesta de una neurona a nivel superior en particular. Si la neurona le gusta marcar imágenes como aves, por ejemplo, la imagen modificada comenzará a mostrar pájaros por todas partes. Las imágenes resultantes evocan viajes de LSD, con las aves que salen de caras, edificios y mucho más. "Creo que es mucho más parecido a una alucinación" que un sueño, dice Tyka, que es también un artista. Cuando él y el equipo vio la posibilidad de que otros utilicen el algoritmo con fines creativos, que puso a disposición de cualquier persona para descargar. En cuestión de días, profundo sueño era una sensación viral en línea.

El uso de técnicas que podrían maximizar la respuesta de cualquier neurona, no sólo los de nivel superior, el equipo de Clune descubrió en 2014 que el problema de recuadro negro podría ser peor de lo esperado: las redes neuronales son sorprendentemente fáciles de engañar con imágenes que a la gente se parece ruido aleatorio, o patrones geométricos abstractos. Por ejemplo, una red podría ver líneas onduladas y clasificarlos como una estrella de mar, o confundir las rayas negras y amarillas por un autobús escolar. Por otra parte, los patrones suscitó las mismas respuestas en redes que habían sido entrenados en diferentes conjuntos de datos 3 .

Los investigadores han propuesto una serie de enfoques para resolver este problema 'engañando', pero hasta el momento no ha surgido solución general. Y eso podría ser peligroso en el mundo real. Un escenario especialmente alarmante, Clune dice, es que los hackers con malas intenciones podría aprender a explotar estas debilidades. Entonces podrían enviar un coche de auto-conducción de virar en una valla publicitaria que se piensa que es un camino, o engañar a un escáner de retina para que den un intruso el acceso a la Casa Blanca, pensando que la persona es Barack Obama. "Tenemos que rodar las mangas y hacer ciencia dura, para que la máquina de aprendizaje más sólido y más inteligente", concluye Clune.


Vehículos autónomos: no requiere controladores

Cuestiones como éstas han llevado a algunos científicos de la computación a pensar que el aprendizaje profundo con las redes neuronales no debe ser el único juego en la ciudad.

Zoubin Ghahramani, un investigador de aprendizaje de máquinas en la Universidad de Cambridge, Reino Unido, dice que si la IA es dar respuestas que los seres humanos pueden interpretar fácilmente, "hay un mundo de problemas para los cuales el aprendizaje profundo no es sólo la respuesta". Un enfoque relativamente transparente con una capacidad de hacer ciencia se estrenó en 2009 por Lipson y biólogo computacional Michael Schmidt, entonces en la Universidad de Cornell en Ithaca, Nueva York. Su algoritmo, llamado Eureqa, demostró que podía volver a descubrir las leyes de la física newtoniana con sólo observar un objeto mecánico relativamente simple - un sistema de péndulos - en movimiento 4 .

A partir de una combinación aleatoria de bloques de construcción matemáticos, como +, -, seno y coseno, Eureqa sigue un método de ensayo y error inspirado en la evolución darwiniana para modificar los términos hasta que llega a las fórmulas que describen mejor los datos. Se propone entonces experimentos para probar sus modelos. Una de sus ventajas es la sencillez, dice Lipson. "Un modelo producido por Eureqa por lo general tiene una docena de parámetros. Una red neuronal tiene millones ".

en el piloto automático
El año pasado, Ghahramani publicó un algoritmo que automatiza el trabajo de un científico de datos, al observar los datos en bruto hasta el final a escribir un artículo 5 . Su software, llamado automático estadístico, spots de tendencias y anomalías en los conjuntos de datos y presenta su conclusión, incluyendo una explicación detallada de su razonamiento. Que la transparencia, Ghahramani dice, es "absolutamente fundamental" para aplicaciones en la ciencia, pero también es importante para muchas aplicaciones comerciales . Por ejemplo, dice, en muchos países, los bancos que niegan un préstamo tienen la obligación legal de decir por qué - algo un algoritmo de aprendizaje profundo podría no ser capaz de hacer 5 .

Preocupaciones similares se aplican a una amplia gama de instituciones, señala Ellie Dobson, director de ciencia de datos de la firma de grandes datos Arundo Analytics en Oslo. Si algo llegara a salir mal como consecuencia de la fijación de los tipos de interés del Reino Unido, dice, "el Banco de Inglaterra no puede decir, 'el cuadro de negro hizo que lo hace'".


La suerte está echada para la ley de Moore
A pesar de estos temores, los informáticos sostienen que los esfuerzos a la creación transparente AI deben considerarse complementarias de aprendizaje profundo, no como un reemplazo. Algunas de las técnicas transparente puede funcionar bien en los problemas que ya se han descrito como un conjunto de hechos abstractos, que dicen, pero no son tan buenos en la percepción - el proceso de extracción de datos de los datos en bruto.

En última instancia, estos investigadores sostienen, las complejas respuestas dadas por la máquina de aprendizaje tienen que ser parte de las herramientas de la ciencia debido a que el mundo real es compleja: por fenómenos tales como el clima o el mercado de valores, una descripción sintética reduccionista podría incluso no existir. "Hay cosas que no podemos verbalizar", dice Stéphane Mallat, un matemático aplicado en la Escuela Politécnica de París.

"Cuando se le pregunta a un médico diagnostica por qué esto o esto, él va a darle algunas razones," dice. "Pero ¿cómo es que se tarda 20 años para hacer un buen médico? Debido a que la información no es sólo en los libros ".

Para Baldi, los científicos deben abarcar el aprendizaje profundo sin ser "demasiado anal" sobre el cuadro negro. Después de todo, todos ellos llevan un cuadro negro en la cabeza. "Usted usa su cerebro todo el tiempo; confía en su cerebro todo el tiempo; y no tienes idea de cómo funciona el cerebro ".

Naturaleza 538, 20-23 ( 06 de octubre de el año 2016 ) doi: 10.1038 / 538020a
Tweet Follow @NatureNews Seguir @dcastelvecchi
referencias

Krizhevsky, A., Sutskever, I. y Hinton, clasificación GE Imagenet con redes neuronales convolucionales profundas. En Advances in Neural Information Processing Sistemas 1097 - 1105 (2012).
Show context
Mahendran, A. y Vedaldi, A. impresión final en http://arxiv.org/abs/1412.0035 (2014).
Show context
Nguyen, A., Yosinski, J. & Clune, J. impresión final en http://arxiv.org/abs/1412.1897 (2014).
Show context
Lipson, H. & Schmidt, M. Ciencia 324, 81 - 85 (2009).
Artículo PubMed ChemPort
Show context
Ghahramani, Z. Naturaleza 521, 452 - 459 (2015).
Artículo PubMed ChemPort


No hay comentarios:

Publicar un comentario