Las
redes neuronales son muy fáciles de engañar y eso podría ser peligroso en el
mundo real. aunque los algoritmos de inteligencia artificial ya se
emplean en física cuántica en el CERN y en Astrofísica para indicar que señales
pueden ser prometedoras y Los detectores de ondas gravitatorias lo usarán para
entender y eliminar las fuentes de ruido más pequeños.
Nota del autor del blog: es
un artículo científico de la Revista Nature no es un artículo de un diario
Podemos
abrir el cuadro negro de la IA?
http://www.nature.com/news/can-we-open-the-black-box-of-ai-1.20731
La
inteligencia artificial está en todas partes. Pero antes de que los científicos
confían en que, primero tienen que entender cómo aprenden las máquinas.
Davide
Castelvecchi
05
de octubre de el año 2016
Ilustración
de Simon Prades
Dean
Pomerleau todavía puede recordar su primera pelea con el problema de recuadro
negro. Era el año 1991 y que estaba haciendo un intento pionero para hacer algo
que ahora se ha convertido en algo común en la investigación-vehículo autónomo:
enseñar a un ordenador la forma de conducir.
Esto
significaba tomar el volante de un vehículo militar Humvee especialmente
equipado y guiándola a través de calles de la ciudad, dice Pomerleau, que era
entonces un estudiante graduado de la robótica en la Universidad Carnegie
Mellon en Pittsburgh, Pennsylvania. Con él en el Humvee era un equipo que se
había programado para mirar a través de una cámara, interpretar lo que estaba
ocurriendo en la carretera y memorizar cada movimiento que hizo en respuesta.
Con el tiempo, Pomerleau esperaba, la máquina podría producir suficientes
asociaciones para dirigir por sí mismo.
ESCUCHA
Shamini
Bundell entera de un problema de recuadro negro de AI
The video
could not be loaded, either because the server or network failed or because the
format is not supported:
https://translate.googleusercontent.com/polopoly_fs/7.39671!/audiofile/nature-2016-10-06-AI.mp3
00:0000:00
En cada
viaje, Pomerleau sería entrenar al
sistema durante unos minutos, y luego convertirlo suelta a conducir en sí.
Todo parecía ir bien - hasta que un día el Humvee se acercó a un puente y de
repente se desvió hacia un lado. Él evitó un choque solamente por el
acaparamiento de la rueda de forma rápida y volver a tomar el control.
De vuelta en
el laboratorio, Pomerleau trataba de entender que el equipo había salido mal.
"Parte de mi tesis fue abrir el cuadro de negro y averiguar lo que estaba pensando,"
explica. ¿Pero cómo? Se había programado el ordenador para actuar como una
"red neuronal" - un tipo de inteligencia
artificial (IA) que se inspira en el cerebro, y que prometía ser mejor
que los algoritmos estándar para tratar con situaciones complejas del mundo
real.
Desafortunadamente,
este tipo de redes son también tan opaco como el
cerebro. En lugar de almacenar lo que han aprendido en una casa de
vecindad cuidada memoria digital, que difunden la información de una manera que
es muy difícil de descifrar. Sólo después de probar exhaustivamente las
respuestas de su software a diversos estímulos visuales se Pomerleau descubre
el problema: la red había estado
utilizando bordes con pastos como una guía para la dirección de la carretera,
por lo que el aspecto del puente confundido.
Veinticinco
años más tarde, el desciframiento de la caja de negro se ha convertido en
exponencialmente más difícil y más urgente. La tecnología en sí misma se ha
disparado en la complejidad y la aplicación. Pomerleau,
que ahora enseña robótica a tiempo parcial en la Universidad Carnegie Mellon,
describe su pequeño sistema van montados como "versión de un hombre
pobre" de las enormes redes neuronales están ejecutando en las máquinas de
hoy en día. Y la técnica de aprendizaje profundo , en el que las redes son
entrenados en vastos archivos de datos grandes, está encontrando aplicaciones comerciales que van desde
automóviles auto-conducción a los sitios web que recomiendan los productos
sobre la base del historial de navegación de un usuario.
Promete
convertido en omnipresente en la ciencia, también. Futuros
observatorios de radioastronomía necesitarán un aprendizaje profundo
para encontrar señales que valen la pena en sus
lo contrario cantidades inmanejables de datos ;
Los
detectores de ondas gravitatorias lo usarán para entender y eliminar las
fuentes de ruido más pequeños; y
los editores lo utilizarán para rastrear y etiquetar millones de
artículos de investigación y libros. Con el tiempo, algunos
investigadores creen, ordenadores equipados con el aprendizaje profundo pueden
incluso mostrar la imaginación y la creatividad.
"Usted
acaba de tirar de datos en esta máquina, y sería volver con las leyes de la
naturaleza", dice Jean-Roch Vlimant, un físico del Instituto de Tecnología
de California en Pasadena.
Sin embargo,
estos avances podrían hacer que el problema de recuadro negro aún más aguda.
Exactamente cómo se encontraba la máquina de esas señales que vale la pena, por
ejemplo?
¿Y cómo
puede alguien estar seguro de que es lo correcto?
Hasta qué
punto la gente debería estar dispuesto a confiar en el aprendizaje profundo?
"Creo que definitivamente estamos perdiendo terreno frente a estos
algoritmos," dice en robótica Hod Lipson en la
Universidad de Columbia en la ciudad de Nueva York.
Él compara
la situación con el cumplimiento de una especie exótica inteligente cuyos ojos
tienen receptores no sólo para los colores primarios rojo, verde y azul, pero
también para un cuarto color. Sería muy difícil para los seres humanos para
entender cómo el extranjero ve el mundo, y para el extranjero que nos lo
explique, dice. Las computadoras tendrán dificultades similares que explican
las cosas a nosotros, dice. "En algún momento, es como explicar
Shakespeare a un perro."
Frente a
estos desafíos, los investigadores de IA están respondiendo como lo hizo
Pomerleau - mediante la apertura de la caja de negro y haciendo el equivalente
de la neurociencia para entender las redes en el
interior.
Las
respuestas no son perspicacia, dice Vincenzo Innocente,
físico del CERN, el laboratorio europeo de física de partículas cerca de
Ginebra, Suiza, que ha sido pionero en la aplicación de la IA en el
campo. "Como científico," dice, "no estoy satisfecho con sólo
distinguir a los gatos de los perros. Un científico quiere ser capaz de decir:
"la diferencia es tal y tal '".
Buen viaje
Las primeras
redes neuronales artificiales fueron creados en
la década de 1950, casi tan pronto como había computadoras capaces de ejecutar
los algoritmos. La idea es simular pequeñas unidades de computación - las 'neuronas'
- que están dispuestos en capas conectadas por una multitud de 'sinapsis'
digitales (ver "Haz IA sueño con ovejas eléctricas? ' ) Cada unidad de la
capa inferior toma de datos externa , como píxeles de una imagen, a
continuación distribuye la información hasta algunas o todas las unidades de la
capa siguiente. Cada unidad en que segunda capa luego integra sus entradas de
la primera capa, utilizando una regla matemática simple, y pasa el resultado
más arriba. Con el tiempo, la capa superior se obtiene una respuesta - por, por
ejemplo, la clasificación de la imagen original como un "gato" o un
"perro".
Diseño: Nik
Spencer / Naturaleza; Fotos: Keith McDuffee / Flickr / CC BY; djhumster /
Flickr / CC BY-SA; Bernard Dupont; Linda Stanley; Phil Fiddyment / Flickr / CC
BY
El poder de
este tipo de redes se debe a su capacidad de aprender. Dado un conjunto de
datos de entrenamiento acompañado de las respuestas correctas, pueden mejorar
progresivamente su rendimiento mediante la deformación de la fuerza de cada
conexión hasta que sus salidas de nivel superior también son correctos. Este
proceso, que simula la forma en que el cerebro aprende mediante el
fortalecimiento o debilitamiento de las sinapsis, con el tiempo produce una red
que pueda clasificar con éxito nuevos datos que no eran parte de su conjunto de
entrenamiento.
Esa
capacidad de aprender era una gran atracción para CERN
físicos de vuelta en la década de 1990, cuando fueron de los primeros en
utilizar de forma rutinaria las redes neuronales a gran
escala para la ciencia: las redes resultaría ser una gran ayuda en la
reconstrucción de las trayectorias de metralla
subatómica que viene de colisiones de partículas en el CERN LHC .
Pero esta
forma de aprendizaje es también por qué la información es tan difusa en la red:
al igual que en el cerebro, la memoria está codificada en la fuerza de las
conexiones múltiples, en lugar de almacenarse en lugares específicos, como en
una base de datos convencional.
"¿Dónde
está el primer dígito de su número de teléfono almacenado en su cerebro? Es
probable que en un montón de sinapsis, probablemente no demasiado lejos de los
otros dígitos ", dice Pierre Baldi, un investigador de aprendizaje de
máquinas en la Universidad de California, Irvine. Pero no es una secuencia bien
definida de bits que codifica el número. Como resultado, dice el científico del
equipo Jeff Clune en la Universidad de Wyoming en Laramie, "a pesar de que hacemos
estas redes, estamos más cerca de la comprensión de ellos que somos un cerebro
humano".
Google AI maestros algoritmo antiguo
juego de Go
Para los
científicos que tienen que hacer frente a grandes volúmenes de datos en sus
respectivas disciplinas, esto hace que el aprendizaje de una profunda
herramienta que debe utilizarse con precaución. Para ver por qué, dice Andrea Vedaldi, un científico de la computación en la
Universidad de Oxford, Reino Unido, imaginemos que en un futuro próximo,
una red neuronal-aprendizaje profundo es entrenado utilizando las mamografías
de edad que han sido etiquetados de acuerdo en que las mujeres iban a
desarrollar de mama cáncer. Después de este entrenamiento, dice Vedaldi, el
tejido de una mujer aparentemente sana ya podría 'mirar' cancerosa a la
máquina. "La red neuronal podría tener implícitamente aprendió a reconocer
los marcadores - características que no conocemos, pero que son predictivos del
cáncer", dice.
Pero si la
máquina no podía explicar cómo lo sabía, dice Vedaldi, presentaría los médicos
y sus pacientes con graves dilemas. Es
bastante difícil para una mujer de elegir una mastectomía preventiva porque
ella tiene una variante genética conocida hasta sustancialmente el riesgo de
cáncer . Pero podría ser aún más difícil de tomar esa decisión sin siquiera
saber lo que el factor de riesgo es - incluso si la máquina de hacer la
recomendación resultó ser muy preciso en sus predicciones.
"El
problema es que el conocimiento se cuece en la red, en lugar de en
nosotros," dice Michael Tyka, un biofísico y programador de Google en
Seattle, Washington. "¿Realmente hemos entendido nada? En realidad, no -
la red tiene ".
Varios
grupos comenzaron a estudiar este problema de recuadro negro en 2012. Un equipo
dirigido por Geoffrey Hinton, un especialista de aprendizaje de máquinas en la Universidad de Toronto en Canadá, participó en un
concurso de visión por computadora y demostraron por primera vez que la
capacidad de aprendizaje profundo para clasificar las fotografías de una base
de datos de 1,2 millones de imágenes superó con creces la de cualquier otro
enfoque AI 1 .
Profundizando
en la forma en que esto era posible, el grupo de Vedaldi tomó algoritmos que
Hinton había desarrollado para mejorar el entrenamiento de la red neuronal, y,
esencialmente, las pasó a la inversa. En lugar de enseñar una red para dar la
interpretación correcta de una imagen, el equipo comenzó con redes pretrained y
trató de reconstruir las imágenes que los produjeron 2 . Esto ayudó a los
investigadores a identificar la forma en que la máquina estaba representando
diversas características - como si estuvieran pidiendo una red neuronal cáncer
manchado hipotética: "¿Qué parte de este mamografía has decidido es un
marcador de riesgo de cáncer"
"El
problema es que el conocimiento se cuece en la red, en lugar de en
nosotros."
El año
pasado, Tyka y sus compañeros de investigación de
Google siguieron un enfoque similar para su conclusión final. Su
algoritmo, que llamaron profundo sueño, comienza
a partir de una imagen - por ejemplo una flor, o una playa - y lo modifica para
mejorar la respuesta de una neurona a nivel superior en particular. Si la
neurona le gusta marcar imágenes como aves, por ejemplo, la imagen modificada
comenzará a mostrar pájaros por todas partes. Las imágenes resultantes evocan
viajes de LSD, con las aves que salen de caras, edificios y mucho más. "Creo que es mucho
más parecido a una alucinación" que un sueño, dice Tyka, que es
también un artista. Cuando él y el equipo vio la posibilidad de que otros
utilicen el algoritmo con fines creativos, que puso a disposición de cualquier
persona para descargar. En cuestión de días, profundo sueño era una sensación
viral en línea.
El uso de
técnicas que podrían maximizar la respuesta de cualquier neurona, no sólo los
de nivel superior, el equipo de Clune descubrió en 2014 que el problema de recuadro negro podría ser
peor de lo esperado: las redes neuronales son
sorprendentemente fáciles de engañar con imágenes que a la gente se
parece ruido aleatorio, o patrones geométricos abstractos. Por ejemplo, una red
podría ver líneas onduladas y clasificarlos como una estrella de mar, o
confundir las rayas negras y amarillas por un autobús escolar. Por otra parte,
los patrones suscitó las mismas respuestas en redes que habían sido entrenados
en diferentes conjuntos de datos 3 .
Los
investigadores han propuesto una serie de enfoques para resolver este problema
'engañando', pero hasta el momento no ha surgido solución general. Y eso podría ser peligroso en el mundo real. Un
escenario especialmente alarmante, Clune dice, es que los hackers con malas
intenciones podría aprender a explotar estas debilidades. Entonces podrían
enviar un coche de auto-conducción de virar en una valla publicitaria que se
piensa que es un camino, o engañar a un escáner de retina para que den un
intruso el acceso a la Casa Blanca, pensando que la persona es Barack Obama. "Tenemos
que rodar las mangas y hacer ciencia dura, para que la máquina de aprendizaje
más sólido y más inteligente", concluye Clune.
Vehículos autónomos: no requiere
controladores
Cuestiones
como éstas han llevado a algunos científicos de la computación a pensar que el
aprendizaje profundo con las redes neuronales no debe ser el único juego en la
ciudad.
Zoubin
Ghahramani, un investigador de aprendizaje de
máquinas en la Universidad de Cambridge, Reino Unido, dice que si la IA es dar respuestas
que los seres humanos pueden interpretar fácilmente, "hay un mundo de
problemas para los cuales el aprendizaje profundo no es sólo la
respuesta". Un enfoque relativamente transparente con una capacidad de
hacer ciencia se estrenó en 2009 por Lipson y biólogo
computacional Michael Schmidt, entonces en la Universidad de Cornell en Ithaca,
Nueva York. Su algoritmo, llamado Eureqa,
demostró que podía volver a descubrir las leyes de la física newtoniana con
sólo observar un objeto mecánico relativamente simple - un sistema de péndulos
- en movimiento 4 .
A partir de
una combinación aleatoria de bloques de construcción matemáticos, como +, -,
seno y coseno, Eureqa sigue un método de ensayo y error inspirado en la
evolución darwiniana para modificar los términos hasta que llega a las fórmulas
que describen mejor los datos. Se propone entonces experimentos para probar sus
modelos. Una de sus ventajas es la sencillez, dice Lipson. "Un modelo producido por Eureqa por lo
general tiene una docena de parámetros. Una red neuronal tiene millones ".
en el piloto
automático
El año
pasado, Ghahramani publicó un algoritmo que
automatiza el trabajo de un científico de datos, al observar los datos en bruto
hasta el final a escribir un artículo 5 . Su software, llamado automático estadístico, spots de tendencias y
anomalías en los conjuntos de datos y presenta su conclusión, incluyendo una
explicación detallada de su razonamiento. Que la transparencia, Ghahramani
dice, es "absolutamente fundamental" para aplicaciones en la ciencia,
pero también es importante para muchas aplicaciones comerciales . Por ejemplo,
dice, en muchos países, los bancos que niegan un préstamo tienen la obligación
legal de decir por qué - algo un algoritmo de aprendizaje profundo podría no
ser capaz de hacer 5 .
Preocupaciones
similares se aplican a una amplia gama de instituciones, señala Ellie Dobson, director de ciencia de datos de la firma
de grandes datos Arundo Analytics en Oslo. Si
algo llegara a salir mal como consecuencia de la fijación de los tipos de
interés del Reino Unido, dice, "el Banco de Inglaterra no puede decir,
'el cuadro de negro hizo que lo hace'".
La
suerte está echada para la ley de Moore
A pesar de
estos temores, los informáticos sostienen que los esfuerzos a la creación
transparente AI deben considerarse
complementarias de aprendizaje profundo, no como un reemplazo. Algunas de las
técnicas transparente puede funcionar bien en los problemas que ya se han
descrito como un conjunto de hechos abstractos, que dicen, pero no son tan
buenos en la percepción - el proceso de extracción de datos de los datos en
bruto.
En última
instancia, estos investigadores sostienen, las complejas respuestas dadas por
la máquina de aprendizaje tienen que ser parte de las herramientas de la
ciencia debido a que el mundo real es compleja: por fenómenos tales como el clima o el mercado de valores, una descripción
sintética reduccionista podría incluso no existir. "Hay cosas que no podemos verbalizar", dice Stéphane Mallat, un matemático aplicado en la Escuela
Politécnica de París.
"Cuando
se le pregunta a un médico diagnostica por qué esto o esto, él va a darle
algunas razones," dice. "Pero ¿cómo es que se tarda 20 años para
hacer un buen médico? Debido a que la información no es sólo en los libros
".
Para Baldi,
los científicos deben abarcar el aprendizaje profundo sin ser "demasiado
anal" sobre el cuadro negro. Después de todo, todos ellos llevan un cuadro
negro en la cabeza. "Usted usa su cerebro todo el tiempo; confía en su
cerebro todo el tiempo; y no tienes idea de cómo funciona el cerebro ".
Naturaleza
538, 20-23 ( 06 de octubre de el año 2016 ) doi: 10.1038 / 538020a
Tweet Follow
@NatureNews Seguir @dcastelvecchi
referencias
Krizhevsky,
A., Sutskever, I. y Hinton, clasificación GE Imagenet con redes neuronales
convolucionales profundas. En Advances in Neural Information Processing
Sistemas 1097 - 1105 (2012).
Show context
Mahendran,
A. y Vedaldi, A. impresión final en http://arxiv.org/abs/1412.0035 (2014).
Show context
Nguyen, A.,
Yosinski, J. & Clune, J. impresión final en http://arxiv.org/abs/1412.1897
(2014).
Show context
Lipson, H.
& Schmidt, M. Ciencia 324, 81 - 85 (2009).
Artículo
PubMed ChemPort
Show context
Ghahramani,
Z. Naturaleza 521, 452 - 459 (2015).
Artículo
PubMed ChemPort
No hay comentarios:
Publicar un comentario