viernes, 21 de octubre de 2016

Estamos en la era de la máquina de aprendizaje profundo; esas maquinas están con nosotros actualmente y conectados al internet de las cosas, pero son como seres que no tienen conciencia de su existencia, cuando cobre conciencia, su avance será exponencial. No será como cuando Cristóbal Colon vino a América, sino como si Ultron viajara al periodo de los neardental. Y las tomas de decisiones de las maquinas inteligentes no tienen porque seguir los patrones de los seres humanos, pues será otra forma de vida. // encontrado en phys.org/news

Estamos en la era de la máquina de aprendizaje profundo; esas maquinas están con nosotros actualmente y conectados al internet de las cosas, pero son como seres que no tienen conciencia de su existencia,   cuando cobre conciencia, su avance será exponencial. No será como cuando  Cristóbal Colon vino a América, sino como si  Ultron viajara al periodo de los neardental. Y las tomas de decisiones de las maquinas inteligentes no tienen porque seguir los patrones de los seres humanos, pues será otra forma de vida.

La mejora de la fiabilidad de la inteligencia artificial


http://phys.org/news/2016-10-reliability-artificial-intelligence.html


21 de de octubre de, el año 2016


La mejora de la fiabilidad de la inteligencia artificial






Crédito: Thierry Ehrmann

Los equipos que aprender por sí mismos están con nosotros ahora. A medida que se vuelven más comunes en aplicaciones de 'high-stakes' como la cirugía robótica, la detección de terrorismo y los coches sin conductor, los investigadores preguntan qué se puede hacer para asegurarse de que podemos confiar en ellos.


Siempre habría una primera muerte en un coche sin conductor y sucedió en el de mayo de 2016. Joshua Brown había comprometido el sistema de piloto automático en su Tesla cuando un tractor-remolque condujo a través de la carretera frente a él. Parece que ni él ni los sensores en el piloto automático se dio cuenta de que el camión de costados blancos contra un cielo iluminado, con resultados trágicos.


Por supuesto, muchas personas mueren en accidentes de coche todos los días - en los EE.UU. hay una muerte cada 94 millones de millas, y de acuerdo con Tesla esta fue la primera víctima mortal conocida en más de 130 millones de millas de conducción con el piloto automático activado. De hecho, dado que la mayoría de las muertes en carretera son el resultado de un error humano, se ha dicho que los coches autónomos deben hacer su viaje más seguro.


Aun así, la tragedia planteó una pregunta pertinente: ¿cuánto es lo que entendemos - y la confianza - los ordenadores en un vehículo autónomo? O, de hecho, en cualquier máquina que se ha enseñado para llevar a cabo una actividad que un ser humano haría?



Ahora estamos en la era de la máquina de aprendizaje .


Las máquinas pueden ser entrenados para reconocer ciertos patrones en su entorno y responder apropiadamente.
Sucede cada vez que la cámara digital detecta un rostro y lanza una caja alrededor de él para concentrarse, o el asistente personal en el teléfono inteligente responde a una pregunta, o los anuncios que coincida con sus intereses cuando se busca en línea.


El aprendizaje automático es una manera de programar las computadoras para aprender de la experiencia y mejorar su rendimiento de una forma que se asemeja a cómo los seres humanos y los animales aprenden tareas.

 Como técnicas de aprendizaje automático se vuelven más comunes en todo, desde las finanzas a la asistencia sanitaria, la cuestión de la confianza se está convirtiendo cada vez más importante, dice Zoubin Ghahramani, Profesor de Ingeniería de la Información en el Departamento de Ingeniería de Cambridge.


Frente a una decisión de vida o muerte, sería un coche sin conductor decisiones de juego peatones, o evitarlos y arriesgar la vida de sus ocupantes? Proporcionar un diagnóstico médico, una máquina podría ser muy impreciso, ya que ha basado su opinión en una muestra demasiado pequeña? Al hacer transacciones financieras, debe explicar cómo un equipo robusto es su evaluación de la volatilidad de los mercados de valores?


"Las máquinas ahora pueden lograr capacidades casi humanos en muchas tareas cognitivas aunque se enfrenten a una situación que nunca han visto antes, o un conjunto incompleto de datos", dice Ghahramani.

"Pero lo que está pasando en el interior del 'cuadro negro'? Si los procesos mediante los cuales se están realizando las decisiones eran más transparente, entonces la confianza sería menos de un problema."


Su equipo construye los algoritmos que se encuentran en el corazón de estas tecnologías (el "bit invisible", como se refiere a él).

La confianza y la transparencia son asuntos importantes en su trabajo:

"Realmente entero opinión de las matemáticas de aprendizaje automático como se sienta dentro de un marco de comprensión de la incertidumbre Antes de ver los datos - si usted es un bebé que está aprendiendo un idioma o un científico que analiza algunos datos - usted. comenzar con una gran cantidad de incertidumbre y luego a medida que tiene más y más datos que tiene cada vez más certeza.


"Cuando las máquinas toman decisiones, queremos que sean claros en qué etapa se han alcanzado en este proceso. Y cuando no están seguros, queremos que nos dicen."


Un método es construir en una etapa de auto-evaluación o calibración interna para que la máquina puede probar su propia certeza, e informar.


Hace dos años, el grupo de Ghahramani puso en marcha el Estadístico automática con la financiación de Google. La herramienta ayuda a los científicos a analizar conjuntos de datos de patrones estadísticamente significativas y, de manera crucial, sino que también proporciona un informe para explicar cómo asegurarse de que se trata de sus predicciones.



"La dificultad con los sistemas de aprendizaje automático es que no se sabe muy bien lo que está pasando en el interior -. Y las respuestas que proporcionan no están contextualizados, como un ser humano haría El Estadístico automática explica lo que está haciendo, en una forma humanamente comprensible."



Donde la transparencia se vuelve especialmente relevante es en aplicaciones como los diagnósticos médicos, donde la comprensión de la procedencia de cómo es necesario se toma la decisión de confiar en él.


Dr. Adrian Weller, quien trabaja con Ghahramani, pone de relieve la dificultad:

 "Un tema en particular con nueva inteligencia artificial (IA) sistemas que aprenden o evolucionan es que sus procesos no se asignan claramente a las vías de toma de decisiones racionales que son fáciles de entender para los humanos ".

Su investigación tiene como objetivo tanto en la fabricación de estas vías más transparente, a veces a través de la visualización, y al mirar a lo que sucede cuando se utilizan sistemas en los escenarios del mundo real que se extienden más allá de sus entornos de formación - un hecho cada vez más común.


"Nos gustaría sistemas de inteligencia artificial para controlar su situación de forma dinámica, detectar si ha habido un cambio en su entorno y - si es que ya no pueden funcionar de forma fiable - a continuación, proporcionar una alerta y tal vez cambiar a un modo de seguridad". Un coche sin conductor , por ejemplo, podría decidir que una noche de niebla en el tráfico pesado requiere de un conductor humano para tomar el control.


El tema de Weller formas de confianza y transparencia sólo uno de los proyectos en el Centro de £ 10 millones Leverhulme recién lanzado para el futuro de la inteligencia (TPI). Ghahramani, quien es el Director Adjunto del Centro, explica:

 "Es importante entender cómo las tecnologías en desarrollo pueden ayudar en lugar de reemplazar a los humanos lo largo de los próximos años, filósofos, científicos sociales, los científicos cognitivos y científicos informáticos ayudarán a guiar el futuro de la tecnología. y estudiar sus consecuencias - tanto las preocupaciones y los beneficios para la sociedad ".


TPI reúne a cuatro de las universidades más importantes del mundo (Cambridge, Oxford, Berkeley y el Imperial College, Londres) para explorar las implicaciones de AI para la civilización humana. En conjunto, una comunidad interdisciplinaria de investigadores trabajará en estrecha colaboración con los responsables políticos y la industria de la investigación de temas tales como la regulación de armamento autónoma, y ​​las implicaciones de AI para la democracia.


Ghahramani describe la emoción siente en todo el campo de aprendizaje automático: "Es la explosión en la importancia que solía ser un área de investigación que era muy académico - pero en los últimos cinco años, las personas han dado cuenta de estos métodos son muy útiles en una amplia gama de socialmente. áreas importantes.


"Estamos inundados de datos, hemos aumentando la potencia de cálculo y vamos a ver más y más aplicaciones que hacen predicciones en tiempo real. Y como vemos una escalada en lo que las máquinas pueden hacer, van a desafiar las nociones de inteligencia y hacer que todo la más importante que tenemos los medios para confiar en lo que nos dicen ".
 Explorar más: la Universidad de Cambridge lanza nuevo centro para estudiar la IA y el futuro de la inteligencia


Por: Universidad de Cambridge  




No hay comentarios:

Publicar un comentario