Estamos
en la era de la máquina de aprendizaje profundo; esas maquinas están con nosotros
actualmente y conectados al internet de las cosas, pero son como seres que no
tienen conciencia de su existencia, cuando cobre conciencia, su avance será exponencial.
No será como cuando Cristóbal Colon vino
a América, sino como si Ultron viajara
al periodo de los neardental. Y las tomas de decisiones de las maquinas
inteligentes no tienen porque seguir los patrones de los seres humanos, pues será
otra forma de vida.
La
mejora de la fiabilidad de la inteligencia artificial
http://phys.org/news/2016-10-reliability-artificial-intelligence.html
21
de de octubre de, el año 2016
La mejora de
la fiabilidad de la inteligencia artificial
Crédito: Thierry Ehrmann
Los
equipos que aprender por sí mismos están con nosotros ahora. A medida que se vuelven más comunes
en aplicaciones de 'high-stakes' como la cirugía
robótica, la detección de terrorismo y los coches sin conductor, los
investigadores preguntan qué se puede hacer para asegurarse de que podemos confiar en ellos.
Siempre
habría una primera muerte en un coche sin conductor y sucedió en el de mayo de
2016. Joshua Brown había comprometido el sistema de piloto automático en su
Tesla cuando un tractor-remolque condujo a través de la carretera frente a él.
Parece que ni él ni los sensores en el piloto automático se dio cuenta de que
el camión de costados blancos contra un cielo iluminado, con resultados
trágicos.
Por
supuesto, muchas personas mueren en accidentes de coche todos los días - en los
EE.UU. hay una muerte cada 94 millones de millas,
y de acuerdo con Tesla esta fue la primera víctima
mortal conocida en más de 130 millones de millas de conducción con el
piloto automático activado. De hecho, dado que la mayoría de las muertes en
carretera son el resultado de un error humano, se ha dicho que los coches
autónomos deben hacer su viaje más seguro.
Aun así, la
tragedia planteó una pregunta pertinente: ¿cuánto
es lo que entendemos - y la confianza - los ordenadores en un vehículo
autónomo? O, de hecho, en cualquier máquina que se ha enseñado para llevar
a cabo una actividad que un ser humano haría?
Ahora
estamos en la era de la máquina de aprendizaje .
Las máquinas pueden ser entrenados
para reconocer ciertos patrones en su entorno y responder apropiadamente.
Sucede cada
vez que la cámara digital detecta un rostro y
lanza una caja alrededor de él para concentrarse, o el
asistente personal en el teléfono inteligente responde a una pregunta, o
los anuncios que coincida con sus intereses cuando se
busca en línea.
El
aprendizaje automático es una manera de programar las computadoras para
aprender de la experiencia y mejorar su rendimiento de una forma que se asemeja
a cómo los seres humanos y los animales aprenden tareas.
Como técnicas de aprendizaje automático se
vuelven más comunes en todo, desde las finanzas a la asistencia
sanitaria, la cuestión de la confianza se está convirtiendo cada vez más
importante, dice Zoubin Ghahramani, Profesor de
Ingeniería de la Información en el Departamento de Ingeniería de Cambridge.
Frente a una
decisión de vida o muerte, sería un coche sin conductor decisiones de juego
peatones, o evitarlos y arriesgar la vida de sus ocupantes? Proporcionar un diagnóstico médico, una máquina podría ser muy
impreciso, ya que ha basado su opinión en una muestra demasiado pequeña? Al hacer transacciones financieras, debe
explicar cómo un equipo robusto es su evaluación de la volatilidad de los
mercados de valores?
"Las máquinas
ahora pueden lograr capacidades casi humanos en muchas tareas cognitivas aunque
se enfrenten a una situación que nunca han visto antes, o un conjunto
incompleto de datos", dice Ghahramani.
"Pero lo que está
pasando en el interior del 'cuadro negro'? Si los procesos mediante los cuales
se están realizando las decisiones eran más transparente, entonces la confianza
sería menos de un problema."
Su equipo construye los algoritmos que se encuentran en el corazón de estas tecnologías (el "bit invisible",
como se refiere a él).
La
confianza y la transparencia son asuntos importantes en su trabajo:
"Realmente
entero opinión de las matemáticas de aprendizaje
automático como se sienta dentro de un marco de comprensión de la
incertidumbre Antes de ver los datos - si usted es un
bebé que está aprendiendo un idioma o un científico que analiza algunos
datos - usted. comenzar con una gran cantidad de incertidumbre y luego a medida
que tiene más y más datos que tiene cada vez más certeza.
"Cuando
las máquinas toman decisiones, queremos que sean claros en qué etapa se han
alcanzado en este proceso. Y cuando no están seguros, queremos que nos
dicen."
Un método es
construir en una etapa de auto-evaluación o calibración interna para que la máquina puede probar
su propia certeza, e informar.
Hace dos
años, el grupo de Ghahramani puso en marcha el
Estadístico automática con la financiación de Google. La herramienta ayuda a los científicos a analizar
conjuntos de datos de patrones estadísticamente significativas y, de manera
crucial, sino que también proporciona un informe para explicar cómo asegurarse
de que se trata de sus predicciones.
"La
dificultad con los sistemas de aprendizaje automático es que no se sabe muy
bien lo que está pasando en el interior -. Y las respuestas que proporcionan no
están contextualizados, como un ser humano haría El Estadístico automática
explica lo que está haciendo, en una forma humanamente comprensible."
Donde la transparencia se vuelve especialmente relevante es
en aplicaciones como los diagnósticos médicos,
donde la comprensión de la procedencia de cómo es necesario se toma la decisión
de confiar en él.
Dr.
Adrian Weller, quien trabaja con Ghahramani, pone de relieve la dificultad:
"Un tema en
particular con nueva inteligencia artificial (IA) sistemas que aprenden o
evolucionan es que sus procesos no se asignan claramente a las vías de toma de
decisiones racionales que son fáciles de entender para los humanos ".
Su
investigación tiene como objetivo tanto en la fabricación de estas vías más
transparente, a veces a través de la visualización, y al mirar a lo que sucede
cuando se utilizan sistemas en los escenarios del mundo real que se extienden
más allá de sus entornos de formación - un hecho cada vez más común.
"Nos
gustaría sistemas de inteligencia artificial para
controlar su situación de forma dinámica, detectar si ha habido un cambio en su
entorno y - si es que ya no pueden funcionar de forma fiable - a
continuación, proporcionar una alerta y
tal vez cambiar a un modo de seguridad". Un coche sin conductor , por ejemplo,
podría decidir que una noche de niebla en el tráfico pesado requiere de un
conductor humano para tomar el control.
El tema de Weller formas de confianza y transparencia sólo uno de
los proyectos en el Centro de £ 10 millones Leverhulme
recién lanzado para el futuro de la inteligencia (TPI).
Ghahramani, quien es el Director Adjunto del Centro, explica:
"Es importante entender cómo las tecnologías
en desarrollo pueden ayudar en lugar de reemplazar a los humanos lo largo de
los próximos años, filósofos, científicos sociales, los científicos cognitivos
y científicos informáticos ayudarán a guiar el futuro de la tecnología. y
estudiar sus consecuencias - tanto las preocupaciones y los beneficios para la
sociedad ".
TPI reúne a
cuatro de las universidades más importantes del mundo (Cambridge,
Oxford, Berkeley y el Imperial College, Londres) para explorar las
implicaciones de AI para la civilización humana. En conjunto, una comunidad
interdisciplinaria de investigadores trabajará en estrecha colaboración con los
responsables políticos y la industria de la investigación de temas tales como la regulación de armamento autónoma, y las
implicaciones de AI para la democracia.
Ghahramani
describe la emoción siente en todo el campo de aprendizaje automático: "Es la explosión en la importancia que solía
ser un área de investigación que era muy académico - pero en los últimos cinco
años, las personas han dado cuenta de estos métodos son muy útiles en una
amplia gama de socialmente. áreas importantes.
"Estamos inundados de
datos, hemos aumentando la potencia de cálculo y vamos a ver más y más
aplicaciones que hacen predicciones en tiempo real. Y como vemos una escalada en lo que
las máquinas pueden hacer, van a desafiar las nociones de inteligencia y hacer
que todo la más importante que tenemos los medios para confiar en lo que nos
dicen ".
Explorar más: la Universidad de Cambridge
lanza nuevo centro para estudiar la IA y el futuro de
la inteligencia
Por: Universidad de Cambridge
No hay comentarios:
Publicar un comentario