Vistas de página en total

sábado, 11 de mayo de 2019

La inteligencia artificial y la evolución de la historia.

La inteligencia artificial y la evolución de la historia.

¿La inteligencia artificial mejorará la sociedad o causará fallas catastróficas?

Hasta ahora, hemos aplicado tecnologías para automatizar procesos dentro de sistemas y objetivos prescritos por el hombre. La inteligencia artificial, en contraste, es capaz de prescribir sus propios objetivos. Si bien mencionamos los beneficios potenciales de AI para las empresas y la sociedad, vale la pena observar lo poco que sabemos realmente sobre lo que vendrá a continuación.
Recordé esto en febrero cuando asistí a una celebración del nuevo Schwarzman College of Computing del Massachusetts Institute of Technology. En el escenario, el columnista del New York Times, Thomas Friedman, entrevistó al ex Secretario de Estado de los Estados Unidos, Henry Kissinger.
El Sr. Friedman preguntó si la revolución de la IA presagia una Nueva Iluminación o una Nueva Era Oscura. "No lo sabemos", respondió el Sr. Kissinger. "No entendemos cómo relacionar las muchas opciones que nos ofrece AI con criterios humanos como la ética, o incluso para definir cuáles son esos criterios".
El año pasado, el Atlántico publicó "Cómo termina la ilustración", los pensamientos del Sr. Kissinger sobre cómo nuestra comprensión del conocimiento técnico de AI estaba muy por delante de nuestra comprensión de sus implicaciones políticas, sociales y humanas, así como su impacto a largo plazo en el evolución de la historia.   
Aquí hay un resumen de sus tres principales áreas de preocupación.
Las aplicaciones de IA pueden lograr resultados no deseados. ¿Cómo podemos asegurarnos de que nuestros sistemas de IA cada vez más complejos hagan lo que queremos que hagan? La ciencia ficción está llena de escenarios de IA que encienden a sus creadores. Pero más allá de la ciencia ficción, hay formas principales en que las cosas podrían no funcionar como se espera.
Todos estamos familiarizados con los errores de software, especialmente los de software altamente complejo, como es el caso de los sistemas de inteligencia artificial. La creciente complejidad de los sistemas de inteligencia artificial y su alistamiento en roles de alto nivel, como el control de aviones, automóviles, robots quirúrgicos y sistemas de atención médica, significa que debemos redoblar nuestros esfuerzos para probar y evaluar la calidad de dichos sistemas de inteligencia artificial.
Más allá de los errores de software, los sistemas de IA pueden tener sus propios problemas, especialmente si se desarrollan utilizando algoritmos de aprendizaje automático y se entrenan con grandes conjuntos de datos. Puede haber fallas adicionales en los algoritmos, o los datos de entrenamiento pueden incluir sesgos imprevistos. Es posible que los sistemas funcionen según lo diseñado, pero no como queremos que funcionen. Nos puede llevar un tiempo averiguar si el problema reside en el software subyacente, los algoritmos de aprendizaje automático, los datos de entrenamiento o alguna combinación de los anteriores.
El sistema de AI puede ser incapaz de explicar la razón de sus conclusiones. Incluso si el sistema funciona correctamente y logra los objetivos previstos, puede ser incapaz de explicar cómo lo hizo en términos que los humanos entiendan. Explicar a un humano el razonamiento detrás de una decisión o recomendación particular hecha por un algoritmo de aprendizaje automático es bastante difícil, porque sus métodos, los ajustes sutiles a los pesos numéricos que interconectan su gran número de neuronas artificiales, son muy diferentes de los utilizados por los humanos .
Al lograr sus objetivos, la IA puede cambiar los procesos de pensamiento y los valores humanos. En general, los humanos resuelven problemas complejos desarrollando un modelo explícito o conceptual del problema. Tales modelos proporcionan el contexto para llegar a una solución o tomar una decisión. AI, por otro lado, aprende matemáticamente, ajustando marginalmente sus algoritmos mientras analiza sus datos de entrenamiento. Esta falta de contexto inherente puede llevar a la IA a interpretar erróneamente las instrucciones humanas. Esto dificulta que la IA tenga en cuenta el tipo de advertencias subjetivas y cualitativas que guían las decisiones humanas.
Además, dado que la IA aprende exponencialmente más rápido que los humanos, es probable que sus errores y desviaciones se propaguen y crezcan más rápido que los que típicamente cometen los humanos. 
Un sistema de IA que está aprendiendo constantemente al ingerir nuevos datos inevitablemente podría desarrollar leves desviaciones que podrían, con el tiempo, caer en catástrofes. Los humanos usan atributos cualitativos como la sabiduría, el juicio y el sentido común para moderar y corregir sus errores, atributos que los sistemas de inteligencia artificial generalmente no tienen.
Irving Wladawsky-Berger trabajó en IBM durante 37 años, ha sido asesor estratégico de Citigroup, HBO y Mastercard y profesor adjunto en Imperial College. Actualmente, es profesor visitante y afiliado de investigación en MIT, y es colaborador habitual de CIO Journal.

No hay comentarios:

Publicar un comentario