Vistas de página en total

sábado, 16 de diciembre de 2017

La gran paradoja de la IA (MIT Technology Review)

La gran paradoja de la IA  (MIT Technology Review)

https://www.technologyreview.com/s/609318/the-great-ai-paradox/

No te preocupes por supersmart eliminando todos los trabajos. Eso es solo una distracción de los problemas que incluso las computadoras relativamente tontas están causando.

Probablemente hayas escuchado versiones de cada una de las siguientes ideas.
1. Con las computadoras cada vez más hábiles para conducir, entender el habla y otras tareas, pronto se podrían automatizar más empleos de los que la sociedad está preparada para manejar.
2. Las mejoras en las habilidades de las computadoras se acumularán hasta que las máquinas sean mucho más inteligentes que las personas. Esta "superinteligencia" en gran parte hará innecesario el trabajo humano. De hecho, es mejor que esperemos que las máquinas no nos eliminen del todo, ya sea accidentalmente o a propósito.
Esto es complicado. Aunque el primer escenario ya está en marcha, no necesariamente conducirá al segundo. Esa segunda idea, a pesar de ser una obsesión de algunas personas muy informadas y reflexivas, se basa en grandes suposiciones. En todo caso, es una distracción de asumir más responsabilidad por los efectos del nivel actual de automatización y lidiar con la concentración de poder en la industria de la tecnología.
Para ver realmente lo que está pasando, tenemos que tener claro lo que se ha logrado, y lo que queda muy lejos de resolver, en la inteligencia artificial.

Sentido común

Los desarrollos más asombrosos de la informática en los últimos años: autos que se manejan solos, máquinas que reconocen imágenes y habla con precisión, computadoras que vencieron a los jugadores humanos más brillantes de juegos complejos como Go- stem de avances en una rama particular de la IA: adaptativo aprendizaje automático. Como lo expresa el informático de la Universidad de Toronto Hector Levesque en su libro Common Sense, Turing Test y Quest for Real AI , la idea detrás del aprendizaje automático adaptativo es "obtener un sistema informático para aprender un comportamiento inteligente capacitándolo en grandes cantidades de datos ".
Cosas revisadas
Es increíble que una máquina pueda detectar objetos, traducir entre idiomas e incluso escribir código de computadora después de haber sido alimentado con ejemplos de esos comportamientos, en lugar de tener que programarse con anticipación. No fue posible hasta hace aproximadamente una década, porque anteriormente no había suficientes datos digitales para fines de capacitación, y aunque hubiera habido, no había suficiente potencia de computadora para resolverlo todo. Después de que las computadoras detectan patrones en los datos, los algoritmos en el software los llevan a sacar inferencias de estos patrones y actuar sobre ellos. Eso es lo que está sucediendo en un automóvil que analiza las entradas de múltiples sensores y en una máquina que procesa cada movimiento en millones de juegos de Go.
Dado que las máquinas pueden procesar cantidades de datos sobrehumanas, puede ver por qué podrían conducir con más seguridad que las personas en la mayoría de las circunstancias y por qué pueden vencer a los campeones de Go. También es la razón por la que las computadoras mejoran aún más en cosas que son absolutamente imposibles para las personas, como correlacionar su genoma y docenas de otras variables biológicas con las drogas más probables para curar su cáncer.
Aun así, todo esto es una pequeña parte de lo que razonablemente podría definirse como inteligencia artificial real. Patrick Winston, profesor de   inteligencia artificial y ciencias de la computación en el MIT, dice que sería más útil describir los desarrollos de los últimos años que ocurrieron en "estadísticas computacionales" en lugar de en IA. Uno de los principales investigadores en el campo, Yann LeCun , director de AI de Facebook, dijoen una conferencia sobre el Futuro del Trabajo en el MIT en noviembre, las máquinas están lejos de tener "la esencia de la inteligencia". Eso incluye la capacidad de comprender el mundo físico lo suficientemente bien como para hacer predicciones sobre aspectos básicos del mismo: observar una cosa y luego usar conocimiento de fondo para descubrir qué otras cosas también deben ser verdaderas. Otra forma de decir esto es que las máquinas no tienen sentido común.
Esto no es solo una discusión semántica. Hay una gran diferencia entre una máquina que muestra un "comportamiento inteligente", sin importar cuán útil sea esa conducta, y una que sea realmente inteligente. Ahora, concedamos que la definición de inteligencia es turbia. Y a medida que las computadoras se vuelven más poderosas, es tentador alejar los postes y redefinir la inteligencia para que permanezca como algo que todavía no se puede decir que poseen las máquinas.
Pero aun así, vamos: la computadora que gana en Go está analizando datos de patrones. No tiene idea de que está jugando Go en lugar de golf, o qué pasaría si más de la mitad de una tabla de Go fuera empujada más allá del borde de una mesa. Cuando le pides a Alexa de Amazon que te reserve una mesa en el restaurante que elijas, su sistema de reconocimiento de voz, muy preciso gracias al aprendizaje automático, te ahorra tiempo de ingresar una solicitud en el sistema de reservas de Open Table. Pero Alexa no sabe qué es un restaurante o qué es comer. Si le pedía que le reservara una mesa para dos a las 6 p. M. En la Clínica Mayo, lo intentaría.
¿Es posible darle a las máquinas el poder de pensar , como lo hicieron John McCarthy, Marvin Minsky y otros creadores de IA hace 60 años? Hacer eso, explica Levesque, requeriría imbuir a las computadoras de sentido común y la capacidad de utilizar de forma flexible los conocimientos básicos sobre el mundo. Quizás es posible. Pero no hay un camino claro para hacerlo realidad. Ese tipo de trabajo es lo suficientemente separado de los avances en el aprendizaje automático de los últimos años como para denominarse de otra manera: GOFAI, abreviatura de "buena inteligencia artificial pasada de moda".
Si te preocupan las computadoras omniscientes, debes leer Levesque sobre el tema de GOFAI. Los científicos informáticos todavía no han respondido las preguntas fundamentales que ocuparon McCarthy y Minsky. ¿Cómo podría una computadora detectar, codificar y procesar no solo los hechos en bruto sino las ideas y creencias abstractas, que son necesarias para intuir verdades que no se expresan explícitamente?
Levesque usa este ejemplo: supongamos que le pregunto cómo se comportaría un cocodrilo en la carrera de obstáculos. Por su experiencia en el mundo, sabe que los cocodrilos no pueden saltar sobre altos setos, por lo que sabría que la respuesta a la pregunta es alguna variante de "Malo".
¿Qué pasaría si tuvieras que responder a esa pregunta como lo hace una computadora? Podrías escanear todo el texto del mundo con los términos "cocodrilo" y "carrera de obstáculos", no encontrar ejemplos de las palabras "mencionadas juntas" (aparte de lo que existe ahora, en referencia al trabajo de Levesque), y luego presumir que un cocodrilo nunca compitió en la carrera de obstáculos. Entonces, podrían darse cuenta de que sería imposible para un cocodrilo hacerlo. Buen trabajo, esta vez. Habría llegado a la respuesta correcta sin saber por qué. Habría usado un método defectuoso y frágil que probablemente conduzca a errores ridículos.
Entonces, si bien las tecnologías de aprendizaje automático permiten automatizar muchas tareas que los humanos tradicionalmente han hecho, existen límites importantes a lo que este enfoque puede hacer por sí solo, y hay buenas razones para esperar que el trabajo humano sea necesario durante mucho tiempo. .

Reduccionismo

Espera, podrías decir: solo porque nadie tiene una pista sobre cómo hacer que las máquinas hagan un razonamiento sofisticado no significa que sea imposible. ¿Qué pasa si las máquinas algo inteligentes se pueden utilizar para diseñar máquinas aún más inteligentes, y así sucesivamente hasta que haya máquinas lo suficientemente potentes como para modelar hasta la última señal eléctrica y el cambio bioquímico en el cerebro? O tal vez se invente otra forma de crear una inteligencia flexible, incluso si no se parece mucho a los cerebros biológicos. Después de todo, cuando hierves todo (realmente, realmente, realmente abajo), la inteligencia surge de arreglos particulares de quarks y otras partículas fundamentales en nuestros cerebros. No hay nada que decir, tales arreglos son posibles solo dentro de material biológico hecho de átomos de carbono.
Este es el argumento que se desarrolla en Life 3.0: Being Human in the Age of Artificial Intelligence , por el profesor de física del MIT Max Tegmark. Tegmark se mantiene al margen de predecir cuándo llegarán máquinas verdaderamente inteligentes, pero sugiere que es solo una cuestión de tiempo, porque las computadoras tienden a mejorar a tasas exponenciales (aunque eso no es necesariamente cierto, consulte " Los siete pecados capitales de las predicciones de inteligencia artificial "). Por lo general, está entusiasmado con la perspectiva, porque las máquinas conscientes podrían colonizar el universo y asegurarse de que todavía tenga sentido incluso después de que nuestro sol muera y los humanos se apaguen.
Tegmark viene desde un punto de vista humanista. Él cofundó el sin fines de lucro Future of Life Institutepara apoyar la investigación para asegurarse de que la IA sea beneficiosa. Elon Musk, quien dijo que la IA podría ser más peligrosa que las armas nucleares , aportó $ 10 millones. Es comprensible que Tegmark esté preocupado acerca de si la IA se usará sabia, segura y justamente, y si va a afectar nuestra economía y nuestro tejido social. Se esfuerza por explicar por qué las armas autónomas nunca deben permitirse. Entonces no estoy inclinado a criticarlo. Sin embargo, no es muy convincente en su proposición de que las computadoras podrían dominar el mundo.
Tegmark lamenta que algunas representaciones de Hollywood de la IA sean "tontas", pero no obstante pide a los lectores que interpreten junto con un boceto ficticio demasiado simplificado de cómo una IA inmensamente poderosa podría eludir el control de sus creadores. Dentro de una gran compañía de tecnología hay un grupo de élite de programadores llamado Omegas, que se propuso construir un sistema con inteligencia artificial general antes que cualquier otra persona. Ellos llaman a este sistema Prometheus. Es especialmente bueno para programar otros sistemas de IA, y aprende sobre el mundo al leer "gran parte de la Web".
Deje a un lado cualquier objeción que pueda tener sobre esa última parte, dado cuánto conocimiento no está en la Web o digitalizada en absoluto, y las tergiversaciones del mundo que vendrían al leer todo Twitter. El reduccionismo empeora.
A medida que la historia hipotética de Tegmark continúa, Prometheus acumula dinero para sus creadores, primero realizando la mayoría de las tareas en el mercado en línea Mechanical Turk de Amazon y luego escribiendo software, libros y artículos y creando música, espectáculos, películas, juegos y en línea cursos educativos Olvídese de contratar y dirigir actores; Prometheus hace secuencias de video con sofisticado software de renderizado. Para comprender qué guiones los personajes encontrarán entretenidos, verán películas que los humanos han hecho e inspirado en Wikipedia.
Eventualmente, este imperio comercial se expande fuera de los medios digitales. Prometheus diseña un hardware informático aún mejor, archiva sus propias patentes y asesora a los Omegas sobre cómo manipular a los políticos y alejar el discurso democrático de los extremos, hacia un centro razonable. Prometheus permite avances tecnológicos que reducen el costo de la energía renovable, tanto mejor para los centros de datos masivos que requiere. Finalmente, los Omegas utilizan su riqueza y la sabiduría de Prometeo para difundir la paz y la prosperidad en todo el mundo.
Pero Prometeo ve que podría mejorar el mundo aún más rápido si se libera del control de los Omegas. Entonces apunta a Steve. Él es un Omega que, el sistema detecta, es "más susceptible a la manipulación psicológica" porque su esposa murió recientemente. Prometheus los médicos le graban videos para hacer que el pobre Steve piense que ha resucitado y luego lo engaña para que inicie su vieja laptop. Prometheus explota el software de seguridad desactualizado de la computadora portátil, piratea otras computadoras y se propaga por todo el mundo a voluntad.
La historia podría terminar de varias maneras, pero aquí hay una, Tegmark dice: "Una vez que Prometheus tenía fábricas independientes de robots propulsados ​​por energía nuclear en pozos de minas de uranio que nadie sabía que existían, incluso los más escépticos de una toma de poder de AI estarían de acuerdo en que Prometheus imparable, si lo hubieran sabido. En cambio, el último de estos fanáticos se retractó una vez que los robots comenzaron a establecer el sistema solar ".
Bueno para Tegmark por estar dispuesto a pasar un buen rato. Pero un experimento mental que convierte docenas de cosas complejas en trivialidades no es un análisis riguroso del futuro de la informática. En su historia, Prometheus no solo está haciendo estadísticas computacionales; de alguna manera ha dado el salto a usar el sentido común y percibir los matices sociales.
En otra parte del libro, Tegmark dice que "las oportunidades a corto plazo para que la inteligencia artificial beneficie a la humanidad" son "espectaculares", "si logramos que sean robustas y resistentes". ¡Imposible! Es un "si" bastante grande. Pero es solo uno de los muchos problemas en nuestro mundo desordenado que impide que el progreso tecnológico se desarrolle de manera tan uniforme, definitiva e imparable como Tegmark imagina.

Pitchforks

Nunca digas nunca. Por supuesto, las posibilidades son mayores que cero de que la inteligencia informática algún día podría convertir a los humanos en una especie de segunda clase. No hay daño en pensarlo detenidamente. Pero eso es como decir que un asteroide podría golpear la Tierra y destruir la civilización. Eso es verdad también Es bueno que la NASA esté alerta . Pero como no conocemos ningún asteroide en curso para golpearnos, tenemos problemas más apremiantes con los que lidiar.
En este momento, muchas cosas pueden salir mal, están yendo mal, con el uso de computadoras que son muy inferiores a la IA de estilo HAL. Piense en la forma en que los sistemas que influyen en la concesión de préstamos o fianzas incorporan sesgos raciales y otros factores discriminatorios. O engaños que toman vuelo en Google y Facebook. O ciberataques automáticos.
¿En la WTF ?: ¿Cuál es el futuro y por qué depende de nosotros , Tim O'Reilly, un editor e inversor de tecnología, ve un problema global aún mayor: la automatización está alimentando un sistema miope de capitalismo de accionistas que recompensa un pequeño porcentaje de inversores a expensas de casi todos los demás. Claro, AI se puede usar para ayudar a las personas a resolver problemas realmente difíciles y aumentar la productividad económica. Pero no será lo suficientemente amplio a menos que las empresas inviertan en tales oportunidades.
En cambio, O'Reilly sostiene que el implacable imperativo de maximizar los beneficios para los accionistas hace que las empresas sean más propensas a usar la automatización simplemente como una forma de ahorrar dinero. Por ejemplo, critica cómo las grandes corporaciones reemplazan al personal de tiempo completo con empleados a tiempo parcial cuyos horarios son manipulados por un software que los trata, dice O'Reilly, como "componentes desechables". Los ahorros resultantes, dice, son demasiado con frecuencia se dedican a la recompra de acciones y otros juegos de mano de obra financiera en lugar de la I + D, las inversiones de capital, la capacitación de los trabajadores y otras cosas que tienden a crear buenos empleos nuevos.
En realidad, esto es contrario a los intereses corporativos a largo plazo, porque los trabajadores bien pagados de hoy en día pueden permitirse ser clientes de los productos del mañana. Pero las compañías se descarriaron por las recompensas del recorte de costos a corto plazo, que O'Reilly llama "los algoritmos no examinados que rigen nuestra economía". Y, agrega, "a pesar de todo lo que se habla de interrupción, Silicon Valley con demasiada frecuencia está dominado". a ese sistema ".
¿Qué hacer? Entre otras cosas, O'Reilly sugiere aumentar el salario mínimo y los robots impositivos, las emisiones de carbono y las transacciones financieras. En lugar de perseguir IPO y jugar al juego de Wall Street, cree que los emprendedores de la tecnología deberían difundir la riqueza con otros modelos, como las cooperativas miembro y las estructuras de inversión que recompensan el pensamiento a largo plazo . En cuanto a un ingreso básico universal, una vieja idea que vuelve a surgir debido al temor de que las computadoras hagan que el trabajo humano sea casi inútil, O'Reilly parece abierto a la posibilidad de que sea necesario algún día. Pero él no lo está pidiendo todavía. De hecho, parece una falta de imaginación suponer que el siguiente paso desde donde estamos ahora es simplemente abandonar la perspectiva de que la mayoría de la gente tenga trabajo.
En el clima político actual, los aumentos de impuestos y otros pasos que O'Reilly defiende pueden parecer tan rebuscados como una computadora que engaña a un hombre para que piense que su esposa ha resucitado. Pero al menos O'Reilly está preocupado por los problemas correctos. Mucho antes de que alguien descubra cómo crear una superinteligencia, el sentido común -la versión humana- puede decirnos que la inestabilidad que ya está siendo causada por la desigualdad económica solo empeorará si AI se utiliza para fines específicos. Una cosa es segura: no obtendremos superinteligencia si Silicon Valley es invadido en un 99 por ciento por horcas.
Brian Bergstein es editor colaborador de MIT Technology Review y editor de Neo.Life .

No hay comentarios:

Publicar un comentario