Los ejecutivos de tecnología dicen que está por llegar un tipo de IA que puede superar a los humanos, pero no tienen idea de cómo se ve
- Los ejecutivos de algunos de los principales laboratorios de inteligencia artificial del mundo ven la “inteligencia general artificial” o AGI, acercándose en algún momento en el futuro cercano.
- AGI, una forma hipotética de IA con una inteligencia igual o superior a la de un humano, es algo que entusiasma y asusta a varios expertos de la comunidad de IA.
- Líderes como OpenAI, Google DeepMind y Cohere ven acercarse una forma de AGI, pero dicen que todavía es demasiado pronto para decir cómo será.
Los ejecutivos de algunos de los principales laboratorios de inteligencia artificial del mundo esperan que llegue en algún momento en el futuro cercano una forma de IA a la par (o incluso superior) a la inteligencia humana. Pero cómo se verá finalmente y cómo se aplicará sigue siendo un misterio.
Líderes como OpenAI, Cohere, DeepMind de Google e importantes empresas tecnológicas como Microsoft.y fuerza de ventassopesó los riesgos y oportunidades que presenta la AGI, o inteligencia artificial general, en el Foro Económico Mundial en Davos, Suiza, la semana pasada.
AGI se refiere a una forma de IA que puede completar una tarea al mismo nivel que cualquier humano o incluso vencer a los humanos en la resolución de cualquier tarea, ya sea ajedrez, acertijos matemáticos complejos o descubrimientos científicos. A menudo se le ha llamado el “santo grial” de la IA debido a lo poderoso que sería un agente inteligente así concebido.
La IA se ha convertido en la comidilla del mundo empresarial durante el último año, gracias en gran parte al éxito de ChatGPT, el popular chatbot de IA generativa de OpenAI. Las herramientas de IA generativa como ChatGPT funcionan con grandes modelos de lenguaje, algoritmos entrenados en grandes cantidades de datos.
Esto ha avivado la preocupación entre gobiernos, corporaciones y grupos de defensa de todo el mundo, debido a una avalancha de riesgos en torno a la falta de transparencia y explicabilidad de los sistemas de IA; pérdida de empleos como resultado de una mayor automatización; manipulación social a través de algoritmos informáticos; vigilancia; y privacidad de datos.
AGI es un ‘término definido muy vagamente’
El director ejecutivo y cofundador de OpenAI, Sam Altman, dijo que cree que la inteligencia artificial general podría no estar lejos de convertirse en una realidad y podría desarrollarse en un “futuro razonablemente cercano”.
Sin embargo, señaló que los temores de que cambiará y perturbará drásticamente el mundo son exagerados.
“Cambiará el mundo mucho menos de lo que todos pensamos y cambiará los empleos mucho menos de lo que todos pensamos”, dijo Altman en una conversación organizada por Bloomberg en el Foro Económico Mundial en Davos, Suiza.
Altman, cuya empresa saltó a la fama tras el lanzamiento público del chatbot ChatGPT a finales de 2022, ha cambiado de opinión sobre el tema de los peligros de la IA desde que su empresa fue puesta en el foco regulatorio el año pasado, con gobiernos de Estados Unidos, Reino Unido, Unión Europea y más allá, buscando controlar a las empresas de tecnología por los riesgos que plantean sus tecnologías.
En una entrevista de mayo de 2023 con ABC News, Altman dijo que él y su empresa están “asustados” por las desventajas de una IA superinteligente.
“Tenemos que tener cuidado aquí”, dijo Altman a ABC. “Creo que la gente debería estar contenta de que tengamos un poco de miedo por esto”.
AGI es un término muy vagamente definido. Si simplemente lo llamamos “mejor que los humanos en prácticamente cualquier cosa que los humanos puedan hacer”, estoy de acuerdo, muy pronto podremos obtener sistemas que hagan eso.Aidán GómezCEO, COHERE
Luego, Altman dijo que le preocupa la posibilidad de que la IA se utilice para “desinformación a gran escala”, y añadió: “Ahora que están mejorando en la escritura de códigos informáticos, [podrían] utilizarse para ataques cibernéticos ofensivos”.
Altman fue expulsado temporalmente de OpenAI en noviembre en una medida impactante que dejó al descubierto las preocupaciones sobre la gobernanza de las empresas detrás de los sistemas de IA más potentes.
En una discusión en el Foro Económico Mundial en Davos, Altman dijo que su destitución era un “microcosmos” de las tensiones que enfrentan internamente OpenAI y otros laboratorios de IA. “A medida que el mundo se acerca a AGI, lo que está en juego, el estrés, el nivel de tensión. Todo eso va a aumentar”.
Aidan Gómez, director ejecutivo y cofundador de la startup de inteligencia artificial Cohere, se hizo eco del punto de Altman de que la IA probablemente será un resultado real en el futuro cercano.
“Creo que tendremos esa tecnología muy pronto”, dijo Gómez a Arjun Kharpal de CNBC en una charla informal en el Foro Económico Mundial.
Pero dijo que un problema clave con AGI es que todavía está mal definida como tecnología. “En primer lugar, AGI es un término muy vagamente definido”, añadió el jefe de Cohere. “Si simplemente lo llamamos ‘mejor que los humanos en prácticamente cualquier cosa que los humanos puedan hacer’, estoy de acuerdo, muy pronto podremos obtener sistemas que hagan eso”.
Sin embargo, Gómez dijo que incluso cuando AGI finalmente llegue, probablemente tomaría “décadas” para que las empresas se integren verdaderamente en otras empresas.
“La pregunta realmente es qué tan rápido podemos adoptarlo, qué tan rápido podemos ponerlo en producción, la escala de estos modelos dificulta la adopción”, señaló Gómez.
“Por eso, en Cohere nos hemos centrado en comprimir eso: hacerlos más adaptables y más eficientes”.
“La realidad es que nadie lo sabe”
El tema de definir qué es realmente AGI y cómo será eventualmente es uno que ha dejado perplejos a muchos expertos en la comunidad de IA.
Lila Ibrahim, directora de operaciones del laboratorio de inteligencia artificial de Google DeepMind, dijo que nadie sabe realmente qué tipo de inteligencia artificial califica como “inteligencia general”, y agregó que es importante desarrollar la tecnología de manera segura.
“La realidad es que nadie sabe” cuándo llegará AGI, dijo Ibrahim a Kharpal de CNBC. “Existe un debate entre los expertos en IA que han estado haciendo esto durante mucho tiempo, tanto dentro de la industria como dentro de la organización”.
“Ya estamos viendo áreas donde la IA tiene la capacidad de desbloquear nuestra comprensión... donde los humanos no han podido lograr ese tipo de progreso. Así que es la IA en asociación con el ser humano, o como una herramienta”, dijo Ibrahim. .
“Así que creo que es realmente una gran pregunta abierta, y no sé qué mejor respuesta que la de cómo pensamos realmente sobre eso, en lugar de cuánto tiempo más durará”. añadió Ibrahim. ″¿Cómo pensamos en cómo podría verse y cómo nos aseguramos de que somos administradores responsables de la tecnología?”
Evitar un ‘show de mierda’
Altman no fue el único alto ejecutivo tecnológico al que se le preguntó sobre los riesgos de la IA en Davos.
Marc Benioff, director ejecutivo de la firma de software empresarial Salesforce, dijo en un panel con Altman que el mundo tecnológico está tomando medidas para garantizar que la carrera de la IA no conduzca a un “momento Hiroshima”.
Muchos líderes de la industria tecnológica han advertido que la IA podría conducir a un evento de “nivel de extinción” en el que las máquinas se vuelven tan poderosas que se salen de control y aniquilan a la humanidad.
Varios líderes en IA y tecnología, incluidos Elon Musk, Steve Wozniak y el ex candidato presidencial Andrew Yang, han pedido una pausa en el avance de la IA, afirmando que una moratoria de seis meses sería beneficiosa para permitir que la sociedad y los reguladores se pongan al día.
Geoffrey Hinton, un pionero de la IA a menudo llamado el “padrino de la IA”, advirtió anteriormente que los programas avanzados “podrían escapar del control escribiendo su propio código informático para modificarse a sí mismos”.
“Una de las formas en que estos sistemas podrían escapar del control es escribiendo su propio código informático para modificarse a sí mismos. Y eso es algo de lo que debemos preocuparnos seriamente”, dijo Hinton en una entrevista de octubre con “60 Minutes” de CBS.
Hinton dejó su puesto como vicepresidente de Google y miembro de ingeniería el año pasado, lo que generó preocupaciones sobre cómo la empresa abordaba la seguridad y la ética de la IA.
Benioff dijo que los líderes y expertos de la industria tecnológica deberán garantizar que la IA evite algunos de los problemas que han asediado a la web en la última década, desde la manipulación de creencias y comportamientos a través de algoritmos de recomendación durante los ciclos electorales hasta la infracción de la privacidad. .
“Realmente nunca antes habíamos tenido este tipo de interactividad” con herramientas basadas en inteligencia artificial, dijo Benioff a la multitud de Davos la semana pasada. “Pero todavía no confiamos en ello. Así que tenemos que cruzar la confianza”.
“También tenemos que recurrir a esos reguladores y decirles: ’Oye, si miras las redes sociales durante la última década, ha sido una especie de espectáculo de mierda. Es bastante malo. No “Queremos eso en nuestra industria de la IA. Queremos tener una asociación buena y saludable con estos moderadores y con estos reguladores”.
Limitaciones de los LLM
Jack Hidary, director ejecutivo de SandboxAQ, rechazó el fervor de algunos ejecutivos de tecnología de que la IA podría estar acercándose a la etapa en la que obtiene inteligencia “general”, y agregó que los sistemas todavía tienen muchos problemas iniciales que resolver.
Dijo que los chatbots de IA como ChatGPT han pasado la prueba de Turing, una prueba llamada “juego de imitación”, que fue desarrollada por el informático británico Alan Turing para determinar si alguien se está comunicando con una máquina y un humano. Pero, añadió, un área importante en la que falta la IA es el sentido común.
“Una cosa que hemos visto en los LLM [grandes modelos de lenguaje] es que es muy poderoso: pueden escribir cosas que dicen a los estudiantes universitarios como si no hubiera un mañana, pero a veces es difícil encontrar sentido común, y cuando preguntas: ‘¿Cómo cruza la gente la calle?’ ?′ A veces ni siquiera puede reconocer qué es el paso de peatones, en comparación con otros tipos de cosas, cosas que incluso un niño pequeño sabría, por lo que será muy interesante ir más allá de eso en términos de razonamiento”.
Hidary tiene una gran predicción sobre cómo evolucionará la tecnología de IA en 2024: este año, dijo, será el primero en que se cargue software avanzado de comunicación de IA en un robot humanoide.
“Este año veremos un momento ‘ChatGPT’ para robots humanoides con IA incorporada, este año 2024 y luego 2025”, dijo Hidary.
“No veremos robots saliendo de la línea de ensamblaje, pero sí los veremos haciendo demostraciones reales de lo que pueden hacer usando su inteligencia, usando su cerebro, usando quizás LLM y otras técnicas de inteligencia artificial”.
“Ya se ha apoyado a 20 empresas para crear robots humanoides, además, por supuesto, de Tesla y muchas otras, por lo que creo que este año habrá una conversión en ese sentido”, añadió Hidary.
No hay comentarios:
Publicar un comentario