‘Propuesta peligrosa’: los principales científicos advierten sobre una IA fuera de control
- La inteligencia artificial más inteligente que los humanos, construida como “agentes”, podría resultar peligrosa en medio de la falta de claridad sobre los controles, dijeron a CNBC dos de los científicos de IA más destacados del mundo.
- Yoshua Bengio y Max Tegmark advirtieron sobre los peligros de la IA incontrolable.
- Para Tegmark, la clave está en la llamada “IA de herramientas”: sistemas que se crean para un propósito específico y estrictamente definido, sin servir como agentes.

La inteligencia general artificial construida como “agentes” podría resultar peligrosa ya que sus creadores podrían perder el control del sistema, dijeron a CNBC dos de los científicos de IA más destacados del mundo.
En el último episodio del podcast “Beyond The Valley” de CNBC , publicado el martes, Max Tegmark, profesor del Instituto Tecnológico de Massachusetts y presidente del Future of Life Institute, y Yoshua Bengio, considerado uno de los “padrinos de la IA” y profesor de la Universidad de Montreal, hablaron sobre sus preocupaciones acerca de la inteligencia artificial general, o AGI. El término se refiere en términos generales a los sistemas de IA que son más inteligentes que los humanos.
Sus temores surgen de que las empresas más grandes del mundo ahora hablan de “agentes de IA” o “IA agentica”, que según las empresas permitirán que los chatbots de IA actúen como asistentes o agentes y ayuden en el trabajo y la vida cotidiana. Las estimaciones de la industria varían sobre cuándo surgirá la IAG.
Con ese concepto surge la idea de que los sistemas de IA podrían tener cierta “agencia” y pensamientos propios, según Bengio.
“Los investigadores en IA se han inspirado en la inteligencia humana para construir inteligencia artificial y, en los humanos, existe una combinación de la capacidad de comprender el mundo como inteligencia pura y el comportamiento agente, es decir... usar su conocimiento para lograr objetivos”, dijo Bengio a “Beyond The Valley” de CNBC.
“En este momento, así es como estamos construyendo la IA: estamos tratando de convertirlos en agentes que comprendan mucho sobre el mundo y luego puedan actuar en consecuencia. Pero en realidad se trata de una propuesta muy peligrosa”.
Bengio añadió que seguir este enfoque sería como “crear una nueva especie o una nueva entidad inteligente en este planeta” y “no saber si se comportarán de manera que concuerden con nuestras necesidades”.
“En lugar de eso, podemos considerar cuáles son los escenarios en los que las cosas salen mal y todos ellos dependen de la voluntad. En otras palabras, es porque la IA tiene sus propios objetivos que podríamos estar en problemas”.
La idea de la autoconservación también podría entrar en juego a medida que la IA se vuelve aún más inteligente, dijo Bengio.
″¿Queremos competir con entidades que son más inteligentes que nosotros? No es una apuesta muy tranquilizadora, ¿verdad? Por eso tenemos que entender cómo la autoconservación puede surgir como un objetivo en la IA”.
Las herramientas de IA son la clave
Para Tegmark del MIT, la clave está en la llamada “IA de herramientas”: sistemas que se crean para un propósito específico y estrictamente definido, pero que no tienen por qué ser agentes.
Tegmark dijo que una herramienta de IA podría ser un sistema que te diga cómo curar el cáncer, o algo que posea “cierta capacidad de acción”, como un coche autónomo “donde puedas demostrar u obtener garantías muy altas y realmente fiables de que aún podrás controlarlo”.
“Creo que, siendo optimista, podemos tener casi todo lo que nos entusiasma de la IA... si simplemente insistimos en tener algunos estándares básicos de seguridad antes de que la gente pueda vender sistemas de IA potentes”, dijo Tegmark.
“Tienen que demostrar que podemos mantenerlos bajo control. Entonces la industria innovará rápidamente para encontrar la manera de hacerlo mejor”.
En 2023, el Future of Life Institute de Tegmark pidió que se hiciera una pausa en el desarrollo de sistemas de IA que puedan competir con la inteligencia de nivel humano. Si bien eso no ha sucedido, Tegmark dijo que la gente está hablando sobre el tema y que ahora es el momento de tomar medidas para determinar cómo establecer barreras para controlar la IAG.
“Por lo menos ahora mucha gente habla de ello. Tenemos que ver si podemos lograr que actúen”, dijo Tegmark en el programa “Beyond The Valley” de la CNBC.
“Es claramente una locura que nosotros, los humanos, construyamos algo mucho más inteligente que nosotros antes de descubrir cómo controlarlo”.
Hay varias opiniones sobre cuándo llegará la IAG, en parte impulsadas por diferentes definiciones.
Sam Altman, director ejecutivo de OpenAI, dijo que su empresa sabe cómo construir IA general y afirmó que llegará antes de lo que la gente piensa, aunque restó importancia al impacto de la tecnología.
“Supongo que alcanzaremos el IAG antes de lo que la mayoría de la gente en el mundo piensa y eso importará mucho menos”, dijo Altman en diciembre.

No hay comentarios:
Publicar un comentario