La IA podría causar una catástrofe de "nivel nuclear", dice un tercio de los expertos
El informe de la Universidad de Stanford dice que los "incidentes y controversias" asociados con la IA se han multiplicado por 26 en una década.
Más de un tercio de los investigadores cree que la inteligencia artificial (IA) podría conducir a una "catástrofe de nivel nuclear", según una encuesta de la Universidad de Stanford, lo que subraya las preocupaciones en el sector sobre los riesgos que plantea la tecnología que avanza rápidamente.
La encuesta se encuentra entre los hallazgos destacados en el Informe del Índice de IA de 2023, publicado por el Instituto Stanford para la Inteligencia Artificial centrada en el ser humano, que explora los últimos desarrollos, riesgos y oportunidades en el floreciente campo de la IA.
SIGUE LEYENDO
lista de 4 elementosLa vieja guardia tecnológica de China deja paso a la sangre joven en la IA y la era de las criptomonedas
A medida que la guerra entra en el segundo año, los ucranianos están llenando la brecha tecnológica de Japón
Musk y otros expertos en tecnología instan a detener más desarrollos de IA
¿Cómo será el futuro de la desinformación impulsada por IA?
“Estos sistemas demuestran capacidades en la respuesta a preguntas y la generación de texto, imagen y código inimaginables hace una década, y superan el estado del arte en muchos puntos de referencia, antiguos y nuevos”, dicen los autores del informe.
“Sin embargo, son propensos a las alucinaciones, habitualmente sesgados y pueden ser engañados para que sirvan a fines nefastos, lo que resalta los complicados desafíos éticos asociados con su despliegue”.
El informe, que se publicó a principios de este mes, se produce en medio de crecientes llamados a la regulación de la IA luego de controversias que van desde un suicidio vinculado a un chatbot hasta videos falsos del presidente ucraniano Volodymyr Zelenskyy que parece rendirse ante las fuerzas invasoras rusas.
El mes pasado, Elon Musk y el cofundador de Apple, Steve Wozniak, se encontraban entre los 1300 firmantes de una carta abierta que pedía una pausa de seis meses en la capacitación de sistemas de IA más allá del nivel del chatbot GPT-4 de Open AI, ya que “los sistemas de IA potentes deben desarrollarse solo una vez que estemos seguros de que sus efectos serán positivos y sus riesgos serán manejables”.
En la encuesta destacada en el Informe del Índice de IA de 2023, el 36 % de los investigadores dijo que las decisiones tomadas por la IA podrían conducir a una catástrofe de nivel nuclear, mientras que el 73 % dijo que pronto podrían conducir a un “cambio social revolucionario”.
La encuesta escuchó a 327 expertos en procesamiento de lenguaje natural, una rama de la informática clave para el desarrollo de chatbots como GPT-4, entre mayo y junio del año pasado, antes de que el lanzamiento de ChatGPT de Open AI en noviembre arrasara en el mundo de la tecnología.
En una encuesta de IPSOS al público en general, que también se destacó en el índice, los estadounidenses parecían especialmente cautelosos con la IA, con solo el 35 % de acuerdo en que "los productos y servicios que usan IA tenían más beneficios que inconvenientes", en comparación con el 78 % de los encuestados chinos. , el 76 por ciento de los encuestados de Arabia Saudita y el 71 por ciento de los encuestados de la India.
El informe de Stanford también señaló que la cantidad de "incidentes y controversias" asociados con la IA se había multiplicado por 26 durante la última década.
Suscríbete a Al Jazeera
Boletín Cobertura de las Américas
Los movimientos del gobierno para regular y controlar la IA están ganando terreno.
La Unión Europea ha propuesto la “Ley de Inteligencia Artificial” para regular qué tipos de IA son aceptables para su uso y cuáles deben prohibirse.
La cautela pública de EE. UU. sobre la IA aún no se ha traducido en regulaciones federales, pero la administración Biden anunció esta semana el lanzamiento de consultas públicas sobre cómo garantizar que “los sistemas de IA sean legales, efectivos, éticos, seguros y confiables”.
No hay comentarios:
Publicar un comentario