El CEO de Google, Sundar Pichai, advierte a la sociedad que se prepare para el impacto de la aceleración de la IA y dice que “no corresponde a una empresa decidir”
- En una entrevista con “60 Minutes” de CBS que se transmitió el domingo, el CEO de Google, Sundar Pichai, insinuó que la sociedad no está preparada para el rápido avance de la IA.
- Pichai dijo que las leyes que protegen los avances de la IA “no son para que una empresa decida” por sí sola.
- Advirtiendo de las consecuencias, dijo que la IA tendrá un impacto en “todos los productos de todas las empresas”.
Google y AlfabetoEl CEO Sundar Pichai dijo que “todos los productos de cada empresa” se verán afectados por el rápido desarrollo de la IA, y advirtió que la sociedad debe prepararse para tecnologías como las que ya ha lanzado.
En una entrevista con “60 Minutes” de CBS emitida el domingo que tuvo un tono de preocupación, el entrevistador Scott Pelley probó varios de los proyectos de IA de Google y dijo que estaba “sin palabras” y que sentía que era “inquietante”, refiriéndose a las capacidades similares a las de los humanos. de productos como el chatbot de Google Bard.
“Necesitamos adaptarnos como sociedad”, dijo Pichai a Pelley, y agregó que los trabajos que serían interrumpidos por la IA incluirían “trabajadores del conocimiento”, incluidos escritores, contadores, arquitectos e, irónicamente, incluso ingenieros de software.
“Esto tendrá un impacto en todos los productos de todas las empresas”, dijo Pichai. “Por ejemplo, podría ser un radiólogo, si piensa dentro de cinco a diez años, tendrá un colaborador de IA con usted. Viene por la mañana, digamos que tiene cien cosas por las que pasar, puede decir, ‘estos son los casos más serios que necesita ver primero’”.
Pelley vio otras áreas con productos avanzados de IA dentro de Google, incluido DeepMind, donde los robots jugaban fútbol, lo que aprendieron ellos mismos, en lugar de los humanos. Otra unidad mostró robots que reconocieron artículos en un mostrador y le dieron a Pelley una manzana que pidió.
Al advertir sobre las consecuencias de AI, Pichai dijo que la escala del problema de la desinformación y las noticias e imágenes falsas será “mucho mayor”, y agregó que “podría causar daño”.
El mes pasado, CNBC informó que internamente, Pichai les dijo a los empleados que el éxito de su programa Bard recién lanzado ahora depende de las pruebas públicas, y agregó que “las cosas saldrán mal”.
Google lanzó su AI chatbot Bard como un producto experimental para el público el mes pasado. Siguió al anuncio de enero de Microsoft de que su motor de búsqueda Bing incluiría la tecnología GPT de OpenAI, que atrajo la atención internacional después del lanzamiento de ChatGPT en 2022.
Sin embargo, el temor a las consecuencias del rápido progreso también ha alcanzado al público y la crítica en las últimas semanas. En marzo, Elon Musk, Steve Wozniak y docenas de académicos pidieron una pausa inmediata en los “experimentos” de capacitación relacionados con grandes modelos de lenguaje que eran “más poderosos que GPT-4″, el LLM insignia de OpenAI. Más de 25.000 personas han firmado la carta desde entonces.
“La presión competitiva entre gigantes como Google y nuevas empresas de las que nunca has oído hablar está impulsando a la humanidad hacia el futuro, esté lista o no”, comentó Pelley en el segmento.
Google lanzó un documento que describe “recomendaciones para regular la IA”, pero Pichai dijo que la sociedad debe adaptarse rápidamente con la regulación, las leyes para castigar el abuso y los tratados entre las naciones para hacer que la IA sea segura para el mundo, así como las reglas que “Se alinean con los valores humanos, incluida la moralidad”. .”
“No corresponde a una empresa decidir”, dijo Pichai. “Es por eso que creo que el desarrollo de esto debe incluir no solo a ingenieros, sino también a científicos sociales, especialistas en ética, filósofos, etc.”.
Cuando se le preguntó si la sociedad está preparada para la tecnología de inteligencia artificial como Bard, Pichai respondió: “Por un lado, creo que no, porque el ritmo al que podemos pensar y adaptarnos como instituciones sociales, en comparación con el ritmo al que evoluciona la tecnología, hay parece ser un desajuste”.
Sin embargo, agregó que es optimista porque en comparación con otras tecnologías en el pasado, “la cantidad de personas que comenzaron a preocuparse por las implicaciones” lo hizo desde el principio.
A partir de un mensaje de seis palabras de Pelley, Bard creó una historia con personajes y una trama que inventó, incluido un hombre cuya esposa no podía concebir y un extraño afligido por un aborto espontáneo y anhelando un cierre. “Rara vez me quedo sin palabras”, dijo Pelley. “La humanidad a una velocidad sobrehumana fue un shock”.
Pelley dijo que le preguntó a Bard por qué ayuda a las personas y respondió “porque me hace feliz”, lo que Pelley dijo que lo sorprendió. “Parece que Bard está pensando”, le dijo a James Manyika, un vicepresidente sénior que Google contrató el año pasado como jefe de “tecnología y sociedad”. Manyika respondió que Bard no es sensible y no es consciente de sí mismo, pero puede “comportarse como” él.
Pichai también dijo que Bard tiene muchas alucinaciones después de que Pelley explicara que le preguntó a Bard sobre la inflación y recibió una respuesta instantánea con sugerencias para cinco libros que, cuando revisó más tarde, en realidad no existían.
Pelley también pareció preocupado cuando Pichai dijo que hay “una caja negra” con los chatbots, donde “no entiendes completamente” por qué o cómo surgen ciertas respuestas.
″¿No entiendes completamente cómo funciona y, sin embargo, lo has soltado en la sociedad?” preguntó Pelley.
“Déjame decirlo de esta manera, tampoco creo que entendamos completamente cómo funciona una mente humana”, respondió Pichai.
No hay comentarios:
Publicar un comentario