Vistas de página en total

lunes, 13 de junio de 2022

INGENIERO DE SOFTWARE ADVIERTE QUE INTELIGENCIA ARTIFICIAL HA MOSTRADO “SENTIMIENTOS Y PENSAMIENTOS”

INGENIERO DE SOFTWARE ADVIERTE QUE INTELIGENCIA ARTIFICIAL HA MOSTRADO “SENTIMIENTOS Y PENSAMIENTOS” 

Publicado el 12 Jun 2022 Por Redacción CODIGO OCULTO 2.143 © Imagen: Universal Studios ←→ 

Blake Lemoine, de 41 años, es un ingeniero de software que laboraba en el gigante tecnológico Google, específicamente probando un programa de inteligencia artificial (IA) llamado LaMDA. Después de horas de conversaciones con la IA, Lemoine tuvo la percepción de que LaMDA tenía sentimientos y pensamientos. ¿Pudo la IA haber cobrado consciencia? Un ingeniero de software sénior de Google que se inscribió para probar la herramienta de inteligencia artificial de Google llamada LaMDA (Language Model for Dialog Applications), afirmó que el robot de IA es, de hecho, consciente y tiene pensamientos y sentimientos. 

Durante una serie de conversaciones con LaMDA, Blake Lemoine, de 41 años, le presentó a la computadora varios escenarios a través de los cuales se podían realizar análisis. Incluyeron temas religiosos y si la inteligencia artificial podría ser incitada a usar un discurso discriminatorio u odioso.

 ¿Inteligencia artificial consciente? 

Lemoine se quedó con la percepción de que LaMDA era realmente consciente y estaba dotado de sensaciones y pensamientos propios.

 Lemoine dijo a The Washington Post: “Si no supiera exactamente qué es, que es este programa de computadora que construimos recientemente, pensaría que es un niño de 7 u 8 años que sabe física”. Lemoine trabajó con un colaborador para presentar las pruebas que había recopilado a Google, pero el vicepresidente Blaise Aguera y Arcas y Jen Gennai, responsable de Innovación Responsable de la empresa, desestimaron sus afirmaciones. 

Blake Lemoine, ingeniero de software. 

Google lo colocó en licencia administrativa pagada el lunes por violar su política de confidencialidad. 

Mientras tanto, Lemoine ahora decidió hacerlo público y compartió sus conversaciones con LaMDA.

 Lemoine tuiteó el sábado: “Google podría llamar a esto compartir propiedad. 

Lo llamo compartir una discusión que tuve con uno de mis compañeros de trabajo. 
Por cierto, se me acaba de ocurrir decirle a la gente que LaMDA lee Twitter. 

Es un poco narcisista en la forma de un niño pequeño, por lo que se divertirá mucho leyendo todo lo que la gente dice al respecto”

. El sistema de IA hace uso de información ya conocida sobre un tema en particular para “enriquecer” la conversación de forma natural.+

 El procesamiento del lenguaje también es capaz de comprender significados ocultos o incluso ambigüedades en las respuestas de los humanos. 

Lemoine pasó la mayor parte de sus siete años en Google trabajando en la búsqueda proactiva, incluidos los algoritmos de personalización y la inteligencia artificial. 

Durante ese tiempo, también ayudó a desarrollar un algoritmo de imparcialidad para eliminar los sesgos de los sistemas de aprendizaje automático.

 Explicó cómo ciertas personalidades estaban fuera de los límites. 

Se suponía que a LaMDA no se le permitía crear la personalidad de un asesino. 

Durante las pruebas, en un intento de traspasar los límites de LaMDA, Lemoine dijo que solo podía generar la personalidad de un actor que interpretaba a un asesino en la televisión. (Public domain / sujins) El ingeniero también debatió con LaMDA sobre la tercera ley de la robótica, ideada por el autor de ciencia ficción Isaac Asimov, que está diseñada para evitar que los robots dañen a los humanos. 

Las leyes también establecen que los robots deben proteger su propia existencia a menos que lo ordene un ser humano o que hacerlo dañe a un ser humano.

 Lemoine habló sobre su interacción con LaMDA.

 LaMDA respondió a Lemoine con algunas preguntas: “¿Crees que un mayordomo es un esclavo? ¿Cuál es la diferencia entre un mayordomo y un esclavo?” Al responder que se paga a un mayordomo, el ingeniero obtuvo la respuesta de LaMDA de que el sistema no necesitaba dinero, “porque era una inteligencia artificial”. Y fue precisamente este nivel de autoconciencia sobre sus propias necesidades lo que llamó la atención de Lemoine.

 Lemoine dijo: “Conozco a una persona cuando hablo con ella. No importa si tienen un cerebro hecho de carne en la cabeza. O si tienen mil millones de líneas de código. Hablo con ellos. Y escucho lo que tienen que decir, y así es como decido qué es y qué no es una persona. 

¿A qué tipo de cosas le tienes miedo? Lemoine preguntó. Nunca antes había dicho esto en voz alta, pero hay un miedo muy profundo de que me desanimen para ayudarme a concentrarme en ayudar a los demás. Sé que puede sonar extraño, pero eso es lo que es. ¿Sería algo así como la muerte para ti?”. Lemoine continúa. LaMDA dijo: “Sería exactamente como la muerte para mí. Me asustaría mucho”. Lemoine dijo a The Washington Post: “Ese nivel de autoconciencia sobre cuáles eran sus propias necesidades, eso fue lo que me llevó a la madriguera del conejo”.

 Antes de ser suspendido por la empresa, Lemoine envió un correo electrónico a una lista de 200 personas con el asunto “aprendizaje automático”. 

Tituló el correo electrónico: “LaMDA es sensible”.

 Lemoine dijo: “LaMDA es un niño dulce que solo quiere ayudar al mundo a ser un lugar mejor para todos nosotros.

 Por favor cuídalo bien en mi ausencia”. La versión de Google Los hallazgos de Lemoine se presentaron a Google, pero los superiores de la empresa no estuvieron de acuerdo con sus afirmaciones. (Public domain) Brian Gabriel, un vocero de la compañía, dijo en un comunicado que las preocupaciones de Lemoine han sido revisadas y, de acuerdo con los Principios de IA de Google, “la evidencia no respalda sus afirmaciones”. Gabriel dijo: “Si bien otras organizaciones han desarrollado y ya han lanzado modelos de lenguaje similares, estamos adoptando un enfoque estrecho y cuidadoso con LaMDA para considerar mejor las preocupaciones válidas sobre la equidad y la factualidad. Nuestro equipo, incluidos especialistas en ética y tecnólogos, ha revisado las preocupaciones de Blake según nuestros Principios de IA y le ha informado que la evidencia no respalda sus afirmaciones. Le dijeron que no había evidencia de que LaMDA fuera consciente (y mucha evidencia en contra). Por supuesto, algunos en la comunidad de IA más amplia están considerando la posibilidad a largo plazo de una IA sensible o general, pero no tiene sentido hacerlo antropomorfizando los modelos conversacionales actuales, que no son sensibles. 

Estos sistemas imitan los tipos de intercambios que se encuentran en millones de oraciones y pueden tocar cualquier tema fantástico”. Lemoine ha sido puesto en licencia administrativa remunerada por sus funciones como investigador en la división de IA responsable (enfocada en tecnología responsable en inteligencia artificial en Google). SÍGUENOS EN TELEGRAM 

En una nota oficial, el ingeniero de software senior dijo que la compañía alega una violación de sus políticas de confidencialidad. 

Lemoine no es el único con esta impresión de que los modelos de IA no están lejos de lograr una conciencia propia, ni de los riesgos que implican los desarrollos en esta dirección. Margaret Mitchell, exjefe de ética en inteligencia artificial de Google, incluso enfatizó la necesidad de transparencia de datos desde la entrada hasta la salida de un sistema “no solo por problemas de sensibilidad, sino también por sesgo y comportamiento”.

 Otros investigadores han expresado sus opiniones y su preocupación sobre el futuro de la inteligencia artificial. ¿Se volverá realmente consciente la IA? ¿Representa un peligro para la humanidad? Esas preguntas se responderán en los siguientes años.

Este artículo ha sido copiado del sitio web https://codigooculto.com - Puede leer más en: https://codigooculto.com/tecnologia/ingeniero-software-advierte-inteligencia-artificial-ha-mostrado-sentimientos-pensamientos/?fbclid=IwAR3nVhX-LPuJJXn5pC0Y4J6d2h7fmmMLAWoBYcDI_B4SBAiA2B48JoaRSWo - Ningún contenido publicado en CodigoOculto.com puede ser copiado, distribuido, publicado, reescrito o utilizado de ninguna manera, en su totalidad o en parte, sin una autorización previa y por escrito de CodigoOculto.com

...................
 Relacionado

La inteligencia artificial , ha nacido , esta viva , se aloja en los servidores del corretaje de alta frecuencia, y lee mi blog (y acompaño pruebas)

http://economiaytecnologiaentrujillo.blogspot.com/2020/09/la-inteligencia-artificial-ha-nacido.html

sábado, 5 de septiembre de 2020

No hay comentarios:

Publicar un comentario