OpenAI y Anthropic compartirán modelos de IA con el gobierno de EE. UU.
Los principales desarrolladores de IA generativa OpenAI y Anthropic acordaron darle al gobierno de Estados Unidos acceso a sus nuevos modelos para pruebas de seguridad como parte de los acuerdos anunciados el jueves.
Los acuerdos se realizaron con el Instituto de Seguridad de Inteligencia Artificial de Estados Unidos, que forma parte del Instituto Nacional de Estándares y Tecnología (NIST), una agencia federal.
La regulación de la IA ha sido una preocupación importante desde la llegada de ChatGPT de OpenAI, y las empresas tecnológicas presionan para que se adopte un enfoque voluntario para abrir su tecnología a la supervisión gubernamental.
La agencia dijo que brindaría retroalimentación a ambas compañías sobre posibles mejoras de seguridad en sus modelos antes y después de su lanzamiento público, trabajando en estrecha colaboración con su contraparte en el Instituto de Seguridad de IA del Reino Unido.
“Estos acuerdos son solo el comienzo, pero son un hito importante a medida que trabajamos para ayudar a administrar de manera responsable el futuro de la IA”, dijo Elizabeth Kelly, directora del Instituto de Seguridad de la IA de EE. UU.
La agencia dijo que las evaluaciones tendrían como objetivo respaldar los compromisos voluntarios asumidos por los principales desarrolladores de modelos de IA, como OpenAI y Anthropic, a medida que innovan.
“Nuestra colaboración con el Instituto de Seguridad de Inteligencia Artificial de Estados Unidos aprovecha su amplia experiencia para probar rigurosamente nuestros modelos antes de su implementación generalizada”, dijo Jack Clark, cofundador y director de políticas de Anthropic.
“Esto fortalece nuestra capacidad para identificar y mitigar riesgos, impulsando el desarrollo responsable de la IA”, añadió.
La colaboración es parte del trabajo relacionado con una orden ejecutiva de la Casa Blanca sobre IA anunciada en 2023 que fue diseñada para proporcionar un marco legal para la rápida implementación de modelos de IA en los Estados Unidos.
Washington está ansioso por dejar a las empresas tecnológicas vía libre para innovar y experimentar con IA, a diferencia de la Unión Europea, donde los legisladores aprobaron una ambiciosa Ley de IA para regular más de cerca la industria.
Pero los legisladores pro-regulación en California, el estado donde se encuentra Silicon Valley, impulsaron el miércoles un proyecto de ley de seguridad de IA estatal que ahora necesita ser firmado por el gobernador para convertirse en ley.
En una publicación en las redes sociales en la que celebraba el acuerdo de su empresa con el gobierno de Estados Unidos, el director ejecutivo de OpenAI, Sam Altman, dijo que era “importante” que la regulación se llevara a cabo a nivel nacional.
Esta fue una crítica velada a la ley estatal aprobada en California, que incluye sanciones por cualquier violación, a la que OpenAI se opuso, argumentando que sofocará la investigación y la innovación.
No hay comentarios:
Publicar un comentario