Vistas de página en total

jueves, 6 de diciembre de 2018

El jefe de tecnología de Bank of America define los proyectos responsables de inteligencia artificial

El jefe de tecnología de Bank of America define los proyectos responsables de inteligencia artificial

https://blogs.wsj.com/cio/2018/12/05/bank-of-america-tech-chief-defines-responsible-ai-projects/?guid=BL-CIOB-14647&mod=hp_minor_pos4&dsk=y

Los tecnólogos no pueden perder de vista cómo los algoritmos impactan a las personas reales, dice Cathy Bessant

Cathy Bessant, directora de operaciones y tecnología en Bank of America
Cathy Bessant, directora de operaciones y tecnología de Bank of America FOTO: BANK OF AMERICA CORP.
LA CIUDAD DE NUEVA YORK - La clave para el uso responsable de la inteligencia artificial comienza con la comprensión del problema específico que las compañías están tratando de resolver, dijo Cathy Bessant, directora de operaciones y tecnología de Bank of America Corp.
En Bank of America, los modelos de inteligencia artificial se utilizan en herramientas como la asistente virtual del banco, Erica , que ayuda a los clientes a realizar tareas bancarias básicas. El banco también ha estado estudiando cómo la IA podría mejorar las tasas de detección de fraude .
El desarrollo de esas iniciativas de inteligencia artificial, especialmente a nivel de ejecutivo corporativo, debe comenzar primero con la descripción de un problema y la comprensión de las oportunidades y limitaciones de la tecnología. "La obligación de C-suite realmente es centrarse en lo que estamos tratando de aprender, luego entender lo suficiente sobre las herramientas y probar ... la gente de negocios tiene que entender el arte de lo que es posible con la IA", dijo en una entrevista con CIO Journal después de su discurso en una conferencia de AI el miércoles.
La Sra. Bessant propuso varias mejores prácticas.
Las empresas deben considerar qué herramientas de inteligencia artificial deben construirse internamente en comparación con las herramientas que deben comprarse. Si es necesario comprar herramientas de AI, es crucial que el comprador entienda los detalles del producto, dijo. 
Forbes publica a Rich Karlgaard y la Directora de Operaciones y Tecnología del Bank of America, Cathy Bessant, a la derecha, en el escenario en la Cumbre de AI en la ciudad de Nueva York, el 5 de diciembre de 2018.
Forbes publica a Rich Karlgaard y la Directora de Operaciones y Tecnología del Bank of America, Cathy Bessant, a la derecha, en el escenario de la Cumbre de la IA en la ciudad de Nueva York, el 5 de diciembre de 2018. FOTO: SARA CASTELLANOS / THE WALL STREET JOURNAL
Las pruebas, también, son críticas en el despliegue responsable de inteligencia artificial. "Muchos de los efectos de la IA, de los modelos, pueden no ser conocidos de inmediato", dijo. La gente a menudo asume que las máquinas son mejores que los humanos en casos de uso específicos, pero eso no siempre es cierto, dijo.
Las pruebas deben basarse en el nivel de riesgo de la implementación, dijo. Por ejemplo, las pruebas serán diferentes para un sistema AI que predice la próxima compra de un usuario en comparación con un sistema AI que alimenta un vehículo autónomo.
Bank of America crea sus propios algoritmos y modelos de computadora. También compra algunos de empresas de tecnología. De cualquier manera, el banco los prueba para asegurarse de que producen los resultados esperados antes de ponerlos en servicio con los clientes o empleados, ha dicho la Sra. Bessant anteriormente.
La compañía anunció en abril el Consejo sobre el uso responsable de la inteligencia artificial para estudiar la ética y las consecuencias de la IA. Se une a otros bancos, incluido Capital One Financial Corp., que están investigando formas en que los algoritmos de AI podrían explicar la razón de sus respuestas.
La Sra. Bessant habló el miércoles en la conferencia AI Summit en Nueva York sobre la necesidad de que los modelos de AI sean transparentes.
“Tenemos que entender los modelos que estamos creando, los datos (los modelos son) usando ... lo cual es muy difícil de hacer en un ambiente de aprendizaje de máquina,” dijo la Sra Bessant.  
El aprendizaje automático es la ciencia de lograr que las computadoras actúen de manera inteligente sin estar explícitamente programadas. En lugar de escribir todas las reglas, los algoritmos permiten que la computadora determine por sí misma cómo interpreta los datos.
La Sra. Bessant desempeñó funciones comerciales y de marketing antes de asumir su trabajo actual en 2010, lo que, según ella, es una ventaja. Ella cree firmemente que las decisiones sobre el uso de tecnologías como la inteligencia artificial deben ser tomadas por personas que entienden tanto los negocios como la tecnología.
"Las decisiones importantes de las que estamos hablando tienen que ser tomadas en realidad por personas que entienden a los dos, que entienden a los clientes, los clientes y los negocios, los entornos regulatorios, la ética empresarial y que comprenden cómo puede y debe funcionar la tecnología", dijo en la conferencia.
Los tecnólogos a cargo de crear sistemas de inteligencia artificial nunca deben perder de vista cómo los algoritmos podrían afectar a personas reales, dijo Bessant. “Los modeladores (AI) no pueden separarse de los resultados que están creando. Las apuestas son muy altas aquí ”, dijo.

No hay comentarios:

Publicar un comentario