Vistas de página en total

miércoles, 26 de septiembre de 2018

Los Gigantes Tecnológicos lanzan nuevas herramientas de Inteligencia Artificial a medida que aumentan las preocupaciones sobre la explicación

Los Gigantes Tecnológicos lanzan nuevas herramientas de Inteligencia Artificial a medida que aumentan las preocupaciones sobre la explicación

https://blogs.wsj.com/cio/2018/09/26/tech-giants-launch-new-ai-tools-as-worries-mount-about-explainability/?mod=hp_minor_pos4

Alrededor del 60% de los 5.000 ejecutivos encuestados en IBM expresaron su preocupación por la "caja negra" de AI

Un logotipo se encuentra iluminado en el centro IoT de International Business Machines Corp. en Munich, 10 de agosto de 2017. Fotógrafo: Andreas Arnold / Bloomberg
Un logotipo se encuentra iluminado en el centro IoT de International Business Machines Corp. en Munich, 10 de agosto de 2017. Fotógrafo: Andreas Arnold / Bloomberg PHOTO: / BLOOMBERG NEWS
Las preocupaciones sobre la transparencia y la ética en la inteligencia artificial están aumentando, lo que hace que las empresas de servicios en la nube lanzan nuevas herramientas que expliquen la toma de decisiones detrás de sus algoritmos de inteligencia artificial.
Los ejecutivos de industrias reguladas como la contabilidad y las finanzas dicen que es crucial que tanto los científicos de datos como los gerentes comerciales no técnicos entiendan los procesos detrás de una decisión algorítmica. Ese conocimiento podría tener un impacto de gran alcance en la protección contra posibles infracciones éticas y regulatorias, especialmente a medida que los algoritmos de IA a nivel empresarial se generalicen.
"No creo que sea posible para AI escalar en la empresa más allá de cientos de (experimentos) a menos que tenga esa capacidad de explicación", dijo Vinodh Swaminathan, director de automatización inteligente, cognitiva e inteligencia artificial en la división de soluciones empresariales e innovación KPMG LLP. .
Los problemas de explicación han llevado a compañías como International Business Machines Corp. y Alphabet's Google Inc. a incorporar herramientas de transparencia y ética en sus ofertas de servicios de inteligencia artificial basados ​​en la nube.
Alrededor del 60% de los 5.000 ejecutivos encuestados en un estudio reciente del Instituto de Valor Empresarial de IBM dijeron que les preocupaba poder explicar cómo AI usa datos y toma decisiones para cumplir con los estándares regulatorios y de cumplimiento. Eso es un aumento del 29% en 2016.
Barriers in Implementing AI: 2016 Versus 2018Source: IBM Institute for Business Value surveys on AI/cognitive computing in collaborationwith Oxford Economics. 2016 and 2018.
20162018Availability of skilledresources or technicalskillsRegulatory constraintsLegal/security/privacyconcernsDegree of organizationalbuy-in/readiness/cultural fitData governance andpoliciesAvailability of data todraw context fordecision makingAvailability oftechnologyDegree of executivesupportDegree of customerreadiness020406080
Las decisiones de AI a veces pueden ser cajas negras tanto para los científicos de datos que los diseñan como para los ejecutivos de negocios que pregonan sus beneficios. Esto es especialmente cierto en las herramientas de aprendizaje profundo , como las redes neuronales que se utilizan para identificar patrones en los datos, cuya estructura trata de imitar las operaciones del cerebro humano.
Si bien estos sistemas pueden sacar conclusiones con una precisión y velocidad sin precedentes, no siempre es claro cómo la densa red de cálculos llega a una decisión específica.
KPMG está construyendo sus propias herramientas de explantabilidad utilizando científicos de datos internos y también está confiando en las nuevas herramientas de transparencia de IBM. El objetivo es garantizar que los empleados tanto de la tecnología como del negocio puedan "abrir la caja negra" y determinar exactamente cómo llegaron los algoritmos de inteligencia artificial a sus conclusiones, dijo Swaminathan.
Las nuevas herramientas de IA basadas en la nube de IBM, anunciadas la semana pasada , pueden mostrar a los usuarios cuáles fueron los principales factores que llevaron a una recomendación basada en la inteligencia artificial. Las herramientas también pueden analizar decisiones de AI en tiempo real para identificar sesgos inherentes y recomendar datos y métodos para abordar ese sesgo. Las herramientas funcionan con los servicios de IA de IBM y los de otros proveedores de servicios en la nube, incluido Google, dijo David Kenny, vicepresidente senior de soluciones cognitivas en IBM.
Poder descomprimir esos modelos y comprender de dónde vino todo ayuda a comprender cómo se está llegando a la decisión", dijo el Sr. Kenny.
Vinodh Swaminathan, director de automatización inteligente, cognitivo e inteligencia artificial de KPMG LLP, dice que la firma de contabilidad está construyendo sus propias herramientas de inteligencia artificial.
Vinodh Swaminathan, director de automatización inteligente, cognitivo e inteligencia artificial de KPMG LLP, dice que la firma de contabilidad está construyendo sus propias herramientas de inteligencia artificial. FOTO: KPMG
El año pasado, Google comenzó a lanzar nuevas herramientas para su código de aprendizaje automático de código abierto que son "parte de un esfuerzo de investigación más amplio sobre la interpretación ... para cumplir objetivos de política", según una publicación de blog escrita por científicos e ingenieros de software de Google. Otra herramienta de Google AI lanzada a principios de este mespermite a los no programadores examinar y depurar los sistemas de aprendizaje automático en un esfuerzo por evaluar la equidad en los algoritmos.
Un portavoz de Microsoft Corp., que ofrece servicios de inteligencia artificial a través de su nube Azure, dijo que los sistemas de IA deben diseñarse con protecciones para la equidad, la transparencia y la seguridad, de una manera que gane confianza, lo cual es un esfuerzo continuo para la compañía. Amazon.com Inc. no respondió a una solicitud de comentarios.
Capital One Financial Corp. y Bank of America Corp. también se encuentran entre las empresas de la industria financiera altamente regulada que están investigando formas en que los algoritmos de inteligencia artificial pueden explicar la razón de ser de sus respuestas. Ambas compañías han dicho que apuntan a utilizar la inteligencia artificial para mejorar la detección de fraudes, pero primero, deben comprender cómo funcionan realmente los algoritmos.
"Hasta que tenga confianza en la capacidad de explicación, debe tener cuidado con los algoritmos que utiliza", dijo Rob Alexander, director de información de Capital One.
Las preocupaciones sobre la explicabilidad de AI también se extienden más allá del sector privado. El brazo de investigación del Departamento de Defensa de EE. UU., Por ejemplo , está organizando un esfuerzo internacional para construir los llamados sistemas AI explicables que pueden traducir decisiones complejas hechas por algoritmos en un lenguaje que los humanos pueden entender.

No hay comentarios:

Publicar un comentario