El mercado exige IA ética
https://www.barrons.com/articles/the-marketplace-is-demanding-ethical-ai-51609102357?mod=hp_COMMENTARY_1
David S. Rubenstein
29 de diciembre de 2020 8:00 am ET
Cada noche de lunes a viernes destacamos las noticias de mercado más importantes del día y explicamos lo que probablemente importe mañana.
Tiempo de sueños
La inteligencia artificial está preparada para alterar todos los principales mercados y sistemas sociales. Ya sea para bien o para mal, no es la cuestión. En cambio, las preguntas son de quién será la vida mejor y peor, de qué manera y bajo qué reglas o condiciones. En las condiciones adecuadas, la IA puede ser muy beneficiosa y una fuerza positiva. Sin embargo, en condiciones inadecuadas, la IA puede provocar una discriminación generalizada y reforzar las disparidades socioeconómicas existentes.
El uso de la IA en la atención médica ofrece un ejemplo de estas tensiones: un algoritmo diseñado para orientar las intervenciones médicas a los pacientes más enfermos tuvo el efecto involuntario de canalizar recursos a una población blanca más saludable, en detrimento de los pacientes negros más enfermos. El uso de la IA también puede provocar invasiones de la privacidad y concentraciones peligrosas de poder . La tecnología de reconocimiento facial es un buen ejemplo. Puede usarse para encontrar niños desaparecidos y terroristas, pero también puede conducir al capitalismo de vigilancia y la recopilación de información biométrica de personas inocentes sin su conocimiento o consentimiento.
Como toda tecnología nueva, la IA soporta la carga de la prueba. Ahora se reconoce ampliamente que la amplia aceptación y adopción de estos sistemas depende de su confiabilidad, que, a su vez, es en parte una función de si los sistemas en uso son transparentes, responsables, seguros y justos. Pero una serie de episodios de alto perfil, en muchos sectores, ha expuesto cómo los sistemas de IA pueden fallar en estos aspectos.
La sociedad ha llegado al punto de inflexión para la regulación gubernamental. Si se hace bien, esto no sofocará la innovación ni el mercado. En cambio, las regulaciones personalizadas pueden catalizar nuevos desarrollos de inteligencia artificial, fortalecer la demanda y crear espacio para empresas emergentes.
Esto puede parecer contradictorio, pero las mismas fuerzas que impulsan la responsabilidad social corporativa en firmas de tecnología líderes, como Google, Microsoft, Apple e IBM, están empujando en la dirección de la "IA ética". Aunque los detalles varían, la IA ética es un conjunto de principios relacionados con la transparencia y la responsabilidad, la equidad y no discriminación, la seguridad y la protección, la privacidad y los derechos humanos.
El apoyo de la industria a la IA ética se puso de manifiesto el verano pasado tras el asesinato de George Floyd, que generó demandas de reforma de la justicia penal. IBM, Amazon y Microsoft anunciaron que detendrían o pausarían la venta de tecnología de reconocimiento facial a la policía estadounidense.
Las razones que ofreció cada empresa son reveladoras. Amazon dijo que estaba retirando su producto del mercado para dar tiempo a los legisladores de "implementar regulaciones más estrictas para regular el uso ético de la tecnología de reconocimiento facial". Microsoft dijo que "no venderá tecnología de reconocimiento facial a los departamentos de policía de los Estados Unidos hasta que tengamos una ley nacional, basada en los derechos humanos, que regirá esta tecnología". En una carta al Congreso, el CEO de IBM dijo que la empresa “no tolerará el uso de ninguna tecnología ... para vigilancia masiva, discriminación racial, violaciones de derechos humanos y libertades básicos, o cualquier propósito que no sea consistente con los valores [de IBM] y Principios de Confianza y Transparencia ”.
Estas declaraciones de la industria deben entenderse como señales dirigidas no exclusivamente, ni siquiera principalmente, al gobierno. Más bien, los líderes de la industria se han enfrentado a una creciente presión para ser administradores responsables de los consumidores, las partes interesadas de la comunidad y de sus propios empleados que han escrito cartas abiertas y huelgas coordinadas .
Más que ideales elevados, la IA ética es un tipo de moneda que habla en voz alta en el mercado. Los estudios de la industria muestran que la IA ética, o la falta de ella, afecta la marca y la reputación de la empresa . Un estudio de 2019 realizado por el grupo de expertos Doteveryone informa que "las empresas están perdiendo personal valioso y altamente calificado, ya que una proporción significativa de trabajadores tecnológicos renuncian a sus trabajos por prácticas irresponsables". Esta fuerza laboral es muy consciente de los riesgos inherentes a los sistemas de inteligencia artificial y desea "pautas prácticas para que puedan innovar con confianza".
La confianza de base amplia no se puede lograr únicamente con los principios del libre mercado, en parte porque muchos de los costos sociales se externalizan y porque la complejidad social y técnica de los ecosistemas de IA enreda las líneas de responsabilidad. Los marcos éticos y los conjuntos de herramientas son pasos en la dirección correcta, pero las empresas aún tienen dificultades para traducir los principios en la práctica. La salida de Google del pionero en ética de la inteligencia artificial Timnit Gebru ha arrojado otro foco de atención sobre los límites de los estándares corporativos voluntarios.
La IA puede hacer cosas increíblemente buenas y malas. También pueden hacerlo las vacunas y los aviones. Esas tecnologías están fuertemente reguladas para reducir los riesgos de daño, lo que a su vez genera la confianza del público y su uso generalizado. La IA no es diferente. Una pila de proyectos de ley pendientes , la orientación regulatoria de la Casa Blanca, el techlash generalizado y la proliferación de estándares éticos , apuntan hacia la necesidad de regular la IA y los datos que alimentan esta tecnología.
Las empresas que estén a la altura del desafío estarán a la vanguardia de los nuevos mercados, incluido el gobierno federal . A pesar de los focos de excelencia, el gobierno no tiene ni cerca de la fuerza laboral interna necesaria para satisfacer su demanda acumulada de defensa nacional, aplicación de la ley, análisis regulatorios, adjudicación de agencias, entrega de servicios gubernamentales y más. Existen oportunidades de contratación, por valor de miles de millones, para soluciones de IA innovadoras y éticas.
A principios de este mes, el presidente Donald Trump emitió una orden ejecutiva que articulaba un conjunto de principios éticos para las agencias federales al adquirir inteligencia artificial del sector privado. Como escribí en un informe reciente con The Great Democracy Initiative, la dependencia del mercado del gobierno de la industria de la tecnología para la IA presenta grandes desafíos, pero también presenta una oportunidad para que las empresas innovadoras sean rentables y una fuente de bien social.
El poder adquisitivo del gobierno federal y la señalización de virtudes en general tendrán un efecto dominó en toda la industria e influirán en los enfoques regulatorios de las agencias para la IA en el corto plazo. Las empresas que se quedan atrás lo harán bajo su propio riesgo. La horrible IA no vende, ni política ni comercialmente.
David S. Rubenstein es el presidente James R. Ahrens de derecho constitucional y director del Centro Robert Dole de Derecho y Gobierno de la Facultad de Derecho de la Universidad de Washburn.
No hay comentarios:
Publicar un comentario