Vistas de página en total

domingo, 5 de agosto de 2018

Cinco de las predicciones más aterradoras sobre inteligencia artificial

Cinco de las predicciones más aterradoras sobre inteligencia artificial



Los participantes en el Día Inteligencia Artificial (IA) de Intel se paran frente a un póster durante el evento en la ciudad india de Bangalore el 4 de abril de 2017.
Manjunath Kiran | AFP | imágenes falsas
Cuando la gente piensa en la inteligencia artificial (IA), a menudo vienen a la mente escenas de asesinos de androides y computadoras no aprobadas.
Películas de Hollywood como "Blade Runner" y "The Terminator" nos han inculcado un sentimiento de temor ante la idea de que una IA vaya en contra de su programación y se vuelva contra los humanos.
Para una industria que podría generar más de $ 1 billón en valor comercial este año, y casi $ 4 billones en 2022 , cualquier duda importante sobre sus implicaciones éticas podría tener consecuencias significativas.
AI es una palabra de moda que se utiliza a menudo en el mundo de los negocios y en los medios de comunicación, pero ya está teniendo efectos tangibles para una gran cantidad de industrias, sobre todo aquellas que dependen de una cantidad significativa de mano de obra.
A medida que la inteligencia artificial se aproxima cada vez más a la madurez y las empresas continúan incrementando las inversiones en ella, a algunos les preocupa que no se esté prestando suficiente atención a las implicaciones sociales y morales más amplias de la tecnología.
CNBC habló con algunos expertos para ver cuáles creen que son los cinco escenarios futuros más espeluznantes para la inteligencia artificial.
  • Un trabajador ensambla señales de cruce de ferrocarril en las instalaciones de fabricación de Siemens Rail Automation en Louisville, Kentucky.
    Luke Sharrett | Bloomberg | imágenes falsas
  • Paro masivo

    Un temor común entre los analistas y, de hecho, los trabajadores, es la probabilidad de que la inteligencia artificial dé lugar a un desempleo global masivo a medida que los empleos se automatizan y el trabajo humano ya no es necesario.
    "Las pérdidas de empleos son probablemente la mayor preocupación", dijo Alan Bundy, profesor de la escuela de informática de la Universidad de Edimburgo.
    Según Bundy, la pérdida de empleos es la razón principal del aumento del populismo en todo el mundo; cita la elección del presidente Donald Trumpy la decisión del Reino Unido de retirarse de la Unión Europea como ejemplos.
    "Habrá una necesidad para los humanos de organizar una colección de aplicaciones de enfoque restringido, y detectar los casos límite que ninguno de ellos pueda manejar, pero esto no reemplazará el desempleo masivo esperado, al menos no por un tiempo muy largo. ", agregó.
    Los defensores de AI dicen que la tecnología conducirá a la creación de nuevos tipos de trabajos.
    Se intensificará la necesidad de ingenieros, ya que la sofisticación de la nueva tecnología requiere el talento adecuado para desarrollarla.
    Los humanos también tendrán que usar la inteligencia artificial, dicen los defensores, para realizar nuevas funciones en sus funciones cotidianas.
    La firma de investigación Gartner predice que AI creará 2,3 millones de empleos y eliminará 1,8 millones, un aumento neto de 500,000 empleos para 2020. Eso no elimina el hecho de que provocaría despidos en todo el mundo.
    Un estudio de 2013 de la Universidad de Oxford menciona con frecuenciaque algunos de los trabajos más reemplazables incluyen empleados de corretaje, cajeros de bancos, aseguradores y preparadores de impuestos, ocupaciones críticas, aunque menos capacitadas, que mantienen la industria financiera en movimiento.
    Si bien es posible minimizar el daño al mercado laboral causado por la IA mediante el aumento de habilidades y la invención de nuevos empleos, y tal vez incluso la introducción de un ingreso básico universal , es evidente que la pérdida de empleos no desaparecerá pronto.
  • Un robot distribuye literatura promocional solicitando la prohibición de armas completamente autónomas en Parliament Square.
    Oli Scarff | imágenes falsas
  • Guerra

    El advenimiento de los llamados "robots asesinos" y otros usos de la inteligencia artificial en aplicaciones militares ha preocupado a expertos que la tecnología podría terminar en guerra.
    El presidente ejecutivo de Tesla, Elon Musk, conocido por sus opiniones abiertas sobre la IA, advirtió el año pasado que la tecnología podría resultar en la Tercera Guerra Mundial .
    Aunque conocido por su hipérbole, el comentario de Musk canalizó un temor muy real para los expertos. Algunos analistas y activistas sostienen que el desarrollo de armas letales autónomas y el uso de la inteligencia artificial en la toma de decisiones militares crea una multitud de dilemas éticos y abre la posibilidad de guerras intensificadas por la IA o lideradas por la IA.
    Incluso hay un grupo de ONG (organizaciones no gubernamentales) dedicadas a prohibir tales máquinas. La Campaña para Detener Killer Robots, creada en 2013, hace un llamado a los gobiernos para prevenir el desarrollo de drones y otros vehículos impulsados ​​por inteligencia artificial.
    Frank van Harmelen, un investigador de IA de la Vrije Universiteit Amsterdam, dijo que aunque no creía que usar la palabra "miedo" para describir a AI fuera completamente exacto, el uso de estas armas debería asustar a cualquiera.
    "La única área donde realmente creo que la palabra 'miedo' se aplica es sistemas de armas autónomas ... sistemas que pueden o no parecerse a un robot", dijo Harmelen.
    "Cualquier sistema informático, ya sea AI o no, que automáticamente decide sobre asuntos de vida o muerte, por ejemplo, lanzando un misil, es una idea realmente aterradora".
    A principios de este año, el grupo de expertos de defensa estadounidense Rand Corporation advirtió en un estudio que el uso de IA en aplicaciones militares podría dar lugar a una guerra nuclear para 2040 .
    El pensamiento detrás de esa audaz predicción fue que la posibilidad de que un sistema militar de Inteligencia Artificial cometa un error en su análisis de una situación podría llevar a las naciones a tomar decisiones apresuradas y potencialmente catastróficas.
    Esas preocupaciones surgieron de un incidente infame en 1983, cuando el ex oficial del ejército soviético Stanislav Petrov notó que las computadoras rusas habían emitido incorrectamente una advertencia de que Estados Unidos había lanzado misiles nucleares, evitando la guerra nuclear.
  • Robo doctores

    Aunque los expertos están de acuerdo sobre los beneficios que la IA proporcionará a los médicos, como diagnosticar enfermedades desde el principio y acelerar la experiencia general de atención médica, algunos médicos y académicos son cautelosos en cuanto a las prácticas médicas basadas en datos. rápido.
    Uno de los temores entre los académicos es que las personas esperan demasiado de IA, suponiendo que pueda formar el tipo de inteligencia general que los humanos poseen para resolver una amplia gama de tareas.
    "Todas las aplicaciones de inteligencia artificial exitosas hasta la fecha son increíblemente exitosas, pero en un rango muy reducido de aplicaciones", dijo Bundy de la Universidad de Edimburgo.
    Según Bundy, estas expectativas podrían tener consecuencias potencialmente graves para una industria como la sanidad. "Una aplicación de diagnóstico médico, que es excelente para problemas cardíacos, podría diagnosticar a un paciente con cáncer con algún tipo raro de problema cardíaco, con resultados potencialmente fatales", dijo.
    Apenas la semana pasada, un informe de la publicación centrada en la salud, Stat, citó documentos internos de IBM que mostraban que la supercomputadora Watson del gigante tecnológico había hecho múltiples recomendaciones "inseguras e incorrectas" para el tratamiento del cáncer . Según el artículo, el software fue entrenado solo para tratar con un pequeño número de casos y escenarios hipotéticos en lugar de datos reales del paciente.
    "Creamos Watson Health hace tres años para llevar a AI a algunos de los mayores desafíos en el cuidado de la salud, y estamos satisfechos con el progreso que estamos logrando", dijo un portavoz de IBM a CNBC.
    "Nuestras ofertas de oncología y genómica son utilizadas por 230 hospitales de todo el mundo y han apoyado la atención de más de 84,000 pacientes, que es casi el doble de pacientes a finales de 2017".
    El vocero agregó: "Al mismo tiempo, hemos aprendido y mejorado Watson Health en base a la retroalimentación continua de los clientes, nueva evidencia científica y nuevos cánceres y alternativas de tratamiento. Esto incluye 11 lanzamientos de software para una funcionalidad aún mejor durante el año pasado, incluyendo nacional pautas para cánceres que van desde cáncer de colon a hígado ".
    Otra preocupación es que el volumen de datos engullidos por las computadoras y compartidos sobre ellos -así como los algoritmos basados ​​en datos que automatizan las aplicaciones al usar esos datos- podría tener implicaciones éticas sobre la privacidad de los pacientes.
    El comienzo de los macrodatos, ahora una industria multimillonaria que abarca desde comercio hasta hospitalidad, significa que la cantidad de información personal que pueden recolectar las máquinas se ha disparado a un tamaño insondable.
    El fenómeno se promociona como un gran adelanto para el mapeo de diversas enfermedades, que predice la probabilidad de que una persona se enferme gravemente y examine el tratamiento con anticipación. Pero las preocupaciones sobre la cantidad de datos que se almacenan y dónde se comparten están resultando problemáticos.
    Tome DeepMind, por ejemplo. La firma de AI propiedad de Google firmó un acuerdo con el Servicio Nacional de Salud del Reino Unido en 2015, dándole acceso a los datos de salud de 1,6 millones de pacientes británicos. El esquema significaba que los pacientes entregaban sus datos a la compañía para mejorar la capacidad de sus programas para detectar enfermedades. Condujo a la creación de una aplicación llamada Streams, dirigida a monitorear pacientes con enfermedades renales y alertar a los médicos cuando la condición del paciente se deteriora.
    Pero el año pasado, el organismo de vigilancia de la privacidad del Reino Unido, la Oficina del Comisionado de Información, dictaminó que el contrato entre el NHS y DeepMind "no cumplía con la ley de protección de datos". La ICO dijo que el Royal Free Hospital de Londres, que trabajó con DeepMind como parte del acuerdo, no fue transparente con respecto a la forma en que se utilizarían los datos de los pacientes.
  • La tecnología de detección y seguimiento de objetos desarrollada por SenseTime se muestra en una pantalla en la Exhibición y Conferencia de Inteligencia Artificial en Tokio, Japón, el miércoles 4 de abril de 2018. SenseTime recaudó la mayor cantidad de dinero para una puesta en marcha de AI en abril en un trato dirigido por Alibaba.
    Bloomberg | imágenes falsas
  • Vigilancia masiva

    Los expertos también temen que la inteligencia artificial pueda ser utilizada para la vigilancia masiva. En China , ese miedo parece convertirse en realidad.
    En varios municipios chinos, la combinación de tecnología de reconocimiento facial e IA se está utilizando en beneficio de las autoridades para reprimir el delito.
    La superpotencia mundial es conocida por su autoritarismo social, ya que el culto a la personalidad del difunto presidente Mao Zedong sigue siendo muy omnipresente en toda la nación, cuatro décadas después de su muerte. Y los críticos dicen que el impulso de la nación hacia la vigilancia total es nada menos que una pesadilla orwelliana.
    Actualmente, China alberga unos 200 millones de cámaras de vigilancia, según un informe del New York Times publicado a principios de este mes. También es el único país del mundo que desarrolla un "sistema de crédito social" que rastrea las actividades de los ciudadanos para clasificarlos con puntajes que pueden determinar si pueden prohibir el acceso a todo, desde vuelos de avión hasta ciertos servicios de citas en línea.
    China, que aspira a ser el líder mundial en inteligencia artificial para el año 2030, quiere aumentar el valor de su sector de IA a 1 billón de yuanes ($ 146,6 mil millones). El país está invirtiendo miles de millones en el sector para ayudar a impulsar esta ambición.
    Una de las compañías que lidera la amalgama de inteligencia artificial y tecnología de reconocimiento facial es SenseTime. Se cree que es el arranque de IA más valioso del mundo, con una valoración de $ 4.5 mil millones , Alibaba -backed SenseTime proporciona a las autoridades de Guangzhou y la provincia de Yunnan identificación facial con tecnología AI.
    SenseTime dice en su sitio web que la oficina de seguridad pública de Guangzhou ha identificado a más de 2.000 sospechosos de delitos desde 2017 con la ayuda de la tecnología.
    Toby Walsh, profesor de AI en la Universidad de Nueva Gales del Sur, dijo que la vigilancia estaba "en lo alto" en su lista de las aterradoras ramificaciones que surgen de la IA.
  • Gorjeo
  • Discriminación

    Algunos lectores pueden recordar Tay , un chatbot de IA creado por Microsoft que causó revuelo hace dos años.
    El bot recibió una cuenta de Twitter y los usuarios tardaron menos de un día en entrenarla para publicar tweets ofensivos que apoyan a Adolf Hitler y la supremacía blanca. El problema aquí fue el hecho de que el chatbot fue entrenado para imitar a los usuarios que interactúan con él en línea. Teniendo en cuenta la naturaleza a menudo oscura de algunos rincones de Internet, podría decirse que los tweets ofensivos no eran sorprendentes.
    El error obligó a Microsoft a retirar la cuenta. Aunque el incidente resultó algo humorístico, encendió un debate serio sobre la posibilidad de que AI se vea perjudicada.
    Walsh dijo que la discriminación es una de las "consecuencias inesperadas" que se esperan de la tecnología.
    "Estamos viendo esto con un sesgo involuntario en los algoritmos, especialmente el aprendizaje automático que amenaza con generar sesgos raciales, sexuales y de otro tipo que hemos pasado los últimos 50 años tratando de eliminar de nuestra sociedad", dijo.
    El tema, según los expertos, se relaciona con la factibilidad de hacer de AI un pensador objetivo y racional, sin sesgos a favor de una raza, género o sexualidad en particular.
    Es algo en lo que los investigadores y desarrolladores han pensado seriamente, examinando aspectos como la forma en que la tecnología de reconocimiento facial se ve mejor en las caras blancas que las negras , y cómo los sistemas de inteligencia artificial pueden presentar prejuicios , asociando ciertos géneros y razas con funciones estereotipadas.
    IBM incluso tiene investigadores dedicados a abordar la discriminación en IA, y este año dijo que lanzaría dos conjuntos de datos que contienen una amplia gama de rostros con diferentes tonos de piel y otros atributos faciales para reducir el sesgo en los sistemas de reconocimiento facial accionados por inteligencia artificial.

No hay comentarios:

Publicar un comentario