martes, 24 de octubre de 2017

Imponer nuevas limitaciones puede reducir el potencial de innovación con los sistemas de inteligencia artificial// por Jeremy Straub es profesor asistente de ciencias de la computación en la Universidad Estatal de Dakota del Norte.

Imponer nuevas limitaciones puede reducir el potencial de innovación con los sistemas de inteligencia artificial//  por Jeremy Straub es profesor asistente de ciencias de la computación en la Universidad Estatal de Dakota del Norte.

Opinión: Elon Musk está equivocado sobre la regulación de la inteligencia artificial. 

http://www.marketwatch.com/story/elon-musk-is-wrong-about-regulating-artificial-intelligence-2017-10-24

Por Jeremy Straub

Publicado: Oct 24, 2017 5:27 a.m. ET

Este investigador de AI dice que es la misma razón por la que EE. UU. Evitó regular internet


AFP / Getty Images
Los robots humanos no nos persiguen.

Algunas personas temen que robots fuertemente armados y artificialmente inteligentes puedan tomar el mundo, esclavizar a la humanidad o quizás exterminarnos .

Estas personas, incluido el multimillonario de la industria tecnológica Elon Musk y el eminente físico Stephen Hawking, dicen que la tecnología de inteligencia artificial debe ser regulada para gestionar los riesgos . Pero el fundador de Microsoft, Bill Gates, y Mark Zuckerberg , de Facebook, están en desacuerdo, diciendo que la tecnología no es lo suficientemente avanzada como para que esas preocupaciones sean realistas.

Como alguien que investiga cómo funciona la inteligencia artificial en la toma de decisiones robóticas, aviones no tripulados y vehículos autónomos, he visto lo beneficioso que puede ser. Desarrollé un software de IA que permite a los robots que trabajan en equipos tomar decisiones individuales , como parte de los esfuerzos colectivos para explorar y resolver problemas.

Los investigadores ya están sujetos a las reglas, regulaciones y leyes existentes diseñadas para proteger la seguridad pública. 

Imponer nuevas limitaciones puede reducir el potencial de innovación con los sistemas de inteligencia artificial.


¿Cómo está regulada la IA ahora?

Si bien el término "inteligencia artificial" puede evocar imágenes fantásticas de robots similares a los humanos, la mayoría de las personas se han encontrado antes con la IA. 
Nos ayuda a encontrar productos similares mientras hacemos compras, 
ofrece recomendaciones de películas y TV y
 nos ayuda a buscar sitios web. 
Califica la escritura de los estudiantes , proporciona tutoría personalizada e incluso reconoce objetos que se llevan a través de escáneres de aeropuertos.

Leer: la inteligencia artificial será importante en esta temporada de compras navideñas, incluso si los compradores no lo saben

En cada caso, AI hace las cosas más fáciles para los humanos. Por ejemplo, el software de AI que desarrollé podría usarse para planificar y ejecutar una búsqueda de un campo para una planta o animal como parte de un experimento científico. Pero incluso cuando la IA libera a las personas de hacer este trabajo, todavía basa sus acciones en las decisiones y objetivos humanos sobre dónde buscar y qué buscar.

En áreas como éstas y muchas otras, la IA tiene el potencial de hacer mucho más bien que dañar, si se usa adecuadamente. Pero no creo que se necesiten regulaciones adicionales. Ya existen leyes en los libros de naciones, estados y ciudades que rigen las responsabilidades civiles y penales por acciones perjudiciales. 

Nuestros drones, por ejemplo, deben obedecer las reglamentaciones de la FAA, mientras que los autos autónomos AI deben obedecer las leyes de tránsito regulares para operar en vías públicas.
Think you would win an argument with a robot? Watch this.

Las leyes existentes también cubren lo que sucede si un robot hiere o mata a una persona, incluso si la lesión es accidental y el programador u operador del robot no es penalmente responsable. Si bien los legisladores y los reguladores pueden necesitar refinar la responsabilidad de las acciones de los sistemas de IA a medida que avanza la tecnología, la creación de normas más allá de las que ya existen podría prohibir o ralentizar el desarrollo de capacidades que serían abrumadoramente beneficiosas.

Riesgos potenciales de la inteligencia artificial

Puede parecer razonable preocuparse por los investigadores que desarrollan sistemas de inteligencia artificial muy avanzados que pueden operar completamente fuera del control humano. Un experimento de pensamiento común trata sobre un automóvil que se autoimpulsa forzado a tomar una decisión sobre si atropellar a un niño que acaba de pisar la carretera o virar en una baranda de protección, lesionando a los ocupantes del automóvil y tal vez incluso a los de otro vehículo.

Musk y Hawking, entre otros, se preocupan de que los sistemas de IA hipercapacesibles, que ya no se limitan a un solo conjunto de tareas, como controlar un auto sin conductor, puedan decidir que ya no necesitan a los humanos. Incluso podría considerar la administración humana del planeta, los conflictos interpersonales, el robo, el fraude y las guerras frecuentes, y decidir que el mundo sería mejor sin personas .

El autor de ciencia ficción Isaac Asimov trató de abordar este potencial proponiendo tres leyes que limitan la toma de decisiones del robot: los robots no pueden dañar a los humanos ni permitir que "lleguen a dañarse". También deben obedecer a los humanos, a menos que esto perjudique a los humanos. siempre y cuando esto no dañe a los humanos o ignore una orden.
These robots want to steal your heart, not your job

Pero el mismo Asimov sabía que las tres leyes no eran suficientes. Y no reflejan la complejidad de los valores humanos. Lo que constituye "daño" es un ejemplo: ¿un robot debería proteger a la humanidad del sufrimiento relacionado con la superpoblación, o debería proteger la libertad de las personas para tomar decisiones reproductivas personales?

Los humanos ya hemos luchado con estas preguntas en nuestras propias inteligencias no artificiales. Los investigadores han propuesto restricciones a las libertades humanas, incluida la reducción de la reproducción, para controlar el comportamiento de las personas, el crecimiento de la población y el daño ambiental. En general, la sociedad ha decidido no usar esos métodos, incluso si sus objetivos parecen razonables. De manera similar, en lugar de regular lo que los sistemas de IA pueden y no pueden hacer, en mi opinión, sería mejor enseñarles ética y valores humanos, como lo hacen los padres con los niños humanos.

Beneficios de inteligencia artificial

Las personas ya se benefician de la IA todos los días, pero esto es solo el comienzo. Los robots controlados por IA podrían ayudar a las fuerzas del orden público a responder a los hombres armados humanos. Los esfuerzos actuales de la policía deben enfocarse en evitar que los oficiales sean dañados, pero los robots podrían entrar en peligro, potencialmente cambiando los resultados de casos como el reciente tiroteo de un estudiante universitario armado en Georgia Tech y un estudiante de secundaria desarmado en Austin.

Los robots inteligentes también pueden ayudar a los humanos de otras maneras. Pueden realizar tareas repetitivas, como procesar datos de sensores, donde el aburrimiento humano puede causar errores. Pueden limitar la exposición humana a materiales peligrosos y situaciones peligrosas, como cuando se descontamina un reactor nuclear, trabajando en áreas donde los humanos no pueden ir. En general, los robots de IA pueden proporcionar a los humanos más tiempo para buscar lo que ellos definen como felicidad, liberándolos de tener que hacer otro trabajo.

Leer: La muerte de la carta de presentación, y otras formas en que los robots cambian de contratación

Lograr la mayoría de estos beneficios requerirá mucha más investigación y desarrollo. Las regulaciones que hacen que sea más costoso desarrollar AI o prevenir ciertos usos pueden retrasar o prevenir esos esfuerzos. Esto es particularmente cierto para las pequeñas empresas y las personas, impulsores clave de las nuevas tecnologías, que no están tan bien equipados para lidiar con el cumplimiento normativo como las empresas más grandes. De hecho, el mayor beneficiario de la regulación de la inteligencia artificial puede ser las grandes empresas que están acostumbradas a lidiar con ella, porque a las nuevas empresas les será más difícil competir en un entorno regulado.

La necesidad de innovación

La humanidad se enfrentó a un conjunto similar de problemas en los primeros días de Internet. Pero Estados Unidos evitó activamente la regulación de Internet para evitar retrasar su crecimiento inicial. Musk's PayPal y muchas otras empresas ayudaron a construir el mundo moderno en línea mientras que estaban sujetas únicamente a reglas regulares a escala humana, como aquellas que previenen el robo y el fraude.

Los sistemas de inteligencia artificial tienen el potencial de cambiar la manera en que los humanos hacen casi todo. Los científicos, ingenieros, programadores y empresarios necesitan tiempo para desarrollar las tecnologías y ofrecer sus beneficios. Su trabajo debe estar libre de preocupaciones de que algunos AIs puedan ser prohibidos, y de los retrasos y costos asociados con las nuevas regulaciones específicas de AI.

Jeremy Straub es profesor asistente de ciencias de la computación en la Universidad Estatal de Dakota del Norte. Este apareció por primera vez en The Conversation - "¿La inteligencia artificial reguladora salva a la humanidad o simplemente reprime la innovación?"

No hay comentarios:

Publicar un comentario