img_header

¿Leyes de la Inteligencia Artificial?

Post Imagen

En estos momentos, queda claro que la Inteligencia Artificial está más cerca de los libros de historia que de los de ciencia ficción. Todos hablan y trabajan en ella... excepto por los encargados de legislar en esta materia.  Al parecer hay más preguntas que respuestas en este campo ¿ Es buena o mala la I.A ?  ¿Cuando empezamos a regularla? Sin embargo no podemos esperar a tener todas las respuestas para empezar a trabajar, por que mientras lees esto, en algún lado (probablemente de Estados Unidos o China) alguien está afinando un sistema inteligente.




En diciembre del  2017, tuvimos el primer proyecto de ley por parte del congreso de Estados Unidos "El futuro de la Inteligencia Artificial" que busca conformar un comité que se especialice en este tema y que sea capaz de emitir recomendaciones y propuestas en el senado. Esta iniciativa no solo busca regular, sino dotar de conocimiento a los legisladores, para que a la hora de crear leyes, no detengan los avances y el espíritu de los innovares encargados de llevarnos al futuro.  A pesar de que esta iniciativa no ataca el problema de raíz, permitirá que todos hablen el mismo "idioma"


Oren Etzione CEO del Instituto Allen de Investigación de Inteligencia Artificial cree que podemos empezar a hablar de regulación a la Inteligencia Artificial partiendo de estas tres reglas, las cuales creó  tomando como inspiración las famosas reglas de Isaac Asimov



Primera Regla: las leyes que se apliquen a la inteligencia artificial debe ser las mismas que se aplican a los humanos. Así como los humanos no deben infringir los reglamentos de tránsito, las inteligencias artificiales tampoco deberían. Además, el hecho de no poder anticipar la respuesta de un sistema de I.A no debería ser un atenuante o liberación de responsabilidad de ninguna clase.

Segunda regla: Los sistemas de I.A deben dar a conocer que NO SON HUMANOS, no podemos engañar al público haciendo pasar a un software inteligente por una persona física.  En muchos casos hemos visto que los sistemas inteligentes ya son lo suficientemente sofisticados  como para entablar una plática con humanos sin que estos sospechen quien está del otro lado de la pantalla. Tan solo recordemos el famoso incidente de Facebook y sus bots inteligentes , los cuales fueron creados para hablar fluidamente con humanos, y no sólo lo lograron sino que terminaron creando un "lenguaje" entre ellos.

Tercera regla: Un sistema de I.A no puede divulgar ningún tipo de información confidencial sin la aprobación de la fuente de dicha información.  Imaginemos un sistema como Siri que puede tener acceso ilimitado a información personal, y lo fácil que sería revelarla. Debe haber lineamientos y medidas que permitan que la información no se fugue ni se pueda compartir. 


Lo que pretende Oren con estas tres reglas es emitir las regulaciones básicas para todo sistema de I.A sin evitar el crecimiento de esta misma. Dejar de temer por robots asesinos o sistemas espías, y empezar a concebir la I.A como una herramienta capaz de contribuir al desarrollo humano. Es inevitable tener miedo al cambio, pero no podemos evitarlo, simplemente adaptarnos a él, lo más pronto posible.... de eso se trata nuestra evolución.