Hace 75 años el escritor Iscaac Asimov formuló en su relato “El círculo vicioso” las “Tres Leyes de la Robótica”, las cuales tienen la finalidad de proteger a los seres humanos debido al temor de desarrollar máquinas con la inteligencia suficiente como para rebelarse en contra de sus creadores. Este hecho ya no es ajeno a la realidad, puesto que el 17 de enero de este año se presentó ante el Parlamento Europeo la propuesta de un texto legislativo especializado para regular la Inteligencia Artificial (IA) y a los robots, ámbito que genera muchas interrogantes desde el punto de vista legal.
Ello no debe ser una sorpresa puesto que la IA, entendida como la capacidad de una máquina de imitar el comportamiento humano, cada vez está más cerca de lo que imaginamos. Tenemos a Siri, asistente personal, para el sistema operativo móvil de Apple, que utiliza el procesamiento del lenguaje natural para responder preguntas, hacer recomendaciones y realizar acciones mediante la gestión de un conjunto de servicios Web.
La IA ha venido a revolucionar la vida tal como la conocemos. En el campo de la medicina, existen programas como “Da Vinci” y el “CyberKnife” que son equipos de cirugía robótica. Es decir, un robot es quien realiza la labor del médico. Google, por su parte, viene desarrollando el proyecto “Waymo”, el cual tiene la finalidad de crear automóviles que puedan conducirse de forma autónoma, detectando otros vehículos, señales de tráfico, peatones, etc. En Estados Unidos, una firma de abogados ha contratado a “Ross”, un sistema de IA creado por IBM, el cual analiza la legislación existente respecto a una determinada pregunta y brinda una respuesta estructurada, reemplazando así el trabajo de un abogado.
En virtud a esta nueva realidad, las propuestas a ser debatidas por la Comisión Europea, son las siguientes:
- Todo robot deberá tener un interruptor de emergencia. La inteligencia artificial puede conllevar a que un robot se vuelva más inteligente que un humano y, por tanto, constituirse como un peligro para la sociedad.
- Ningún robot podrá hacer daño a un humano. Es una extensión del anterior apartado, por el que quedaría expresamente prohibido crear robots que tengan como intención hacer daño a los humanos.
- Los robots tendrán derechos y deberes. En caso tal de que un robot desarrolle autonomía suficiente, a este se le daría la categoría de ‘persona electrónica’ y tendría que ajustarse al ordenamiento jurídico vigente.
- Los robots deberán pagar impuestos. Para reducir el impacto social del desempleo causado por los robots, el Parlamento propone que paguen impuestos como si fueran personas naturales.
Como se puede apreciar, la inteligencia artificial tendrá un gran impacto en el mundo y, por tanto, nos obligará a cambiar las leyes que nos rigen. La normativa peruana está diseñada bajo la premisa que toda decisión es tomada por seres humanos. Sin embargo, el desarrollo y la proliferación de la IA obligará a que se den cambios en nuestro ordenamiento jurídico, puesto que las normas no se encuentran adecuadas para abordar cómo los productos de IA interactúan con nosotros y entre sí.
Consideren el siguiente caso: Un usuario de Waze digita una calle y la aplicación elige el camino más rápido para llegar a ella. Sin embargo, esta te lleva por las zonas más peligrosas de Lima y, como consecuencia de ello, lo asaltan y lo violan. ¿Cuál es la responsabilidad de Waze por los daños ocasionados?
Esta no es una pregunta fácil de responder, y cualquier decisión dependerá del análisis que un juez realice respecto de la conducta del usuario. ¿El usuario se comportó de forma razonable? ¿Debió prever que Waze lo llevaría por un sitio peligroso? ¿Debió Waze alertar al pasajero que el camino elegido era inseguro? La compañía podría argumentar que el usuario actuó de manera negligente y que debió analizar la ruta.
Sin embargo, un juez que considere “lo razonable” en este caso, debe considerar la programación de Waze, aplicación que fue creada para “hacer la vida de los conductores más útil”. Con esta finalidad en la mente, ¿acaso no es razonable que un usuario confíe más en Waze a medida que lo utiliza más? Por tanto, ¿no es lógico que el usuario piense que Waze se va a preocupar por su seguridad y te propondrá la ruta más rápida sin que ponga en peligro tu vida? No creemos que exista alguien que utilice Waze y piense que tal vez esta aplicación lo termine matando.
Ahora bien, Waze es considerado como un sistema de inteligencia artificial muy básico. Imagínese cuando la IA evolucione y existan robots que puedan operar pacientes, vehículos autónomos, drones policías o androides que sean niñeras. En estos casos: ¿Se podrá alegar una mala praxis por parte de un robot cirujano? ¿Qué ocurriría si un carro controlado por IA ocasiona un accidente de tránsito? ¿Qué pasaría en caso un dron mate a un inocente por equivocación? ¿Qué sucedería si un niño se lastima bajo el cuidado de una “niñera robot”?
Sin duda alguna, a medida que esta tecnología evolucione se crearán nuevos retos legales. Distintas áreas del derecho tales como la responsabilidad Civil, la Propiedad Intelectual, el Derecho Constitucional, el Derecho Internacional, el Derecho Laboral, así como otras, se tendrán que ajustar a esta nueva realidad en la que las decisiones no solamente serán realizadas por humanos.
Por lo tanto, la idea de un marco legal especializado para la IA no suena tan descabellada, teniendo en cuenta que muchos expertos señalan que dentro de los próximos 5 años existirá un “boom” respecto a esta tecnología. En ese sentido, Perú no debería quedarse relegado en este importante aspecto. Nos encontramos en un punto ideal para desarrollar un marco jurídico eficiente que pueda crecer a la par de esta tecnología.