Cristián Villegas Director Instituto de Educación y Lenguaje Universidad de Las Américas
En plena masificación de la inteligencia artificial (IA) en toda área del quehacer humano, surge la necesidad imperiosa de establecer ciertos marcos éticos que regulen su desarrollo y aplicación. Las tres leyes de la robótica, formuladas por Isaac Asimov, se erigen como una propuesta inicial para este desafío, ofreciendo un conjunto de principios de comportamiento de los autómatas que se puede aplicar perfectamente a la autorregulación de esta tecnología, sobre todo en la actualidad cuando se comienza a producir robots que funcionan con IA generativa.
La primera ley indica que un robot no debe dañar a un individuo, ni si quiera por inacción. En la segunda normativa, el experto sostiene que esta máquina debe obedecer las órdenes dadas por los seres humanos, excepto cuando entren en conflicto con la primera ley, lo que aseguraría que la IA siempre opere bajo instrucción humana y no por cuenta propia. Finalmente, el último precepto señala que un robot debe proteger su propia existencia, siempre que dicho resguardo no entre en conflicto con los anteriores.
En caso de que operen eventualmente estas leyes en la programación de futuras IA -que sería muy relevante debido al avance en materia de robótica-, aún existen temas que no están resueltos. En relación a esto último, está el conjunto de sesgos y discriminación en base a su entrenamiento, la invención de información, la desinformación, la vulneración de la propiedad intelectual y derechos de autor, y otros temas éticos que posee su implementación humana y que deberían ser considerados dentro de futuras legislaciones para estos sistemas.
Las normas de la robótica, eventualmente adaptadas a los nuevos desafíos tecnológicos, sirven como orientación para guiar el desarrollo y uso responsable de la IA en robots. Al establecer protecciones y medidas adecuadas, se puede aprovechar el potencial transformador de este know-how mientras se preserva la seguridad y el bienestar.
En este sentido, la colaboración entre expertos en ética, tecnología, educación y derecho, entre otras áreas, será vital para navegar hacia un futuro donde la inteligencia artificial coexista de manera armoniosa con las personas.
Equipo Prensa
Portal Educa