Por: Brad Smith, presidente de Microsoft.

 

Esta publicación es el prólogo escrito por Brad Smith para el informe Governing AI: A Blueprint for the Future de Microsoft. La primera parte del informe detalla cinco formas en que los gobiernos deben considerar las políticas, leyes y regulaciones en torno a la IA. La segunda parte se centra en el compromiso interno de Microsoft con la IA ética y muestra cómo la empresa opera y construye una cultura de IA responsable.

“No preguntes qué pueden hacer las computadoras, pregúntate qué deberían hacer”. Ese es el título del capítulo sobre IA y ética en un libro del que fui coautor en 2019. En ese momento, escribimos que «Esta puede ser una de las preguntas definitorias de nuestra generación». Cuatro años después, la pregunta ha tomado el centro del escenario no solo en las capitales del mundo, sino también en muchas mesas.

A medida que las personas usaron o escucharon sobre el poder del modelo básico GPT-4 de OpenAI, a menudo se sorprendieron o incluso asombraron. Muchos se han entusiasmado o incluso emocionado. Algunos han estado preocupados o incluso asustados. Lo que quedó claro para casi todos es algo que notamos hace cuatro años: somos la primera generación en la historia de la humanidad en crear máquinas que pueden tomar decisiones que antes solo podían tomar las personas.

Los países de todo el mundo han comenzado a hacer preguntas comunes. ¿Cómo podemos utilizar esta nueva tecnología para resolver nuestros problemas? ¿Cómo evitamos o manejamos los nuevos problemas que podría crear? ¿Cómo controlamos una tecnología que es tan poderosa?

Estas preguntas requieren no solo una conversación amplia y reflexiva, sino también una acción decisiva y efectiva. Este documento ofrece algunas de nuestras ideas y sugerencias como empresa.

Estas sugerencias se basan en las lecciones que hemos aprendido con base en el trabajo que hemos realizado durante varios años. El director ejecutivo de Microsoft, Satya Nadella, nos puso en un rumbo claro cuando escribió en 2016 que, “Quizás el debate más productivo que podemos tener no es el del bien contra el mal: el debate debe ser sobre los valores inculcados en las personas y las instituciones que crean esta tecnología.»

Desde entonces, hemos definido, publicado e implementado principios éticos para guiar nuestro trabajo. Y hemos desarrollado sistemas de ingeniería y gobierno en constante mejora para poner estos principios en práctica. Hoy, tenemos casi 350 personas que trabajan en la IA responsable en Microsoft, lo que nos ayuda a implementar las mejores prácticas para construir sistemas de IA seguros, protegidos y transparentes diseñados para beneficiar a la sociedad.

 

Nuevas oportunidades para mejorar la condición humana

Los avances resultantes en nuestro enfoque nos han brindado la capacidad y la confianza para ver formas en constante expansión para que la IA mejore la vida de las personas. Hemos visto que la IA ayuda a salvar la vista de las personas, avanza en nuevas curas para el cáncer, genera nuevos conocimientos sobre las proteínas y proporciona predicciones para proteger a las personas del clima peligroso. Otras innovaciones evitan ataques cibernéticos y ayudan a proteger los derechos humanos fundamentales, incluso en países afectados por invasiones extranjeras o guerras civiles.

Las actividades cotidianas también se verán beneficiadas. Al actuar como copiloto en la vida de las personas, el poder de los modelos básicos como GPT-4 convierte la búsqueda en una herramienta más poderosa para investigar y mejorar la productividad de las personas en el trabajo. Y, para cualquier padre que haya tenido problemas para recordar cómo ayudar a su hijo de 13 años con una tarea de álgebra, la asistencia basada en IA es un tutor útil.

De muchas maneras, la IA ofrece quizás incluso más potencial para el bien de la humanidad que cualquier invención que la haya precedido. Desde la invención de la imprenta con tipos móviles en el siglo XV, la prosperidad humana ha crecido a un ritmo acelerado. Invenciones como la máquina de vapor, la electricidad, el automóvil, el avión, la informática e Internet han proporcionado muchos de los componentes básicos de la civilización moderna. Y, al igual que la propia imprenta, la IA ofrece una nueva herramienta para ayudar en verdad a avanzar en el aprendizaje y el pensamiento humanos.

 

Barandillas para el futuro

Otra conclusión es igual de importante: no es suficiente centrarse solo en las muchas oportunidades de usar la IA para mejorar la vida de las personas. Esta es quizás una de las lecciones más importantes del papel de las redes sociales. Hace poco más de una década, tecnólogos y comentaristas políticos por igual se entusiasmaron con el papel de las redes sociales en la difusión de la democracia durante la Primavera Árabe. Sin embargo, cinco años después, aprendimos que las redes sociales, como tantas otras tecnologías anteriores, se convertirían tanto en un arma como en una herramienta, en este caso dirigida a la democracia misma.

Hoy somos 10 años mayores y más sabios, y necesitamos poner esa sabiduría a trabajar. Necesitamos pensar desde el principio y con lucidez sobre los problemas que podrían surgir. A medida que avanza la tecnología, es tan importante garantizar un control adecuado sobre la IA como perseguir sus beneficios. Estamos comprometidos y decididos como empresa a desarrollar e implementar IA de manera segura y responsable. Sin embargo, también reconocemos que las barandillas necesarias para la IA requieren un sentido de responsabilidad compartido de manera amplia y no deben dejarse solo en manos de las empresas de tecnología.

Cuando en Microsoft adoptamos nuestros seis principios éticos para la IA en 2018, notamos que un principio era la base de todo lo demás: la responsabilidad. Esta es la necesidad fundamental: garantizar que las máquinas permanezcan sujetas a la supervisión efectiva de las personas, y que las personas que diseñan y operan las máquinas se mantengan responsables ante todos los demás. En resumen, siempre debemos asegurarnos de que la IA permanezca bajo control humano. Esta debe ser una prioridad de primer orden tanto para las empresas de tecnología como para los gobiernos.

Esto conecta de manera directa con otro concepto esencial. En una sociedad democrática, uno de nuestros principios fundacionales es que ninguna persona está por encima de la ley. Ningún gobierno está por encima de la ley. Ninguna empresa está por encima de la ley, y ningún producto o tecnología debe estar por encima de la ley. Esto lleva a una conclusión crítica: las personas que diseñan y operan sistemas de IA no pueden rendir cuentas a menos que sus decisiones y acciones estén sujetas al estado de derecho.

En muchos sentidos, esto está en el centro del debate regulatorio y de políticas de IA que está en desarrollo. ¿Cuál es la mejor manera en que los gobiernos se aseguran de que la IA esté sujeta al estado de derecho? En resumen, ¿qué forma deberían tomar las nuevas leyes, reglamentos y políticas?

 

Un plan de cinco puntos para la gobernanza pública de la IA

La sección uno de este documento ofrece un plan de cinco puntos para abordar varios problemas actuales y emergentes de IA a través de políticas públicas, leyes y regulaciones. Ofrecemos esto al reconocer que cada parte de este plan se beneficiará de una discusión más amplia y requerirá un desarrollo más profundo. Pero esperamos que esto pueda contribuir de manera constructiva al trabajo que tenemos por delante.

Primero, implementar y aprovechar los nuevos marcos de seguridad de IA liderados por el gobierno. A menudo, la mejor manera de tener éxito es basarse en los éxitos y las buenas ideas de los demás. En especial cuando uno quiere moverse con rapidez. En este caso, existe una importante oportunidad de aprovechar el trabajo realizado hace apenas cuatro meses por el Instituto Nacional de Estándares y Tecnología de EE. UU., o NIST. Parte del Departamento de Comercio, NIST completó y lanzó un nuevo marco de gestión de riesgos de IA.

Ofrecemos cuatro sugerencias concretas para implementar y desarrollar este marco, incluidos los compromisos que Microsoft hace en respuesta a una reunión reciente en la Casa Blanca con las principales empresas de inteligencia artificial. También creemos que la administración y otros gobiernos pueden acelerar el impulso a través de reglas de adquisiciones basadas en este marco.

En segundo lugar, exigir frenos de seguridad efectivos para los sistemas de IA que controlan la infraestructura crítica. En algunos sectores, las personas reflexivas preguntan cada vez más si podemos controlar de manera satisfactoria la IA a medida que se vuelve más poderosa. A veces se plantean preocupaciones con respecto al control de IA de infraestructura crítica como la red eléctrica, el sistema de agua y los flujos de tráfico de la ciudad.

Este es el momento adecuado para discutir esta cuestión. Este plan propone nuevos requisitos de seguridad que, en efecto, crearían frenos de seguridad para los sistemas de IA que controlan el funcionamiento de la infraestructura crítica designada. Estos sistemas a prueba de fallas serían parte de un enfoque integral para la seguridad del sistema que mantendría en mente la supervisión humana efectiva, la resiliencia y la solidez. En espíritu, serían similares a los sistemas de frenado que los ingenieros han incorporado durante mucho tiempo en otras tecnologías, como ascensores, autobuses escolares y trenes de alta velocidad, para gestionar de manera segura no solo los escenarios cotidianos, sino también las emergencias.

En este enfoque, el gobierno definiría la clase de sistemas de IA de alto riesgo que controlan la infraestructura crítica y garantizan tales medidas de seguridad como parte de un enfoque integral para la gestión del sistema. Las nuevas leyes requerirían que los operadores de estos sistemas construyan frenos de seguridad en los sistemas de inteligencia artificial de alto riesgo por diseño. Luego, el gobierno se aseguraría de que los operadores prueben los sistemas de alto riesgo de manera regular, para garantizar que las medidas de seguridad del sistema sean efectivas. Y los sistemas de IA que controlan el funcionamiento de la infraestructura crítica designada se implementarían solo en centros de datos de IA con licencia que garantizarían una segunda capa de protección a través de la capacidad de aplicar estos frenos de seguridad, para asegurar un control humano efectivo.

Tercero, desarrollar un amplio marco legal y regulatorio basado en la arquitectura tecnológica para la IA. Creemos que tendrá que haber una arquitectura legal y reglamentaria para la IA que refleje la arquitectura tecnológica de la propia IA. En resumen, la ley deberá asignar varias responsabilidades regulatorias a diferentes actores en función de su papel en la gestión de diferentes aspectos de la tecnología de IA.

Por esta razón, este plan incluye información sobre algunas de las piezas críticas que intervienen en la construcción y el uso de nuevos modelos generativos de IA. Al usar esto como contexto, propone que diferentes leyes establezcan responsabilidades regulatorias específicas sobre las organizaciones que ejercen ciertas responsabilidades en tres capas de la pila de tecnología: la capa de aplicaciones, la capa de modelo y la capa de infraestructura.

Esto debería aplicar primero las protecciones legales existentes en la capa de aplicaciones para el uso de IA. Esta es la capa donde la seguridad y los derechos de las personas se verán más afectados, en especial porque el impacto de la IA puede variar de manera notable en diferentes escenarios tecnológicos. En muchas áreas, no necesitamos nuevas leyes y regulaciones. En cambio, debemos aplicar y hacer cumplir las leyes y regulaciones existentes, para ayudar a las agencias y los tribunales a desarrollar la experiencia necesaria para adaptarse a los nuevos escenarios de IA.

Entonces habrá una necesidad de desarrollar nuevas leyes y regulaciones para modelos básicos de IA de alta capacidad, implementados mejor por una nueva agencia gubernamental. Esto tendrá un impacto en dos capas de la pila de tecnología. El primero requerirá nuevas regulaciones y licencias para estos modelos. Y la segunda supondrá obligaciones para los operadores de infraestructuras de IA sobre las que se desarrollen y desplieguen estos modelos. El plan que sigue ofrece objetivos y enfoques sugeridos para cada una de estas capas.

Al hacerlo, este plan se basa en parte en un principio desarrollado en las últimas décadas en la banca para proteger contra el lavado de dinero y el uso delictivo o terrorista de los servicios financieros. El principio «Conozca a su cliente», o KYC, por sus siglas en inglés, requiere que las instituciones financieras verifiquen las identidades de los clientes, establezcan perfiles de riesgo y supervisen las transacciones para ayudar a detectar actividades sospechosas. Tendría sentido tomar este principio y aplicar un enfoque KY3C que crea en el contexto de la IA ciertas obligaciones para conocer la nube, los clientes y el contenido de uno.

En primera instancia, los desarrolladores de modelos de IA potentes y designados primero «conocen la nube» en la que se desarrollan e implementan sus modelos. Además, como en el caso de escenarios que implican usos sensibles, la empresa que tiene una relación directa con un cliente, ya sea el desarrollador del modelo, el proveedor de la aplicación o el operador de la nube en el que opera el modelo, debe «conocer a los clientes» que acceden a él.

Además, el público debe estar facultado para «conocer el contenido» que la IA crea mediante el uso de una etiqueta u otra marca que informe a las personas cuando un modelo de IA ha producido algo como un archivo de video o audio en lugar de un ser humano. Esta obligación de etiquetado también debería proteger al público de la alteración del contenido original y la creación de «falsificaciones profundas». Esto requerirá el desarrollo de nuevas leyes, y habrá muchas preguntas y detalles importantes que abordar. Pero la salud de la democracia y el futuro del discurso cívico se beneficiarán de medidas bien pensadas para disuadir el uso de nuevas tecnologías para engañar o defraudar al público.

Cuarto, promover la transparencia y garantizar el acceso académico y sin fines de lucro a la IA. Creemos que un objetivo público crítico es promover la transparencia y ampliar el acceso a los recursos de IA. Si bien existen algunas tensiones importantes entre la transparencia y la necesidad de seguridad, existen muchas oportunidades para hacer que los sistemas de IA sean más transparentes de manera responsable. Es por eso que Microsoft se compromete con un informe anual de transparencia de IA y otros pasos para expandir la transparencia de nuestros servicios de IA.

También creemos que es fundamental ampliar el acceso a los recursos de IA para la investigación académica y la comunidad sin fines de lucro. La investigación básica, en especial en las universidades, ha sido de fundamental importancia para el éxito económico y estratégico de los Estados Unidos desde la década de 1940. Pero a menos que los investigadores académicos puedan obtener acceso a muchos más recursos informáticos, existe un riesgo real de que la investigación científica y tecnológica se vea afectada, incluso en relación con la propia IA. Nuestro plan requiere nuevos pasos, incluidos los pasos que tomaremos en todo Microsoft, para abordar estas prioridades.

En quinto lugar, buscar nuevas asociaciones público-privadas para utilizar la IA como una herramienta eficaz para abordar los inevitables desafíos sociales que surgen con la nueva tecnología. Una lección de los últimos años es lo que las sociedades democráticas pueden lograr cuando aprovechan el poder de la tecnología y unen a los sectores público y privado. Es una lección que debemos aprovechar para abordar el impacto de la IA en la sociedad.

Todos nos beneficiaremos de una fuerte dosis de optimismo claro. La IA es una herramienta extraordinaria. Pero, al igual que otras tecnologías, también puede convertirse en un arma poderosa, y habrá algunos en todo el mundo que buscarán usarla de esa manera. Pero deberíamos animarnos con el frente cibernético y el último año y medio en la guerra en Ucrania. Lo que descubrimos es que cuando los sectores público y privado trabajan juntos, cuando los aliados de ideas afines se unen y cuando desarrollamos tecnología y la usamos como escudo, es más poderosa que cualquier espada en el planeta.

Ahora se necesita un trabajo importante para usar la IA para proteger la democracia y los derechos fundamentales, proporcionar un amplio acceso a las habilidades de IA que promoverán el crecimiento inclusivo y utilizar el poder de la IA para promover las necesidades de sostenibilidad del planeta. Quizás más que nada, una ola de nueva tecnología de IA brinda una ocasión para pensar en grande y actuar con audacia. En cada área, la clave del éxito será desarrollar iniciativas concretas y reunir a gobiernos, empresas respetadas y ONG enérgicas para promoverlas. Ofrecemos algunas ideas iniciales en este informe y esperamos hacer mucho más en los próximos meses y años.

 

Gobierno de la IA dentro de Microsoft

En última instancia, toda organización que cree o utilice sistemas avanzados de IA deberá desarrollar e implementar sus propios sistemas de gobierno. La sección dos de este documento describe el sistema de gobierno de IA dentro de Microsoft: dónde comenzamos, dónde estamos hoy y cómo avanzamos hacia el futuro.

Como se reconoce en esta sección, el desarrollo de un nuevo sistema de gobierno para la nueva tecnología es un recorrido en sí mismo. Hace una década, este campo apenas existía. Hoy, Microsoft tiene casi 350 empleados que se especializan en esto e invertimos en nuestro próximo año fiscal para hacer crecer esto aún más.

Como se describe en esta sección, en los últimos seis años hemos creado una estructura y un sistema de gobierno de IA más completos en todo Microsoft. No empezamos desde cero, pues tomamos prestadas las mejores prácticas para la protección de la ciberseguridad, la privacidad y la seguridad digital. Todo esto es parte del sistema integral de gestión de riesgos empresariales (Enterprise Risk Management – ERM, por sus siglas en inglés) de la compañía, que se ha convertido en una parte crítica de la gestión de corporaciones y muchas otras organizaciones en el mundo de hoy.

Cuando se trata de IA, primero desarrollamos principios éticos y luego tuvimos que traducirlos en políticas corporativas más específicas. Ahora estamos en la versión 2 del estándar corporativo que incorpora estos principios y define prácticas más precisas para que las sigan nuestros equipos de ingeniería. Hemos implementado el estándar a través de sistemas de capacitación, herramientas y pruebas que continúan su maduración de manera rápida. Esto está respaldado por procesos de gobierno adicionales que incluyen medidas de seguimiento, auditoría y cumplimiento.

Como todo en la vida, uno aprende de la experiencia. Cuando se trata de la gobernanza de la IA, algunos de nuestros aprendizajes más importantes provienen del trabajo detallado requerido para revisar casos de uso sensibles específicos de la IA. En 2019, fundamos un programa de revisión de uso confidencial para someter nuestros casos de uso de IA más sensibles y novedosos a una revisión rigurosa y especializada que da como resultado una guía personalizada. Desde entonces, hemos completado alrededor de 600 revisiones de casos de uso sensibles. El ritmo de esta actividad se ha acelerado para igualar el ritmo de los avances de la IA, con casi 150 revisiones de este tipo en los 11 meses.

Todo esto se basa en el trabajo que hemos hecho y haremos para promover la IA responsable a través de la cultura empresarial. Eso significa contratar talento nuevo y diverso para hacer crecer nuestro ecosistema de IA responsable e invertir en el talento que ya tenemos en Microsoft para desarrollar habilidades y capacitarlos para pensar en términos generales sobre el impacto potencial de los sistemas de IA en las personas y la sociedad. También significa que mucho más que en el pasado, la frontera de la tecnología requiere un enfoque multidisciplinario que combine grandes ingenieros con talentosos profesionales de todas las artes liberales.

Todo esto se ofrece en este documento con el espíritu de que estamos en un recorrido colectivo para forjar un futuro responsable para la inteligencia artificial. Todos podemos aprender unos de otros. Y no importa cuán bueno podamos pensar que algo es hoy, todos debemos mejorar.

A medida que se acelera el cambio tecnológico, el trabajo para gobernar la IA de manera responsable debe seguirle el ritmo. Con los compromisos e inversiones correctos, creemos que se puede.

 

 

Google News Portal Educa
Síguenos en Google Noticias

Equipo Prensa
Portal Educa

Colegio Atesora Online 2024 1200x450