El Congreso mexicano ante la inteligencia artificial

Es fácil ver que el Poder Legislativo mexicano está obligado a protegernos de las amenazas de la IA y permitirnos gozar de sus beneficios. De ello no se sigue, claro está, que cualquier propuesta legislativa sea positiva.

proceso.com.mx

Ricardo Monreal presentó recientemente un proyecto para regular la inteligencia artificial en México. El proyecto de este senador tendría que ser tomado en serio. Sin importar de quién viene, y dejando de lado filias o fobias partidistas, es momento de que nuestro país decida cómo enfrentará los riesgos que la IA representa.

Los efectos presentes de esta tecnología no están en duda. Actualmente la IA generativa es empleada para asuntos tan diversos como la publicidad masiva personalizada, la generación de canciones o de textos, la investigación científica o para reemplazar cierto tipo de trabajos.

Pero son sus efectos futuros los que resultan más preocupantes. Dado que su potencia se incrementa, literalmente, de forma exponencial, es evidente que el brinco trepidante que la IA ha dado entre 2022 y 2024 será una minucia comparada con el que dará en los próximos años. Así, la IA se extenderá e integrará en múltiples áreas de nuestra sociedad, transformando la forma en que vivimos y nos comportamos.

Las promesas de la inteligencia artificial son enormes: soluciones a la emergencia climática, curas para enfermedades como el cáncer, respuestas a preguntas como el origen del cosmos… Pero también lo son sus riesgos; esta tecnología podría ser utilizada para clasificar a millones de personas, para manipular su comportamiento o para para trastocar democracias.

Monreal. Proyecto. Foto: Benjamín Flores.

Con lo anterior en mente, es fácil ver que el Poder Legislativo mexicano está obligado a protegernos de las amenazas de la IA y permitirnos gozar de sus beneficios. De ello no se sigue, claro está, que cualquier propuesta legislativa sea positiva.

Para analizar la propuesta de Monreal, es importante empezar notando que cuando se trata de abordar la transformación que la IA representa existen dos modelos principales.

Uno de ellos es el basado en códigos voluntarios de conducta. Por ejemplo, siguiendo la inercia de su tratamiento a las grandes empresas digitales, Estados Unidos ha optado por apelar a la capacidad de autorregulación y autovigilancia de las compañías que desarrollan esta tecnología. Aunque esto podría cambiar muy pronto, éste es el enfoque adoptado hasta el momento por nuestros vecinos del norte.

El otro modelo disponible se basa en el establecimiento de una regulación que determine lo que es permisible, las sanciones por no cumplir con el marco normativo vigente y los órganos capaces de vigilar, auditar y limitar la forma en que la inteligencia artificial se utiliza. Éste es el enfoque adoptado por la Unión Europea (UE), que a finales del año pasado aprobó una ley que regula la IA mediante un sistema basado en reglas adecuadas de acuerdo con cada uno de los niveles en una escala de riesgo.

El proyecto de Ricardo Monreal, en contraste con un proyecto presentado por el legislador panista Ignacio Loyola Vera en 2023, sigue el segundo de estos modelos.

Me parece que ello es, de entrada, una buena noticia. Y es que existe un importante consenso de que el modelo de códigos voluntarios de conducta ha fracasado rotundamente en el pasado, pues sólo ha beneficiado a las grandes corporaciones. Dado el tamaño de lo que está en juego, apostar por los códigos de conducta sería tan irresponsable como ingenuo.

Pero lo planteado por Monreal tiene omisiones destacables que tendrían que ser subsanadas. Para efectos de este análisis, dividiré estas omisiones en tres líneas principales.

La primera tiene que ver con el alcance de lo que se prohíbe. La iniciativa de Monreal propone prohibir sistemas capaces de:

1. Alterar el comportamiento mediante técnicas subliminales para causar daño físico o psicológico.

2. Explotar vulnerabilidades de grupos específicos para alterar su comportamiento de manera que cause daño.

3. Evaluar y clasificar a las personas basándose en su conducta social o características personales que resulten en daño.

4. Identificación biométrica remota sin consentimiento, excepto en casos justificados de interés público o seguridad nacional.

5. Alterar archivos de voz o imagen sin autorización para modificar su contenido original.

Pros y contras de la IA. Foto: Freepik.

Los puntos anteriores son todos valiosos y, por ende, deben ser preservados. Pero también son destacables sus ausencias. Por ejemplo, la prohibición en el punto 2 de explotar la conducta social o a sus características personales, o de su personalidad, no incluye, como lo hace la ley de la UE, la prohibición de “sistemas categorización biométrica que utilizan características sensibles como creencias políticas, religiosas, filosóficas, orientación sexual y raza”.

Dado que es evidente que uno puede categorizar sin explotar, un marco que busca evitar la regulación no es suficiente para evitar la categorización de millones de personas. Además, un aspecto positivo de la ley de la UE es que es explícita en lo que respecta a cuáles son las características que considera sensibles, algo que de momento no hace la iniciativa mexicana.

También es problemático el punto 4, que menciona que se prohíbe la identificación biométrica remota, pero no alude, como lo hace la ley de la UE, a la prohibición de la extracción indiscriminada de imágenes faciales de internet.

Esto es importante, pues las fotos, videos y audios de millones de mexicanas y mexicanos están abiertamente disponibles en redes sociales y podrían ser empleadas, sin su consentimiento, por grandes empresas tecnológicas para alimentar y entrenar sus modelos.

La segunda línea de omisiones destacable en la propuesta de Monreal, y también la más notable, se encuentra en su sección dedicada a las “obligaciones de los proveedores de sistemas de inteligencia artificial de alto riesgo”. Es decir, con las obligaciones de las empresas que usan IA permitida, pero con un potencial altamente disruptivo.

En este rubro, la propuesta parece dar un giro hacia el método basado en códigos voluntarios de conducta, pues plantea que es responsabilidad de las empresas:

i. Contar con un sistema de gestión de calidad

ii. Elaborar y difundir la documentación técnica del sistema

iii. Cuando estén bajo su control, conservar los archivos de registro que sus sistemas generen automáticamente

iv. Asegurarse de que los sistemas sean sometidos a los procedimientos de evaluación y control humano que determine la autoridad competente antes de su introducción en el mercado o puesta en servicio

v. Cumplir con las obligaciones de registro ante la autoridad competente

vi. Las demás previstas en la presente Ley y su Reglamento

Mientras que la UE establece que estas empresas deberán ser sujetas a una evaluación de impacto sobre derechos humanos fundamentales, y obligaciones para obtener acceso a su mercado, nótese que el proyecto mexicano basa su contención de riesgos graves en generalidades o buenas voluntades.

En este sentido la ley propuesta por Monreal requiere un viraje decisivo al enfoque europeo. Para dejar menos margen de maniobra a las grandes corporaciones, este viraje podría complementarse con un acuerdo regulatorio con este bloque, similar al recientemente firmado por Estados Unidos y Reino Unido.

Finalmente, la última línea de omisiones en la propuesta del senador Monreal abarca lo relativo a su vigilancia. En su artículo 6, el proyecto menciona la creación de “una Comisión Nacional de Inteligencia Artificial, como órgano consultivo del Instituto Federal de Telecomunicaciones, quien designará para integrarla a cinco científicos de reconocido prestigio en materia de desarrollo tecnológico y tecnologías de la información. Los así designados lo serán de forma honorífica”.

La idea de una comisión independiente es sensata. La forma en que ésta se plantea en la iniciativa de Monreal representa un avance con respecto a la propuesta hecha por el legislador panista Ignacio Loyola Vera, que proponía integrar a diputados y empresarios a consejo.

Pero esta comisión sigue estando mal concebida. La idea de un grupo de “científicos” cierra la puerta a personas expertas en ética de la inteligencia artificial, una rama de la filosofía que actualmente tiene un peso enorme en las decisiones de reguladores y desarrolladoras alrededor del mundo.

Éste es el caso, porque no es lo mismo saber de tecnología o de ciencia que de sus implicaciones éticas. Por ejemplo, Mark Zuckerberg o Elon Musk saben mucho de tecnología, pero muy poco de ética. Para que la tecnología tenga efectos sociales y humanos positivos, ambas, tecnología y ética, deben caminar siempre de la mano. Y esto es algo que el regulador mexicano no debe nunca perder de vista.

Musk. ¿Y la ética? Foto: Ebrahim Noroozi/AP.

También es un error plantear que las personas que pertenecerán a este consejo lo harán de forma “honoraria”. Apelar a este esquema, y no a personas trabajando remuneradas y de tiempo completo, es inconsistente con el tamaño de las empresas que se busca regular a través de la iniciativa y con las razones urgentes que generaron su existencia.

Es momento de hacer un corte de caja. Hemos visto que el proyecto de ley presentado por Ricardo Monreal en días pasados está, en buena medida, basado en el modelo adecuado y, por ende, representa un paso en la dirección correcta. También vimos que este proyecto tiene omisiones importantes que merecen ser tomadas en cuenta.

Considerando la magnitud de lo que está en juego, lo que procede es subsanar las deficiencias de este proyecto siguiendo. Esto es posible siguiendo a cabalidad el espíritu regulatorio y de derechos humanos que caracterizan al modelo implementado por la Unión Europea. No hacer estas modificaciones o descartar todo el documento por intrigas partidistas sería tan inexcusable como ridículo.

                                                         
Compartir