La Regulación de la Inteligencia Artificial en el Ámbito Internacional

María Lilian Franco *(1) – Abogada Of Counsel en Aguilar Castillo Love.
Introducción:
Cuando comience a leer este artículo, le invito a cuestionarse cuántas veces la Inteligencia Artificial (IA) estuvo presente en su día. Notará que desde que desbloqueó su teléfono móvil mediante reconocimiento facial o utilizó asistentes como Siri o Alexa que ayudan a realizar tareas simples como establecer recordatorios, reproducir música o controlar otros dispositivos ya tuvo contacto con la IA desde primera hora de la mañana.
También podrá advertir que quizás utilizó la IA al ver plataformas de transmisión (streaming) que analizan su historial de visualización para sugerir contenido que pueda ser de su interés. Casi con certeza, usted también se ha encontrado con los asistentes virtuales (chatbots) en la prestación de diferentes servicios que son capaces de responder, preguntar y proporcionar información.
Todas esas herramientas son un reflejo de cómo esta tecnología está presente en nuestra vida cotidiana y utilizan la IA.
Por tanto, hablar de la integración de la IA en este momento ya no es futurista. La IA está modificando la forma en la que nos relacionamos con el entorno y está presente en nuestra rutina, facilitando y mejorando nuestras actividades diarias. La IA tiene el potencial de acelerar la productividad y proporcionar soluciones innovadoras.

Para nadie es un secreto que la revolución de la IA no sólo es disruptiva, sino que es una de las tecnologías que más atención despierta ya que se trata de sistemas que pueden percibir su entorno, procesar información derivada de datos y tomar decisiones para un objetivo dado.
El desarrollo de la IA y la transición por la que estamos pasando como sociedad avanza a una velocidad que hasta hace unos años desconocíamos y que trae consigo varios desafíos. Uno de ellos es que existen nuevos riesgos inherentes a esta tecnología que requieren que la regulación se adapte a ellos.
Los avances de la IA plantean interrogantes sobre cómo garantizar su uso ético y responsable sin convertirse en un freno que perjudique la capacidad de desarrollo y la innovación.
El siguiente artículo busca poner en contexto al lector sobre la regulación de la IA en el ámbito internacional y los esfuerzos que se han realizado en algunos países de la región, así como los avances que han dado los sistemas legales para adaptarse.
¿Qué motiva la regulación de la IA?
A manera de introducción, la IA se ha acelerado en los últimos años gracias a diferentes factores como:
- La disponibilidad de grandes cantidades de datos.
- Los últimos desarrollos de IA Generativa y multimodal.
- La cantidad de personas capaces de desarrollarla
- La mayor capacidad informática.
- El avance de otras tecnologías complementarias y el desarrollo de aplicaciones extremadamente sofisticadas con la IA.
Algunos usos de la IA plantean riesgos para la sociedad como sesgos en los algoritmos de toma de decisiones, intrusión en la privacidad y manipulación en las formas de pensar y actuar por ello se han identificado algunas alertas frente a las que los legisladores se plantean o sugieren límites legales. Por ejemplo, se plantea que el uso irresponsable de la IA podría facilitar la manipulación de procesos democráticos, el espionaje industrial o sesgos en la toma de decisiones.
En general, se busca que exista una armonización y un balance que no afecte el desarrollo de la tecnología. Algunos países han buscado normativas que no sean tan restrictivas que impidan la inversión privada, la investigación, la innovación y el desarrollo, pero tampoco que sean tan permisivas que permitan crear aplicaciones dañinas para la sociedad.
¿Cómo se regula el uso de la IA?
No existe un consenso global para regular esta tecnología ni quien la debe regular por lo que se han articulado varias normativas de conformidad con la estrategia de cada país. Algunas iniciativas establecen obligaciones y protecciones para los ciudadanos, otras en cambio
solo son guías o normas no vinculantes.
De hecho, no existe un tratado internacional general o marco a nivel global que regule la IA, por lo que tenemos una variedad de regulaciones a nivel nacional e internacional que buscan garantizar un uso ético, responsable y seguro.

¿Quién regula el uso de la IA?
Existen diversas organizaciones multilaterales, organizaciones no gubernamentales y también agencias estatales que han liderado esfuerzos por establecer estándares y un marco para el uso y gobernanza de la IA. Sin embargo, en muchos países la regulación de la IA recae en agencias gubernamentales encargadas de supervisar y regular las tecnologías emergentes.
A continuación, se examinará el panorama global de la regulación de la IA desde las iniciativas internacionales hasta las legislaciones específicas de los países que ya han avanzado en esta materia.
Regulación Internacional de la Inteligencia Artificial
La Unión Europea (UE) – Regulación Internacional de la Inteligencia Artificial
La Unión Europea (UE) es hasta la fecha, la región más avanzada en cuanto a la regulación de la IA.
El 13 de marzo de 2024 el Parlamento Europeo aprobó el Reglamento de Inteligencia Artificial, que entró en vigor el 1 de agosto de 2024. Dado que se trata de la primera normativa jurídica del mundo encaminada a regular la IA sus disposiciones podrían convertirse en un referente a nivel mundial.
El Reglamento de la UE aborda la IA desde los riesgos que puede entrañar para las personas y adapta el contenido de las obligaciones según los riesgos que pueda suponer en los derechos fundamentales, seguridad y bienestar. Este reglamento clasifica las aplicaciones de la IA en cuatro niveles de riesgo *(2) :
Riesgo Inaceptable:
Estos sistemas están prohibidos porque representan una amenaza grave para los derechos fundamentales y los valores de la UE. Están prohibidos por ejemplo la manipulación cognitiva conductual, la actuación policial predictiva, el reconocimiento de emociones en lugares de trabajo y centros educativos y la puntuación de la ciudadanía, así como el uso de sistema de identificación biométrica remota en tiempo real en espacios públicos (con ciertas excepciones).
Riesgo Alto:
Incluye sistemas de IA que tienen un impacto significativo en la vida de las personas. Su uso está permitido, pero bajo estrictos requisitos legales, como evaluaciones de riesgo, supervisión humana y transparencia. Por ejemplo, los sistemas utilizados en diagnóstico de enfermedades, la conducción autónoma y la identificación biométrica de personas implicadas en actividades delictivas y objeto de investigaciones penales.
Riesgo Limitado:
Incluye sistemas de IA que conllevan riesgos menores y solo requieren medidas básicas de transparencia.
Los usuarios deben ser informados de que están interactuando con un sistema de IA, pero no se aplican requisitos técnicos estrictos. Por ejemplo, los Chatbots o Sistemas de generación de contenido.
Riesgo Mínimo:
Estos sistemas presentan un riesgo insignificante y no están sujetos a requisitos específicos en el reglamento. Por ejemplo, los juegos, aplicaciones de IA para filtros de fotos o filtros de correo no deseado basados en IA pueden usarse libremente puesto que no están regulados.
_
La clasificación del Reglamento de la UE busca garantizar un equilibrio entre la innovación tecnológica y la protección de derechos fundamentales.
Para garantizar la aplicación del Reglamento se crean órganos para el cumplimiento de las normativas y otros para asesorar a los Estados miembros en su aplicación. Un foro consultivo para que las partes interesadas proporcionen conocimientos técnicos al Comité de IA y a la Comisión.
Además, el Reglamento de la UE establece sanciones con diversas multas por infringir las normas. Las sanciones se basan en un porcentaje del volumen de negocios total de la empresa en el año anterior o en un importe determinado si esta cuantía es superior. Las pymes y las empresas emergentes se enfrentan a multas proporcionadas.
La Organización de Naciones Unidas – Regulación Internacional de la Inteligencia Artificial
Aún no ha emitido regulaciones vinculantes en este campo. El 22 de noviembre de 2021 la Asamblea General adoptó una resolución sobre la ética de la IA propuesta por la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO) *(3)
Este marco normativo es una recomendación que fue adoptada por los 193 Estados miembros de la UNESCO.
Esta normativa considera la ética como una base para la evaluación y orientación de las normativas de las tecnologías de la IA tomando como referencia la dignidad humana, el bienestar y la prevención de daños. Los aspectos clave que regula esta recomendación incluyen:
- Protección de los Derechos Humanos
- Promoción del Desarrollo Sostenible
- Gobernanza y Transparencia
- Responsabilidad y rendición de cuentas
- Diversidad Cultural y Pluralismo
- Protección del Medio Ambiente
La UNESCO también creó una red denominada AI Experts without borders que brinda apoyo técnico a los países para la implementación de políticas sobre IA. *(4)
En 2023, la ONU también anunció la creación de un Órgano Consultivo de Alto Nivel sobre IA integrado por 39 miembros para estudiar los retos que plantea la IA para la gobernanza mundial. Este órgano publicó en septiembre de 2024 un informe que propone recomendaciones para abordar los riesgos de la IA y garantizar un impacto positivo.
La Organización de Estados Americanos – Regulación Internacional de la Inteligencia Artificial
En América Latina la IA se ha convertido en un motor estratégico para mejorar la eficiencia operativa que no está solo al alcance de las empresas tecnológicas y se ha reconocido un aumento en su uso. En el ámbito regional, la Organización de Estados Americanos (OEA) ha dado algunos pasos hacia la creación de marcos normativos para la IA, pero aún no ha publicado disposiciones normativas.
El 9 de junio de 2022 en la novena de Cumbre de las Américas los Jefes de Estado se comprometieron a “promover la transparencia y la responsabilidad en la gestión, publicación y el uso de datos abiertos y tecnologías digitales, incluido el desarrollo y uso responsable y ético de sistemas de inteligencia artificial y otras tecnologías transformadoras, protegiendo al mismo tiempo la privacidad individual y los datos personales y promoviendo la equidad y el respeto por los derechos humanos […], de manera congruente con la legislación nacional y el derecho internacional.”.
La Organización para la Cooperación y el Desarrollo Económico – Regulación Internacional de la Inteligencia Artificial
La Organización para la Cooperación y el Desarrollo Económico con apoyo del Banco de Desarrollo de América Latina prepararon un informe o guía para el uso estratégico y responsable de la inteligencia artificial en el sector público.
Este informe proporciona recomendaciones para el diseño de políticas públicas y legislación. Si bien no constituye una regulación propiamente dicha, este documento destaca la necesidad de abordar temas como la privacidad, la transparencia y la responsabilidad en el uso de la IA.
Regulaciones Estatales
Algunos esfuerzos estatales y los marcos legislativos que se han aprobado en diferentes países del continente son: Canadá
Canadá
Este fue el primer país en lanzar una estrategia nacional de IA conocida como Pan-Canadian Artificial Intelligence Strategy que se organiza en torno a cuatro objetivos: (i) aumentar el número de investigadores y graduados entrenados en IA; (ii) interconectar los nodos de excelencia científica de las tres ciudades más importantes de Canadá; (iii) hacer de Canadá un país líder en el pensamiento sobre las implicaciones sociales, éticas, políticas y jurídicas en la aplicación de la IA y (iv) apoyar una comunidad de investigación *(5). Además, Canadá ha liderado iniciativas como el Global Partnership on Artificial Intelligence *(6) , que busca establecer estándares éticos y políticos globales para la IA.
Estados Unidos
Estados Unidos: No tiene una regulación federal específica para la IA. La aproximación estadounidense normativa ocurrió en 2023 cuando se aprobó una orden ejecutiva sobre IA segura y confiable (Executive Order on Safe, Secure, and Trustworthy Artificial Intelligence). La orden establece estándares para el desarrollo de una IA segura, la protección de la privacidad de los estadounidenses, la promoción de la equidad y los derechos civiles, la defensa de los consumidores y trabajadores, la promoción de la innovación y la competencia, promover el liderazgo estadounidense en materia de IA y garantizar el uso gubernamental responsable y eficaz de la IA.
A diferencia de Europa, Estados Unidos no ha constituido una agencia que supervise la implementación de la Orden Ejecutiva.
Además, existen algunas iniciativas sectoriales. Por ejemplo, la Administración de Alimentos y Medicamentos (FDA) regula las aplicaciones de los dispositivos médicos
Brasil
Brasil: En el país sudamericano se han empezado a generar propuestas de regulación, especialmente en el Congreso de la República desde el año 2020. En 2021 aprobó un
Marco Legal de la IA que establece los principios generales para el desarrollo y aplicación de la IA. La estrategia brasileña de IA está fuertemente influenciada por el documento legal de la OCDE.
Además, la Agencia Nacional de Protección de Datos de Brasil (ANPD) publicó en 2023 la posibilidad de crear y gestionar un sandbox regulatorio para herramientas relacionadas con privacidad e inteligencia artificial. El sandbox es un experimento colaborativo entre la agencia reguladora, las entidades reguladas y empresas de tecnología. El objetivo es probar innovaciones en un ambiente Monitoreado *(7).
En 2024, Brasil lanzó un plan de “IA para o Bem de Todos” (IA para el Bien de Todos) en el que prevé invertir cerca de USD 4 mil millones de dólares.
Brasil es pionero en estas regulaciones, ha optado por realizar una legislación que se construye a partir de tres pilares centrales (garantizar los derechos de los usuarios, generar una gradación de los niveles de riesgo de cada sistema, e implementar medidas de gobernanza para las empresas que utilicen o desarrollen sistemas de IA).
Chile
Chile: Según el Ministerio de Ciencia, Tecnología, Conocimiento e Innovación de Chile, se publicó la primera Política Nacional de IA en 2021 lo que ha posicionado a este país en el primer lugar en la región. La Política chilena tiene tres ejes: factores habilitantes, desarrollo y adopción y gobernanza y ética de la IA.
Desde la publicación de la política nacional se han creado un Centro Nacional de Inteligencia Artificial (CENIA) y el Núcleo Milenio Futures of AI Research (FAIR). Chile ha tenido progresos significativos en la formulación de un marco regulatorio que aborda los desafíos éticos, legales y sociales asociados con estas tecnologías. *(8)
México:
México: Este país carece de una ley específica para regular la IA, sin embargo, ya existen múltiples iniciativas de ley presentadas al Congreso. Además, México también tiene una Alianza Nacional de Inteligencia Artificial que tiene como misión reconocer y fortalecer el ecosistema de IA con una perspectiva integral y multidisciplinaria. *(9)
Uruguay:
Uruguay: En 2023, el Parlamento nacional de Uruguay aprobó los primeros lineamientos para una política de IA. En julio de 2024, la Agencia de Gobierno
Electrónico, la Sociedad de la Información y el Conocimiento (AGESIC) entregó recomendaciones al poder legislativo para una regulación de la IA y se contemplan aspectos de ética, responsabilidad, transparencia y no discriminación.
Argentina:
Argentina: En 2019 se aprobó un Plan Nacional de IA, pero en realidad se trata más de un informe descriptivo que de una normativa. A la fecha Argentina tiene varias iniciativas de regulación de la IA pero aún no se han logrado consensos para la aprobación de una ley.
Actualmente, el Congreso Argentino ya tiene una comisión para trabajar sobre la regulación de la IA asi que posiblemente en el gobierno actual se discutan los proyectos.
Costa Rica:
Costa Rica: Es el país pionero en Centroamérica que está buscando aprovechar las oportunidades tecnológicas y busca hacerlo de manera ética y centrada en las personas. Este país si tiene una Estrategia Nacional de Inteligencia Artificial. Entre los objetivos de la estrategia se encuentran impulsar la adopción y desarrollo de marcos normativos que regulen el uso y acceso de la IA en el país.
Buscan generar capacidades habilidades y espacios de conocimiento para el uso de la IA, incentivar el uso de la I+D+I en los diferentes sectores y promover el uso de la IA como herramienta para la mejora en la calidad de los servicios ofrecidos por el sector público. *(10)
Guatemala:
Guatemala: Aún no cuentan con una regulación específica en materia de IA. Sin embargo, se han realizado esfuerzos para desarrollar marcos de transformación digital que podrían incluir la IA en el futuro.
Conclusiones
En el ámbito internacional no existe un tratado que regule el uso de la IA. No existe un marco normativo armónico lo que genera diferencias en las regulaciones nacionales y regionales. Al final, la IA es un recurso estratégico que está teniendo un impacto clave para el desarrollo económico por lo que su regulación actual también atiende a los intereses geopolíticos de cada país o región.
Europa destaca como la región más avanzada con la aprobación del Reglamento de Inteligencia Artificial que clasifica los sistemas en niveles de riesgo y busca equilibrar la innovación tecnológica con la protección de derechos fundamentales. Sin embargo, la legislación europea aún no se ha puesto a prueba pues su aprobación es reciente por lo que habrá que esperar a su implementación para ver cómo evoluciona.
En América son pioneros Canadá y Estados Unidos, pero también se observan esfuerzos de diversos países que han desarrollado estrategias y marcos normativos priorizando la ética, la gobernanza y promoción de la protección de derechos fundamentales tales como Brasil y Chile. Mientras otros aún están en proceso de legislar. Aún queda mucho camino por recorrer pero si podemos concluir con certeza que la IA ha llegado a nuestras vidas para quedarse y el derecho deberá adaptarse rápido a su evolución.
_
*(1) María Lilian Franco:
Abogada Of Counsel en Aguilar Castillo Love. Es licenciada por la Universidad Francisco Marroquín en Guatemala y posee un máster en derecho internacional y comercio exterior por el ISDE en España. Se especializa en arbitraje internacional y doméstico. Actualmente cursa una especialización en IA para abogados en el IE en España y le apasionan la innovación y nuevas tecnologías.
El presente artículo se presenta con fines informativos y en ningún caso reflejan la opinión de la autora en casos aislados o controversias futuras.
*(2) 2
Consejo de la Unión Europea, Reglamento de Inteligencia Artificial, 01 de Agosto de 2024, https://www.consilium.europa.eu/es/policies/artificial-intelligence/
*(3)
Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura, Recomendación sobre la ética la inteligencia artificial, 22 de noviembre de 2021, https://www.unesco.org/es/articles/recomendacion-sobre-la-etica-de-la-inteligencia-artificial
*(4)
Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura, Observatorio sobre la ética y gobernanza de la IA, 25 de noviembre de 2024, https://www.unesco.org/ethics-ai/en
*(5)
Suárez, Juan Luis, La nacionalización de la estrategia en torno a la inteligencia artificial. Estado, política y futuro, 23 de noviembre de 2024, https://ortegaygasset.edu/wpcontent/uploads/2018/07/Rev.OccidenteJulio-Agosto2018_J.L.Suarez.pdf
*(6)
Organización para la Cooperación y el Desarrollo Económico, The Global Partnership on AI, 23 de noviembre de 2024, https://gpai.ai/
*(7)
International Association of Privacy Professionals, La ANPD busca desarrollar un sandbox regulatorio para herramientas relacionadas con IA, 23 de noviembre de 2024, https://iapp.org/news/b/la-anpd-busca-desarrollar-un-sandbox-regulatorio-para-herramientas-relacionadas-con-inteligencia-artificial
*(8)
Ministerio de Ciencia, Tecnología, Conocimiento e Información de Chile, Política nacional de IA, 28 de octubre de 2021, https://drive.google.com/file/d/11OLxLp8NyKgpeRFLe45X0zStY7SFEJIC/view
*(9)
Alianza Nacional de la Inteligencia Artificial de México, ANIA, 23 de noviembre de 2024, https://www.ania.org.mx/
*(10)
Sistema para la Integración Centroamericana, Costa Rica avanza en inteligencia artificial con su nueva estrategia nacional 2024-2027, 22 de noviembre de 2024,