La inteligencia artificial (IA) ha emergido como una de las tecnologías más transformadoras de nuestro tiempo, caracterizada por su capacidad para procesar grandes volúmenes de datos y manifestar comportamientos inteligentes. Este tipo de sistemas no solo analiza su entorno, sino que actúa de manera autónoma para alcanzar objetivos específicos, imitando el razonamiento humano en la toma de decisiones, la resolución de problemas y el aprendizaje (Comisión Europea, 2018). Sin embargo, la IA no es la única innovación que conecta el mundo físico con el digital. Otras tecnologías disruptivas, como la robótica avanzada, la biotecnología, la impresión 3D y la computación cuántica, también están transformando industrias enteras y cambiando profundamente la sociedad.
Este conjunto de avances ha sido denominado por Klaus Schwab, fundador del Foro Económico Mundial, como la Cuarta Revolución Industrial, una era marcada no solo por la velocidad con la que se desarrollan estas innovaciones, sino por su profundo impacto en todas las esferas de la vida (Schwab, 2016). A diferencia de las revoluciones industriales anteriores, impulsadas por la mecanización, la automatización y la electrificación, esta nueva fase se distingue por la capacidad de las tecnologías para procesar grandes cantidades de datos a una velocidad nunca antes vista, generando oportunidades, pero también desafíos significativos para su regulación y control.
A nivel global, la IA presenta desafíos complejos y diversos ya que plantea disrupciones en derechos fundamentales como la privacidad, la seguridad y la equidad. Siendo claro que uno de los principales retos es la protección de los datos personales. Los sistemas de IA dependen del procesamiento de enormes cantidades de datos, que incluyen datos personales, para desarrollar su capacidad de análisis y toma de decisiones. Aunque el Reglamento General de Protección de Datos (GDPR) en Europa ha establecido un marco normativo para regular el uso de la información, el rápido avance tecnológico frecuentemente supera las capacidades regulatorias vigentes. Además, muchos países aún no han implementado una regulación adecuada, lo que genera vacíos legales especialmente cuando los datos personales cruzan fronteras internacionales.
Por otro lado, existe un gran reto en materia de transparencia y explicabilidad en el funcionamiento de los sistemas de IA y sus algoritmos. La falta de claridad en los procesos que siguen estas tecnologías no solo dificulta su supervisión, sino que también compromete derechos fundamentales, como la protección contra la discriminación o el acceso a la justicia, lo que subraya aún más la necesidad de una regulación robusta y adaptativa. Esto último debido a que esta tecnología funciona a través de aprendizaje automático (Machine Learning) y puede degenerar en las llamadas "cajas negras", esto es, situaciones en las cuales los desarrolladores no comprenden la forma en que la IA toma determinada decisión (Corvalán, 2017)1. Estas dificultades afectan directamente a los usuarios, pues respecto al aprendizaje se vuelve aún más complicado dar una explicación sobre el funcionamiento de la IA.
Teniendo en consideración estos retos, resulta evidente que la ausencia de una regulación adecuada no solo pone en riesgo la vulneración de derechos a nivel individual, sino que también puede tener repercusiones a mayor escala, afectando a grupos sociales más amplios. La regulación de esta tecnología tiene como objetivo evitar contradicciones frente a su rápido desarrollo y promover su integración de manera efectiva y profunda en las instituciones.
I - EL PRINCIPIO DE TRANSPARENCIA EN LA REGULACIÓN DE LA IA
El principio de transparencia se erige como un eje central en el desarrollo y regulación de la IA, debido a su capacidad para generar confianza pública, garantizar la rendición de cuentas y proteger los derechos fundamentales. La transparencia implica la existencia de políticas claras y accesibles para los usuarios, y la educación sobre el funcionamiento y las limitaciones de los sistemas de IA (Ruiz, 2022). En este sentido, es esencial que existan mecanismos efectivos de supervisión y responsabilidad para que, tanto los desarrolladores como los usuarios y las autoridades reguladoras, puedan entender y evaluar cómo se hace la toma de decisiones automatizadas.
Este principio exige que los procesos y decisiones de la IA sean comprensibles y accesibles, no solo para rastrear y explicar cómo se llega a una decisión, sino para permitir una evaluación crítica de su equidad, evitando posibles sesgos y discriminación (Araya, 2021). En el contexto de los desafíos éticos y sociales que plantea la IA, el principio de transparencia aborda los aspectos más relevantes, teniendo un impacto directo en las dimensiones socioeconómicas y en la confianza de los usuarios hacia las innovaciones tecnológicas. Asimismo, la transparencia juega un papel fundamental en contrarrestar la desinformación en torno al desarrollo de la IA.
En comparación con otras tecnologías emergentes, la IA tiene un impacto de mayor envergadura, dada su complejidad, lo que ha fomentado percepciones contradictorias o falsas sobre su uso. Implementar políticas claras y accesibles que acompañen su despliegue facilita un mayor uso responsable de esta tecnología, y también fomenta un aprendizaje más rápido por parte de los usuarios, lo que fortalece la interacción entre la IA, la sociedad y los derechos que deben salvaguardarse en este proceso de evolución tecnológica (Carvajal, 2021).
II - LOS ESTÁNDARES DE LA UNIÓN EUROPEA (2020-2024)
La regulación de la IA en la UE ha sido propiciada desde el año 2020, año en el cual la UE empezó a abordar los retos de la IA con la "Estrategia Europea de Inteligencia Artificial", la cual se planteó como marco de referencia para el periodo 2020-2025. Esta estrategia se propone orientar los planes sectoriales, nacionales y regionales en esta materia, en línea con las políticas desarrolladas por la UE, e impulsar la transformación de los diferentes sectores económicos mediante la cooperación público-privada.
Bajo este marco, la Comisión Europea presentó el "Libro Blanco sobre la inteligencia artificial: un enfoque europeo de la excelencia y de la confianza"2, el cual se estableció como la primera y principal propuesta para una regulación adecuada de la IA. El Libro Blanco establece opciones políticas de cómo lograr el doble objetivo de promover la adopción de la IA y abordar los riesgos asociados en el uso de dicha tecnología. Asimismo, tenía como objetivo explicar el desarrollo de un ecosistema de confianza al proponer un marco legal para una IA confiable, basado en los valores y derechos fundamentales de la UE, para darle a los usuarios la confianza en adoptar soluciones basadas en IA, al tiempo que alienta a las empresas a desarrollarlas.
El Parlamento Europeo también planteó un debate sobre la transición digital. Dentro de sus conclusiones se resaltó que debían asegurarse una mejor coordinación, así como más redes y sinergias entre los centros europeos de investigación basada en la excelencia, logrando que se proporcione una definición clara y objetiva de los sistemas de IA de alto riesgo.
El 21 de octubre de 2021, la Comisión Europea dio el siguiente paso y publicó una propuesta de "Reglamento para la armonización de las normas en materia de inteligencia artificial" y un plan coordinado que incluyó una serie de acciones conjuntas para la Comisión y los Estados miembros. Con éste, se buscó mejorar la confianza en la IA y fomentar el desarrollo y la actualización de la tecnología de IA, siguiendo un enfoque basado en los riesgos y establecer un marco jurídico horizontal y uniforme para la IA encaminado a garantizar la seguridad jurídica. En efecto, la propuesta de Reglamento ha sido un elemento clave de la política de la UE que apunta a consolidar el desarrollo y la adopción, en todo el mercado común, de una IA segura que respete los derechos fundamentales.
El avance del proceso legislativo durante los años 2022 y 2023 estuvo marcado por una serie de debates. El 6 de diciembre del 2022 el Consejo Europeo adoptó su posición sobre el Reglamento de IA, mencionando que este nuevo reglamento debía estar encaminado a garantizar que los sistemas de IA introducidos y posteriormente utilizados en el mercado de la UE sean seguros y respeten la legislación vigente en materia de derechos humanos, así como los valores de la Unión Europea. Al cabo de ciertas discusiones, el Consejo y el Parlamento Europeo alcanzaron un acuerdo provisional sobre el reglamento el 9 de diciembre de 2023.
Finalmente, el 21 de mayo de 2024 el Consejo adoptó el "Reglamento de Inteligencia Artificial"3, un acto legislativo innovador que armoniza las normas sobre IA y adopta un enfoque basado en el riesgo. Como se lee en los fundamentos, "cuanto mayor sea el riesgo de causar daños a la sociedad, más estrictas serán las normas". Por ello, sus objetivos son fomentar el desarrollo y la adopción de sistemas de IA seguros y fiables en todo el mercado único de la UE por parte de agentes públicos y privados, garantizando el respeto de los derechos fundamentales de los ciudadanos de la UE, y estimular la inversión y la innovación en IA en Europa.
Si bien la Comisión ha planteado que el enfoque basado en el riesgo es la base de un conjunto proporcionado y eficaz de normas vinculantes, señaló asimismo la importancia de las "Directrices éticas para una IA fiable"4, de 2019, las cuales han sido elaboradas por el Grupo Independiente de Expertos de Alto Nivel sobre IA creado por la Comisión. Este Grupo Independiente desarrolló siete principios éticos que tiene por objeto garantizar la fiabilidad y el fundamento ético de la IA. Estos principios son:
1. Acción y supervisión humana: se entiende que los sistemas de IA se desarrollan y utilizan como herramientas al servicio de las personas, que respeta la dignidad humana, y que funciona de manera que puede ser controlada y vigilada por los seres humanos.
2. Solidez técnica y seguridad: consiste en que los sistemas de IA se utilicen de manera tal que sean sólidos en caso de problemas, como alteraciones o el uso ilícito por terceros, y reducir al mínimo los daños no deseados.
3. Gestión de la privacidad y de los datos: se entiende que los sistemas de IA deben ser desarrollados y utilizados de conformidad con normas en materia de protección de la intimidad y de los datos, al tiempo que tratan datos que cumplen normas estrictas en términos de calidad e integridad.
4. Diversidad, no discriminación y equidad: los sistemas de IA deben incluir a diversos agentes promoviendo la igualdad de acceso, la igualdad de género y la igualdad cultural, evitando los efectos discriminatorios y los sesgos injustos prohibidos por el derecho nacional o el de la Unión Europea.
5. Bienestar social y ambiental: los sistemas de IA se deben desarrollar y utilizar de manera respetuosa con el medio ambiente, así como en beneficio de todos los seres humanos, al tiempo que supervisan y evalúan los efectos a largo plazo en las personas, la sociedad y la democracia.
6. Rendición de cuentas del desarrollo y utilización de los sistemas de IA.
7. Principio de transparencia: los sistemas de IA deben ser desarrollados y utilizados de un modo que permita una trazabilidad y aplicabilidad adecuada, que garantice que personas sean conscientes cuando interactúan con un sistema de IA, y que se informe debidamente a los responsables del despliegue acerca de las capacidades y limitaciones de dicho sistema de IA, y a las personas afectadas acerca de sus derechos.
El cumplimiento del principio de transparencia en los sistemas de IA se materializa a través de la provisión de documentación clara, accesible y comprensible, que debe acompañar a cada sistema antes de su despliegue. Esta documentación debe incluir instrucciones de uso detalladas, e información técnica sobre el funcionamiento del sistema, sus algoritmos y los procesos de toma de decisiones automatizadas. Es esencial que los usuarios y responsables tengan acceso a datos sobre los criterios que utiliza la IA para generar resultados, las limitaciones del sistema y cualquier riesgo potencial para la salud, la seguridad o los derechos fundamentales. Esto se refleja en la capacidad de los usuarios de solicitar auditorías o revisiones del sistema para asegurar que su funcionamiento sea conforme a las normativas y estándares aplicables.
Adicionalmente, para que el principio de transparencia se considere plenamente cumplido, la información proporcionada debe estar adaptada al perfil de los usuarios finales. Esto implica que la complejidad técnica del sistema de IA debe ser explicada en un lenguaje que permita su comprensión sin requerir conocimientos avanzados. También deben estar presentes mecanismos de supervisión que permitan a los usuarios monitorear, controlar y corregir el funcionamiento del sistema cuando sea necesario. En términos normativos, la transparencia se concreta mediante la creación de marcos regulatorios que exijan a los desarrolladores y proveedores de IA la entrega de informes periódicos y la realización de evaluaciones de impacto para demostrar que el sistema sigue operando de manera segura y conforme a las leyes vigentes.
Al respecto, el Reglamento establece que, debido a las preocupaciones relacionadas con la opacidad y la complejidad de determinados sistemas de IA, es necesario exigir un alto grado de transparencia en los sistemas clasificados como de alto riesgo, evaluando su impacto antes de ser desplegados. Estos sistemas, cuya operación puede tener un efecto significativo en la seguridad, los derechos fundamentales o la vida de las personas, requieren un diseño que permita a sus implementadores comprender su funcionamiento, evaluar su rendimiento y conocer tanto sus fortalezas como sus limitaciones. La importancia de esta regulación radica en que los sistemas de IA de alto riesgo, debido a su potencial para generar consecuencias graves, deben estar sujetos a medidas estrictas de supervisión humana, auditoría y responsabilidad, garantizando así su seguridad, fiabilidad y cumplimiento con los derechos fundamentales.
En efecto, el principio de transparencia exige que los sistemas de IA proporcionen información clara y accesible para garantizar un uso responsable y seguro. Por ello, la transparencia en la documentación proporcionada es fundamental para que quienes desplieguen estos sistemas tomen decisiones informadas y los utilicen de manera adecuada. Se espera que la información permita a los usuarios seleccionar correctamente el sistema de IA que mejor se ajuste a sus necesidades y que comprendan los usos permitidos y prohibidos. Como resultado se busca que la información que se encuentra plasmada en las instrucciones de uso sea fácil de entender y más accesible, así los proveedores tienen la responsabilidad de asegurar que toda la documentación sea significativa, completa y comprensible, y que esté diseñada considerando los conocimientos y necesidades de los usuarios finales.
Por lo tanto, el cumplimiento de las obligaciones de transparencia aplicables a los sistemas de IA que entran en el ámbito de aplicación del Reglamento no debe interpretarse como un indicador de que la utilización del sistema de IA o de sus resultados de salida es lícito, y por el contrario debe implementarse sin perjuicio de otras obligaciones de transparencia aplicables a los responsables del despliegue de sistemas de IA establecidas en el derecho de la Unión o en la legislación de cada Estado.
III - EL DESARROLLO NORMATIVO DE LA IA EN COLOMBIA
En el caso colombiano, no existe una regulación de la IA. Además, las leyes vigentes en materia de datos personales no contienen disposiciones específicas sobre la IA, por lo que es pertinente plantearse su suficiencia respecto a los riesgos que implica el avance tecnológico de la IA y la materialización de dichos riesgos frente a los derechos fundamentales y la protección de datos personales.
De este modo, la normatividad aplicable respecto al uso de la IA, partiendo del supuesto de que su funcionamiento implica el tratamiento de datos personales, es aquella sobre protección y tratamiento de datos personales, la cual está recogida principalmente en las Leyes 1.266 de 2008 y 1.581 de 2012. De manera conjunta, estas normas han consagrado principios como la transparencia, proporcionalidad, finalidad, responsabilidad proactiva, la implementación de esquemas de cumplimiento normativo y ético, en desarrollo del derecho fundamental del habeas data, consagrado en el artículo 15 de la Constitución Política. De este modo, la legislación vigente proporciona un marco robusto que garantiza el control sobre la información personal, en aplicación del principio de transparencia que obliga a las entidades que tratan datos a actuar con apertura y claridad, y permitiendo a los titulares de los datos conocer, en todo momento, cómo y para cuáles fines se utiliza su información personal.
Si bien, como sugerimos, Colombia carece de una regulación integral de la IA, sí se ha dado un desarrollo normativo recogido en directrices de algunas entidades de orden nacional. El CONPES 3975 de 2019 es la principal herramienta de dirección sobre la implementación de la IA en Colombia, con el cual se adoptó una política nacional para la transformación digital e IA, en desarrollo de principios claves con los que se busca balancear la protección de los derechos fundamentales, y el fomento de la innovación y confianza en la IA, para que Colombia pueda aprovechar las oportunidades y enfrentar los retos relacionados con la Cuarta Revolución Industrial.
Recientemente, el Ministerio de Ciencia, Tecnología e Innovación presentó la "Hoja de Ruta de la Inteligencia Artificial para Colombia", un documento con el cual busca guiar el desarrollo de políticas, acciones y decisiones del Gobierno Nacional, y que tiene como puntos esenciales la ética y gobernanza de la IA, haciendo énfasis en la transparencia de los algoritmos, y el manejo seguro de datos para garantizar una adopción ética y sostenible de la IA en el país. Paralelamente, el Ministerio presentó el Proyecto de Ley 447 de 2024 con el objetivo de impulsar el uso responsable de datos para el desarrollo de políticas públicas y la producción de IA en Colombia, en un marco general de aprovechamiento de la infraestructura de datos del Estado, para orientar la toma de decisiones del Gobierno de manera tal que "permitan mejorar la calidad de vida de los ciudadanos y el desarrollo de las actividades sociales y económicas del país" (art. 1). Adicionalmente, en el marco de la Cumbre Nacional de Inteligencia Artificial, el Departamento Nacional de Planeación anunció la publicación de un nuevo CONPES sobre la IA, que busca incentivar su desarrollo, en el marco de un uso ético y sostenible para impulsar la transformación social y económica de Colombia.
A nivel legislativo, en concordancia con lo que sucede a nivel global, en Colombia se ha visto un claro interés por regular la IA, ya que desde el 2023 se han presentado varios proyectos de ley en el Congreso de la República que proponen una regulación integral basada en principios éticos y derechos humanos. Dentro de estos numerosos trámites incluso se llegó a configurar una Comisión Accidental sobre Proyectos de Ley de IA en el Congreso, con el objetivo de unificar criterios y construir consensos, para construir una regulación que respete los principios de transparencia, equidad y justicia, y para que esta tecnología se desarrolle en un entorno ético.
Entre los proyectos de ley presentados están el 59 de 2023, el 91 de 2023, el 130 de 2023, el 156 de 2023, el 200 de 2023 y el 255 de 2024. En términos generales, la mayoría de los proyectos buscan crear un marco general e integral sobre la adopción y uso responsable de la IA. Sin embargo, son proyectos que apenas han avanzado en su trámite legislativo, por lo que ninguno ha llegado a convertirse en ley, y en su mayoría han sido archivados.
Todos los proyectos de ley parten de la incorporación de una definición de la IA, su ámbito de aplicación y los actores obligados al cumplimiento de la regulación. También se ha evidenciado como común denominador la consagración explícita del principio de transparencia. Así, por ejemplo, el PL 59/23C busca que los responsables del uso y desarrollo de IA expliquen las causas que dan lugar a las decisiones o predicciones de los algoritmos (art. 14); el PL 200 de 2023 hace un análisis crítico en relación con el principio de transparencia y los estándares de protección de derechos humanos, por ejemplo, al establecer la información que las empresas tienen que hacer pública acerca de sus productos, los datos que utiliza, el proceso de desarrollo, la finalidad del sistema, así como dónde y quién lo utiliza. Así, se delimitan una serie de responsabilidades en cabeza de las entidades públicas y privadas, y la protección de los usuarios, al plantear que la Superintendencia de Industria y Comercio (SIC) haga procesos de auditoría de IA, sistemas de evaluación de riesgos y de impacto en los derechos fundamentales. De este modo, se obliga a las empresas a registrar sus modelos de IA en una plataforma administrada por la SIC, que certificaría la adecuación de los modelos a los derechos humanos.
De igual forma, la mayoría de los proyectos contienen disposiciones sobre la discriminación, igualdad de trato y oportunidades. Por ejemplo, el PL 200/23 prohíbe la implementación de IA en ciertas actividades como la calificación de perfiles para el otorgamiento de créditos y la predicción de conductas delictivas, o el reconocimiento de emociones y la influencia en votantes (art. 13). En relación con la protección de datos personales se habla del consentimiento informado para el uso de datos personales.
Estos antecedentes demuestran la necesidad de crear un consenso sobre el marco regulatorio adecuado para el desarrollo y uso de IA que vaya de manera acorde con los derechos humanos.
En el ámbito judicial, en la sentencia T-323 de 2024, la Corte Constitucional Colombiana destacó la importancia de la IA como una herramienta para gestionar tareas y asistir en la redacción de decisiones judiciales, pero subrayó que los jueces no deben depender excesivamente de los sistemas de IA, ya que esto podría comprometer el derecho al debido proceso, la independencia e integridad del Poder Judicial. El caso se originó en una tutela en la cual el juez de segunda instancia utilizó ChatGPT para complementar su decisión, lo que generó preocupación sobre la posible vulneración del debido proceso. No obstante, la Corte concluyó que, aunque la herramienta fue utilizada, la decisión final no dependió exclusivamente de ella, y el juez mantuvo la responsabilidad en la decisión. De este modo, el fallo resaltó la necesidad de regular el uso de IA en el ámbito judicial para asegurar la transparencia, responsabilidad, protección de la privacidad y evitar que la IA reemplace el juicio humano.
Adicionalmente, la Corte instruyó al Consejo Superior de la Judicatura a diseñar una guía para el uso de estas tecnologías en la rama judicial, que contenga pautas integrales que aseguren un uso responsable y ético de la IA, y el respeto por los derechos humanos.
En cuanto a los principios orientados al desarrollo de la IA en Colombia, es necesario analizar aquellos que podrían incidir en la profundización de desigualdades sociales y disparidades. Para abordar estos desafíos, se deben implementar principios que logren equilibrar la protección de los derechos con la promoción de la innovación y la confianza en los sistemas de IA.
En ese sentido, conforme al CONPES 3975 de 2019, es crucial fomentar la creación de un mercado sólido de IA en Colombia, priorizando innovaciones que impulsen el surgimiento de nuevos sectores económicos. Además, resulta indispensable que las políticas regulatorias se basen en evidencia empírica y en métricas de impacto, lo que permitirá una regulación más eficaz y adaptativa. Al mismo tiempo, se debe concebir el mercado de IA como una herramienta para promover la equidad y la inclusión social, asegurando que su desarrollo contribuya al cierre de brechas socioeconómicas.
Es imperativo establecer un marco ético robusto que acompañe la evolución de la IA, dado que su uso plantea retos significativos en torno a principios fundamentales como la justicia, la libertad, la no discriminación, la transparencia, el diseño responsable, la seguridad, la privacidad y la protección de los derechos humanos. La regulación de la IA, por tanto, debe incorporar una dimensión ética transversal que abarque todas las fases de su desarrollo, implementación y monitoreo, garantizando que las tecnologías emergentes operen bajo criterios de responsabilidad social y respeto por los valores democráticos, sin que esto implique de ninguna forma una limitación a su desarrollo.
IV - COMPARACIÓN ENTRE LOS ESTÁNDARES EUROPEOS Y LA PROPUESTA COLOMBIANA
El principio de transparencia es fundamental para garantizar que el desarrollo, despliegue y uso de sistemas de IA sean confiables y éticos. Este principio exige que los procesos, decisiones y operaciones de los sistemas de IA sean comprensibles y accesibles tanto para sus desarrolladores como para los usuarios y las autoridades reguladoras. La transparencia no solo implica la posibilidad de rastrear y explicar cómo una IA llega a una decisión, sino también de evaluar si estas decisiones son justas y no discriminatorias.
La transparencia también implica la creación de políticas claras y accesibles para los usuarios, educar sobre el funcionamiento y limitaciones de la IA, y garantizar que existan mecanismos de responsabilidad y supervisión. La combinación de estos métodos permite que tanto los expertos en tecnología y la sociedad en general puedan confiar en que los sistemas de IA operan de manera ética, segura y conforme a los estándares legales y de derechos humanos (Comisión Europea, 2018).
Respecto al marco legal vigente relevante para la regulación de IA en el país, la Constitución Política de 1991, en su artículo 15, proporciona una base sólida para la protección de los datos personales, garantizando derechos fundamentales como la privacidad, el buen nombre y el derecho a la rectificación de información. El derecho al habeas data está intrínsecamente ligado a la protección de la intimidad personal, y es una herramienta clave para asegurar que los datos personales no sean utilizados de manera indebida. Este derecho se ha convertido en un pilar esencial en el contexto de la IA, debido al creciente uso de tecnologías avanzadas para la recolección y análisis de datos que demanda una protección robusta y efectiva de la información personal.
El desarrollo y despliegue de sistemas de IA deben alinearse con los principios constitucionales, garantizando que el uso de datos respete los derechos fundamentales consagrados en la Constitución, especialmente en lo relacionado con la privacidad y los datos personales.
Sobre esta base constitucional, se erigió la Ley 1712 de 2014 encargada de regular el derecho de acceso a la información pública, promoviendo la transparencia y la rendición de cuentas en el uso de tecnologías de IA en el sector público. Entre los proyectos de ley analizados, cabe destacar el PL 200 de 2023, el cual busca establecer un marco normativo robusto para regular el desarrollo y la implementación de la IA en Colombia. Este proyecto, además, se alinea con los principios y valores propuestos por organismos internacionales como la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO), que en su reglamentación sugiere que todo desarrollo tecnológico, especialmente la IA, debe tener un enfoque centrado en los derechos humanos, la seguridad y la protección de las personas y sus datos.
La experiencia internacional ha demostrado que los sistemas de IA pueden llevar a prácticas discriminatorias, injustas y vulneradoras de derechos humanos, por lo cual, los límites éticos son esenciales para permitir un uso responsable de esta tecnología en el país armonizando la innovación y su incentivo. La posibilidad de acceder al código fuente y a la información técnica de estos sistemas permite identificar posibles sesgos, errores o vulnerabilidades, y evitaría decisiones arbitrarias derivadas de la "caja negra" que caracteriza a muchos algoritmos actuales (Corvalán, 2017).
Los beneficios de incluir el principio de transparencia en la regulación de IA en Colombia se reflejan principalmente en los sistemas de IA de alto riesgo, debido a que la implementación del principio de transparencia permitirá que los responsables del despliegue interpreten y usen correctamente sus resultados de salida. Con ello se buscaría garantizar que los sistemas de IA estén acompañados de las instrucciones de uso correspondientes en un formato digital o de otro tipo adecuado, las cuales deben incluir información concisa, completa, correcta, pertinente, accesible y comprensible para los responsables del despliegue y, en especial, para los usuarios.
Por lo tanto, incluir el principio de transparencia en la regulación de IA en Colombia es crucial para garantizar la protección de los derechos fundamentales y aumentar la confianza en los sistemas de decisión automatizada. Al establecer la transparencia como un estándar clave, se asegura el acceso a los datos de entrenamiento, validación y pruebas, junto con la documentación técnica que respalda estos sistemas. Esto es esencial para permitir la rendición de cuentas de las entidades responsables reforzando la seguridad y confiabilidad en la IA.
La transparencia facilita un uso ético y equitativo de la IA, al permitir que los expertos independientes y la sociedad evalúen su funcionamiento, lo que es clave para generar la confianza necesaria en su adopción. Además de garantizar el acceso a la información pública, se debe equilibrar la protección de la propiedad intelectual y el secreto industrial, para construir un marco regulatorio que sea ampliamente aceptado por la sociedad y que garantice la justicia y la equidad en la toma de decisiones automatizadas, fomentando tanto la confianza como la innovación.
V - CONCLUSIONES
La Cuarta Revolución Industrial ha transformado de manera significativa diversos sectores económicos a través de la implementación de sistemas de IA. Estos avances han optimizado procesos y mejorado la toma de decisiones, pero al mismo tiempo han generado desafíos importantes, especialmente en la protección de los derechos fundamentales. En este contexto, la regulación de la IA se ha vuelto crucial.
El enfoque regulatorio de la UE se destaca por su base ética y humanista, proponiendo un marco que garantiza un entorno seguro, promueve la innovación y protege los derechos fundamentales. Estos principios buscan equilibrar el avance tecnológico con la rendición de cuentas y la mitigación de riesgos, subrayando la importancia del principio de transparencia como un factor clave en la regulación efectiva de la IA.
En efecto, el principio de transparencia, con sus dimensiones de trazabilidad, explicabilidad y comunicación, es esencial para garantizar la confianza en los sistemas de IA. La regulación adecuada debe asegurar que los actores involucrados comprendan los beneficios y los riesgos asociados al uso de esta tecnología. En este sentido, la transparencia no solo fortalece la confianza en la IA, sino que también es indispensable para la gestión ética de sus riesgos.
En Colombia, la adopción de un marco regulatorio centrado en la transparencia es crucial para asegurar un uso responsable de la IA. La base constitucional existente, junto con la voluntad política adecuada, puede facilitar la creación de una regulación flexible que proteja los derechos fundamentales. Aunque los proyectos legislativos están en etapas tempranas, la Corte Constitucional ha dado pasos importantes hacia la regulación ética de la IA, marcando un camino prometedor para el futuro del país en este ámbito.
Finalmente, es posible plantear tres recomendaciones para una inclusión efectiva del principio de transparencia en el proyecto de regulación de IA en Colombia. La primera recomendación versa sobre la interdisciplinariedad; la segunda se refiere a la participación efectiva, y, por último, la tercera alude a los espacios de pedagogía y formación.
Una de las estrategias usadas en los procesos normativos de la UE tratados en este texto es la interdisciplinariedad. Varios son los ejemplos donde la reunión de un grupo de expertos desde diferentes áreas amplía la perspectiva sobre la que se parte para iniciar un proyecto regulatorio. Tal como el Grupo de Expertos de Alto Nivel conformado por la Comisión Europea o el Grupo Interdisciplinario que participó en la elaboración de la Carta de Derechos Digitales Española. La interdisciplinariedad en el marco regulatorio colombiano es esencial, la composición plural y equilibrada de un grupo de expertos permite que el trabajo no sea estático, sino que los puntos de vista sustantivos nutran el proceso normativo.
Tanto la perspectiva jurídica como la técnica pueden converger en un trabajo humanista aplicado a un sector netamente tecnológico. Los consensos y disensos que surjan podrían fortalecer la formulación del marco regulatorio y propender a que el abordaje de los beneficios, riesgos y desafíos sea más exhaustivo. Desde el inicio de las discusiones, la información y técnica aplicadas deben ser transparentes, dado el impacto que tendrá una vez sea finalizado el proceso de desarrollo normativo.
Segundo, la interdisciplinariedad debe estar combinada con espacios efectivos de participación. Sobre la participación efectiva, López (2022) expone herramientas para el diseño y análisis de regulaciones. Una estrategia mencionada es el sandbox regulatorio, el cual permite una experimentación en ambientes controlados para la prueba de tecnologías que actualmente no se encuentran subsumidas en las reglas. Esto podría resultar insuficiente en el caso colombiano. Sin embargo, elementos de este mecanismo podrían extrapolarse a espacios efectivos de participación más amplios sostenidos por el Estado. Estos elementos son el diálogo continuo y efectivo entre el regulador y los regulados, la amplia información que se obtiene sobre las necesidades de la regulación y el intercambio de conocimientos.
El proceso regulatorio debe cumplir requisitos formales y materiales para tener éxito. El estricto cumplimiento del proceso legislativo contemplado en la Constitución es una responsabilidad que recae en el legislador. Debe ser un proceso justo, accesible y abierto, que se debe combinar con la interdisciplinariedad antes mencionada, asegurando que todas las partes interesadas puedan participar. La participación de expertos en el tema no debe limitarse a aspectos técnicos, científicos y económicos, sino que también se extienda al campo de los derechos humanos. Al final, la evaluación del espacio de participación efectiva versará sobre los costos y beneficios inmersos en el proceso regulatorio, así como la combinación de diferentes estrategias regulatorias basadas en la diversidad de actores que participaron en el espacio (López, 2022).
Por último, la tercera recomendación sobre pedagogía y formación es transversal. La orden de la Corte Constitucional colombiana al Consejo Superior de la Judicatura sobre la divulgación de una guía, manual o lineamiento sobre el uso de la IA en la toma de decisiones judiciales es un ejemplo de la importancia de la pedagogía y la formación en la implementación de estos sistemas. El uso que se le dé a estas tecnologías determinará en gran medida los beneficios o riesgos que puedan presentarse. Espacios de formación y pedagogía sobre la IA tanto públicos como privados serán provechosos no solo para materializar el principio de transparencia en su arista de comunicabilidad y explicabilidad, sino también para enriquecer y fortalecer la interrelación con esta tecnología que ha llegado para quedarse.
Estas recomendaciones resaltan la necesidad de situar la transparencia como el eje fundamental en la regulación de la IA. La IA, en sí misma, no debe considerarse como inherentemente buena o mala. Su impacto depende del modo en que se gestione y de las decisiones humanas que guíen su funcionamiento. La IA es parte de la vida cotidiana, y se ha vuelto transversal a todos los sectores de la sociedad. Su potencial para generar beneficios es inmenso, siempre que los riesgos asociados y la protección de los derechos fundamentales sean tratados con la seriedad que merecen. El desafío, por tanto, es asegurar un uso responsable, transparente y ético de la IA, que promueva el bienestar común y la confianza en el futuro tecnológico.