LA PRÓXIMA GRAN CRISIS DE LA CONTRATACIÓN ESTATAL NO SERÁ POR CORRUPCIÓN, SINO POR EL USO IRRESPONSABLE DE LA IA
Andres Duque
Colombia lleva años hablando de transformación digital, datos abiertos y automatización. En el papel, tenemos política de Gobierno Digital, lineamientos de uso de TIC y discurso permanente sobre innovación. Pero cuando se asoma a la contratación estatal, la realidad desde mi óptica, no es la misma, seguimos tomando decisiones del siglo XX con herramientas del siglo XXI, peor aún, lo hacemos sin entender los riesgos y no tenemos presentes las obligaciones jurídicas que trae esa combinación.
El Derecho ya demostró, a la fuerza, que puede adaptarse a las Tecnologías de la Información. La pandemia de Covid-19 en el 2020, obligó al sistema judicial a abandonar muchas prácticas anacrónicas e implementar audiencias virtuales, notificaciones electrónicas y expedientes digitales. Lo anterior, con muchos tropiezos, sí, pero evolucionó para proteger derechos y mantener en marcha la función jurisdiccional en el estado colombiano.
Sin embargo, tratándose de la Contratación Estatal, regida por los principios de transparencia, economía, responsabilidad y selección objetiva de la Ley 80 de 1993 y la Ley 1150 de 2007, entre otras, y por el mandato del artículo 209 de la Constitución Política, creo que la incorporación de la Inteligencia Artificial está ocurriendo de la peor manera posible, y esto se debe a que no existentes reglas claras, no hay cultura de datos y, sobre todo, sin conciencia del daño que se puede causar a terceros.
La IA no es una moda. Es una infraestructura de decisión. Y cuando entra en la contratación pública, toca nervios personales, institucionales y, sobre todo, constitucionales.
Entran en juego, entre otros, los derechos a la igualdad (art. 13 CP), el habeas data y la protección de datos personales (art. 15 CP, Ley 1581 de 2012), el debido proceso (art. 29 CP, Ley 1437 de 2011 –CPACA–) y el acceso a la información pública (Ley 1712 de 2014), y no es exagerado decir que el uso irresponsable de IA en contratación estatal puede vulnerar, simultáneamente, varios de estos derechos.
Ahora bien, voy al punto que más me preocupa, y esto lo digo porque lo he visto de primera mano en diferentes instituciones públicas. En procesos de selección con el Estado, he observado a colegas, abogados especialistas en contratación estatal y jefes de área jurídica y de contratación, subir a chatbots gratuitos de IA (como versiones abiertas de “ChatGPT” y similares), estudios previos, pliegos de condiciones, ofertas económicas, matrices de riesgos, certificados de experiencia, RUT, RUP, Estados financieros, e incluso documentos marcados como reservados o de circulación restringida.
Y esto se hace con el fin de optimizar tiempo, para que la herramienta les resuma, les encuentre errores, o les ayude a armar observaciones correspondientes a los documentos presentados. Pero frente a esto, se está cometiendo un error garrafal, se ejecuta desde la comodidad de un plan gratis, sin contrato de tratamiento de datos, sin garantías de confidencialidad, sin revisar términos y condiciones, sin preguntar dónde se almacenan esos datos, por cuánto tiempo, para qué se usan y quién responde si algo sale mal.
Y es que, para entender la gravedad del asunto, hay que ir al aspecto técnico de esto. Cuando utilizas una IA generativa en su modalidad gratuita, no estás usando una bóveda privada. Estás enviando información a la infraestructura de un tercero que, en muchos casos, se reserva el derecho de utilizar esos “prompts” (tus preguntas y los documentos que pegas) para reentrenar sus modelos. Ello puede resultar difícilmente compatible con el habeas data, romper la confidencialidad y resulta éticamente inaceptable.
Lo anterior, dicho sin rodeos, es una bomba atómica jurídica. En los documentos precontractuales, contractuales y pos-contractuales posiblemente hay datos personales de representantes legales y proponentes, información financiera, secretos empresariales, estrategias comerciales, precios de oferta, estados financieros y, a veces, datos sensibles. La Ley 1581 de 2012 exige que el tratamiento de datos personales se haga con finalidad legítima, autorización o base jurídica suficiente, medidas de seguridad adecuadas, circulación restringida y respeto por los derechos de los titulares.
Cuando un abogado del Estado Colombiano, o un contratista sube todo eso a una plataforma de IA, y sobre todo gratuita, sin marco contractual y sin garantías, ¿qué está haciendo?, entregando datos de terceros actualmente a un proveedor extranjero, sometiéndolos a términos de uso que casi nadie leyó y exponiéndolos a usos ulteriores que no controla. Es así como desde la óptica de la contratación estatal, el problema se agrava.
Es por todo lo anterior que, la entidad tiene un deber reforzado de custodia de la información que recibe en los procesos de selección. Los documentos aportados por los oferentes no son del abogado ni del contratante; se entregan al Estado bajo unas reglas de confidencialidad, publicidad y reserva definidas por la Constitución, la Ley 80, la Ley 1474 de 2011 (Estatuto Anticorrupción) y la propia Ley 1581 de 2012.
Cuando un servidor público o un contratista saca esa información del circuito institucional y la vierte en un sistema privado de IA sin garantías, no está “innovando”: está abriendo la puerta a una eventual falla del servicio, un daño antijurídico, responsabilidad disciplinaria y, en casos extremos, a responsabilidad patrimonial del Estado.
Y lo más grave es que muchos lo hacen con una tranquilidad y ligereza que, por lo menos a mí me asusta. Eliminan mensajes de la conversación con el chatbot, y creen, ingenuamente, que con eso se borró el problema, la más fácil, como si el deber de responsabilidad del artículo 6 del CPACA y las obligaciones del responsable del tratamiento en la Ley 1581 de 2012 se pudieran ignorar con un clic en “Eliminar”.
Pues no es así. El simple hecho de haber cargado información de terceros y protegida a un entorno no controlado ya puede ser incompatible con los principios de finalidad, seguridad y circulación restringida. Y, si a futuro esa información se filtra, se reutiliza o termina entrenando modelos que nadie en Colombia puede auditar, ¿de verdad vamos a decir que fue “un error de buena fe” y nada más?
Este no es un ataque a la Inteligencia Artificial. Es un llamado frontal a la responsabilidad jurídica en su uso por parte de las entidades del estado en el sistema de compras de bienes y servicios.
La IA puede aportar muchísimo a la contratación estatal, análisis de mercados, detección de patrones de corrupción, apoyo en la revisión de documentos, análisis de riesgos, entre otros. Pero eso exige, como mínimo: (i) contratos claros con proveedores de IA que definan tratamiento de datos, gobernanza algorítmica, propiedad intelectual y ubicación de servidores; (ii) lineamientos internos que prohíban expresamente subir información reservada o sensible a herramientas sin garantías sobre todo tratándose de asistentes o agentes gratis; (iii) formación obligatoria de abogados del Estado y contratistas en protección de datos y ética de la IA; y (iv) sometimiento de cualquier herramienta de IA a los principios de transparencia y debida motivación exigidos por la Constitución, el CPACA y el régimen de contratación.
Y es que es muy preocupante ver, entidades que hablan de “transformación digital” mientras sus asesores jurídicos y lideres de áreas usan IA gratis para analizar ofertas con datos de terceros; procesos de selección que se rigen por principios de selección objetiva sobre el papel, pero que en la práctica ven cómo información estratégica termina en manos de un modelo de lenguaje natural alojado en otro país y como pasará en el futuro, fuera del planeta tierra cerca a la luna; discursos sobre anticorrupción, mientras se abren brechas gigantes en la seguridad de la información que ningún pliego previó y ni ningún contrato reguló.
Por eso, para mí la discusión sobre IA en contratación estatal no es un lujo académico, es una urgencia ética y jurídica. No basta con decir que “la IA llegó para quedarse”, hay que aprender a implementarla y usarla. Por eso es importante decidir bajo qué reglas éticas y jurídicas se queda, y que mientras no exista una cultura mínima de protección de datos, mientras no entendamos que cada documento que subimos a un chatbot lleva detrás titulares de derechos, expectativas legítimas de confidencialidad y obligaciones legales muy concretas, seguiremos utilizando la IA como un juguete, como un google, y no como la infraestructura crítica que ya es.
La verdadera innovación en contratación pública no es ser el primero en usar un chatbot de moda o decir que la IA ayudó a redactar un objeto o unas obligaciones. Es ser el primero en negarse a vulnerar derechos fundamentales en nombre de la eficiencia.
El Estado social de derecho no puede terminar subordinado a los términos y condiciones de cualquier proveedor de IA gratuita de china y/o EEUU.
Si no se esa discusión desde ya, en los comités y oficinas de contratación, en las oficinas jurídicas, en los despachos de control interno, pero sobre todo en espacios público políticos y académicos, la próxima gran controversia en materia de contratación estatal no será por una licitación corrupta y amañada, sino por un proceso viciado con posibles matices de nulidad absoluta desde su origen por una banalización real del habeas data y de la responsabilidad pública frente a la Inteligencia Artificial.
Por ello, la entidad, el abogado o funcionario que hoy no se capacite jurídica, técnica y éticamente en el uso de Inteligencia Artificial no solo cometerá errores graves que vulnerarán derechos frente a terceros, sino que además posiblemente tendrá que responder legalmente y en muchos casos, será desechado por la industria.
La IA en la contratación estatal es una oportunidad brillante para la eficiencia, pero, en manos inexpertas, es una bomba de tiempo para la privacidad. Es hora de dejar de jugar con los datos del Estado.
La obsolescencia profesional ya no se medirá en décadas o meses de experiencia, sino en el uso de la IA y su conocimiento en la aplicabilidad.