Autor: Juli Ponce Solé, Catedrático de Derecho Administrativo de la Universitat de Barcelona.
La automatización de las funciones administrativas, en su caso empleando sistemas algorítmicos con inteligencia artificial, es ya una realidad en diversos ámbitos, desde la concesión o denegación del bono eléctrico, hasta la determinación de la incapacidad temporal en la seguridad social, pasando por el ámbito tributario.
Esta automatización no es desconocida en el ámbito de la contratación y ante su previsible extensión futura – sólo es preciso recordar la nueva ministra no humana encargada de contratación en Albania, como apuesta contra la corrupción - es crucial reflexionar sobre sus posibilidades, sus riesgos y sus límites, tanto tecnológicos como jurídicos, cosa que se va a hacer en el marco del VII CONGRESO DEL OBSERVATORIO DE CONTRATACIÓN PÚBLICA de 2025 a celebrar en Zaragoza, en el contexto de un panel específico dedicado a la tecnología y la contratación pública.
La reflexión, creemos, debe partir del concepto y tipos de automatización (art. 41 Ley 40/2015, del Régimen Jurídico de las Administraciones Públicas) y de IA, pues, a efectos jurídicos, no es lo mismo una IA basada en reglas que otra simbólica o estadística (de aprendizaje automático o generativa, por ejemplo), como hemos tenido ocasión de exponer con detalle en el libro El Reglamento de Inteligencia Artificial de la Unión Europea de 2024, el derecho a una buena administración digital y su control judicial en España, un resumen del cual puede consultarse en abierto aquí, así como la conversación que tuvo lugar en torno al mismo en el contexto de una de las presentaciones realizadas, aquí, donde se planteó, entre otras cuestiones, si existen límites (también jurídicos) al reemplazo de humanos por máquinas, por supuesto incluyendo el ámbito de la contratación pública.
Para la reflexión sobre la automatización y el uso de la IA en la contratación del sector público es útil partir de los beneficios que presenta la misma, así como de sus riesgos (incluyendo los de violación de derechos y principios, como los de intimidad y protección de datos, transparencia, debido a las black boxes y a la opacidad en el caso de la IA simbólica o estadística - pero también en supuestos mucho más sencillos, como el ya mencionado caso BOSCO o los “frameworks” opacos empleados por la administración cántabra en las licitaciones, afortunadamente removidos gracias a la lucha del señor Jaime García Obregón, querella penal contra él incluida - interdicción de la arbitrariedad o el de buena administración) y sus costes (entre ellos, destacadamente, los ambientales, sin olvidar la afectación de empleos de humanos, también en el sector público existente).
Desde este análisis es cuando puede abordarse la regulación de la IA para aprovechar sus beneficios y controlar y evitar sus riesgos y costes. Desde luego, por un lado, la regulación europea, ámbito en el que el Reglamento de 2024 sobre IA impacta también de manera relevante sobre los contratos públicos. Asimismo, son de interés las cláusulas contractuales tipo para la contratación de sistemas con inteligencia artificial.
Por otro lado, debemos tener en cuenta la legislación nacional, en lo que ahora interesa la española, que a nivel estatal es muy escasa y claramente mejorable. Lo que hemos puesto de relieve con concretas propuestas regulatorias en un reciente libro, incluyendo la reforma de la LCSP, que, por el momento de su aprobación, no contempla específicamente el tema del que estamos tratando.
Todo ello en un contexto doble que es preciso no olvidar: la de la automatización, en su caso con IA, en el desarrollo de la contratación pública y, aspecto diferente, la contratación pública de soluciones de automatización en el sector privado.
a) En el primer caso, la indudable utilidad de la IA como soporte a las funciones administrativas (existiendo ya experiencias como el uso de IA generativa por parte de la Diputación de Girona) no debe confundirse con la automatización parcial de ciertas tareas ni con la automatización total en la toma de la decisión final, también en el ámbito de la contratación.
Si bien la automatización parcial de ciertas tareas tanto en la preparación, en la adjudicación o en la ejecución del contrato pueden contribuir a mejorar la gestión pública (evitando los riesgos y costes aludidos), la automatización total, esto es la entrega de la decisión administrativa a la máquina, debe venir condicionada por lo que hemos denominado reserva de humanidad.
La incapacidad de razonar como un humano (abductivamente también), la falta de empatía y la necesidad de respetar el procedimiento debido suponen límites tecnológicos pero también jurídicos a las máquinas, vinculados a la buena administración en el ejercicio de la discrecionalidad, entendida como un margen de apreciación volitivo en la contratación pública, incluyendo también la aplicación de conceptos jurídicos indeterminados con un halo de incertidumbre.
Entregar decisiones en estos ámbitos a las máquinas es aumentar exponencialmente los riesgos de malas administraciones y una aplicación elemental del principio jurídico de precaución, en su vertiente social, exige evitarlo.
Así, en la fase de preparación de contratos, como es sabido, la LCSP señala que.
“Artículo 28. Necesidad e idoneidad del contrato y eficiencia en la contratación.
1. Las entidades del sector público no podrán celebrar otros contratos que aquellos que sean necesarios para el cumplimiento y realización de sus fines institucionales”
Aquí, la automatización con IA puede desempeñar un papel de apoyo, pero no puede decidir autónomamente sobre la necesidad.
En la fase de adjudicación de contratos, la LCSP en su artículo 146 sobre aplicación de los criterios de adjudicación y en su artículo 150 sobre la clasificación de las ofertas y adjudicación del contrato, señala, como es sabido, que es posible “la valoración de los criterios cuya cuantificación dependa de un juicio de valor”, así como que “se atenderá a los criterios de adjudicación señalados en el pliego, pudiéndose solicitar para ello cuantos informes técnicos se estime pertinentes”. Aquí la automatización, con IA en su caso, puede contribuir a la elaboración de esos informes, pero no debe decidir el juicio de valor. Nótese, que la llamada a no hacer depender siempre y exclusivamente la adjudicación de los contratos en el precio, de la está siendo adalid el profesor Gimeno Feliu, como garantía de la buena administración, puede implicar limitaciones al uso de la IA. O, dicho en otras palabras, hay que tener cuidado de que el uso de la IA no lleve a reforzar aún más la adjudicación en base meramente al precio.
Finalmente, en la fase de ejecución de contratos la LCSP señala en su artículo 279 sobre las causas de resolución que “Son causas de resolución del contrato de concesión de obras, además de las señaladas en el artículo 211, con la excepción de las contempladas en sus letras d) y e), las siguientes:
…
c) El rescate de la explotación de las obras por el órgano de contratación. Se entenderá por rescate la declaración unilateral del órgano contratante, adoptada por razones de interés público, por la que dé por terminada la concesión, no obstante la buena gestión de su titular, para su gestión directa por la Administración. El rescate de la concesión requerirá además la acreditación de que dicha gestión directa es más eficaz y eficiente que la concesional”.
De nuevo la existencia de un juicio de valor, de un margen de apreciación, de una operación volitiva vinculada a este concepto jurídico indeterminado de “razones de interés público” ha de impedir su entrega a la máquina, debiendo quedar reservado para el humano que ocupe el órgano competente para tal decisión.
Por último, el papel de la automatización y de la IA en el ámbito del control de la mala administración y de la corrupción en la contratación, ya ensayada en diversos supuestos, también puede ser de gran interés, siempre que se mantenga dentro de los márgenes expuestos.
b) Finalmente, unas breves palabras sobre la contratación de la automatización y de la IA, especialmente respecto al riesgo de opacidad. Existiendo ya experiencias en marcha en este ámbito, como la del Ayuntamiento de Madrid para la automatización de funciones urbanísticas, con el lanzamiento de una consulta preliminar al mercado, se trata éste de un ámbito limitadamente abordado por la LCSP actualmente vigente.
La misma lo hace desde la perspectiva de los respectivos contratos de servicios y de suministro. En el primer caso, por defecto, salvo pliegos en contra, estos contratos, que implican una automatización “a medida”, conllevan la cesión de la propiedad intelectual o industrial (art. 308). En el segundo, contrato de suministros, el art. 122 LCSP señala que los pliegos de cláusula administrativas particulares pueden decidir que haya transmisión, pero si no dicen nada, no existirá.
No hace falta insistir, pues, en la importancia actual de dichos pliegues. Téngase en cuenta la tensión que puede existir: si no hay cesión, existe el riesgo de dependencia tecnológica de la Administración de sus proveedor, de captura, pues, al quedar en manos de contratistas para futuros mantenimientos y mejoras. Asimismo, existe un evidente riesgo de opacidad, pues podría sostenerse que no puede haber transparencia, por ejemplo del código fuente, aunque en realidad consideramos que la aplicación del art. 4 LTAIBG afecta a los contratistas (eso sí, de conformidad con el contrato, que debería arbitrar posibles fórmulas contra la opacidad que no impliquen dañar a la propiedad intelectual o industrial).
Pero si la transparencia, por ejemplo, del código fuente, se pacta, ello afecta a contratista, que puede ser desincentivado en la contratación con administraciones, además de que el contrato si se celebra se encarecerá para éstas.
Entre la Escila de la opacidad, dañando el derecho de acceso y la transparencia algorítmica, y la Caribdis de la afectación de derechos del contratista, deberemos encontrar una ruta actual y futura, normativa y de gestión, que sea conforme con la transparencia y la buena administración. Como señala la CM/Rec(2020)1 - Recomendación del Comité de Ministros a los Estados miembros sobre las repercusiones de los sistemas algorítmicos en los derechos humanos (Adoptada por el Comité de Ministros el 8 de abril de 2020 en la 1373.ª reunión de los Viceministros), traducción nuestra: “A efectos de analizar el impacto de los sistemas algorítmicos y los servicios digitalizados en el ejercicio de los derechos, en las redes de comunicación y en los sistemas democráticos, los actores del sector privado deben ampliar el acceso a los datos individuales y metadatos pertinentes, incluido el acceso a los datos clasificados para su eliminación, a las partes pertinentes, en particular a los investigadores independientes, los medios de comunicación y las organizaciones de la sociedad civil. Esta ampliación del acceso debe realizarse con pleno respeto a los intereses legalmente protegidos, así como a todas las normas aplicables en materia de privacidad y protección de datos”.


