En el último plenario, se aprobó el nuevo Manual de Buenas Prácticas para el Uso de Inteligencia Artificial (IA) e Inteligencia Artificial Generativa (IAGen) en el Poder Judicial de la Ciudad Autónoma de Buenos Aires, mediante la Resolución CM Nº 255/2025. La medida establece un marco actualizado para regular el uso de estas tecnologías en el ámbito judicial, en un contexto de crecimiento sostenido y acelerado del ecosistema digital institucional.

La Justicia de la Ciudad atraviesa una transformación digital sin precedentes. En la actualidad, el ámbito judicial porteño pasó de implementar soluciones aisladas a integrar un abanico de más de diez herramientas basadas en Inteligencia Artificial. Esta expansión tecnológica hizo imperativa la actualización del marco normativo, con reglas claras, precisas y acordes a los desafíos actuales, que garanticen un uso responsable, ético y eficiente de la IA, en línea con los estándares de excelencia y transparencia que la justicia exige en 2025.
La actualización reemplaza al manual elaborado años atrás por la Secretaría de Innovación, que fue pionera en introducir criterios institucionales para el uso responsable de la IA. Ese documento sentó las bases y permitió ordenar las primeras experiencias, como Justibot. Con el paso del tiempo —y ante la aparición de nuevas guías nacionales e internacionales, avances técnicos y aprendizajes propios— se volvió necesario contar con una versión más amplia y adaptada al contexto actual, de la mano del trabajo conjunto y coordinado del Comité de Estandarización en IA.
Este crecimiento se materializa en un ecosistema tecnológico en constante evolución. A la fecha, hay tres soluciones centrales de la familia MIA que ya se encuentran operativas: MIA Asistente, que permite consultar expedientes públicos y privados, acceder a actuaciones y recibir sugerencias basadas en IA generativa; MIA RGE, que resume causas completas en pocos minutos mediante un esquema estructurado; y MIA EJF, que utiliza aprendizaje automático para automatizar el proceso de ejecuciones fiscales del fuero CATyRC.
A estas herramientas se suman otros desarrollos institucionales que fortalecen la gestión diaria y la atención ciudadana: AymurAI, instalada en todos los escritorios del Consejo y la Jurisdicción, que anonimiza documentos y extrae datos relevantes; Justibot, que atiende consultas ciudadanas y deriva a la Mesa de Ayuda; SISTAE, que responde sobre expedientes administrativos y TAEs; Secretario-Juez, que informa sobre el estado de cada juzgado; el Agente de Voz, que brinda atención telefónica automática fuera del horario habitual; y la Mesa de Ayuda Virtual, que gestiona tickets y redirecciona consultas informáticas. Este conjunto de herramientas, que opera con supervisión humana y altos estándares de seguridad, consolida un ecosistema que exige reglas claras y actualizadas para su uso responsable.
Durante el plenario en el que se aprobó la Resolución CM 255/2025, Horacio Corti, presidente de la Comisión de Administración, Gestión y Modernización Judicial y titular del Comité de Estandarización en IA, destacó la importancia de esta actualización: “Esto es algo que creo que nos va a pasar relativamente seguido dado el creciente avance y la innovación continua en materia de inteligencia artificial. Entonces, muy probablemente, este y otros documentos los tendremos que ir actualizando de forma periódica”.
El nuevo Manual de uso de IA incorpora un desarrollo conceptual más profundo, especialmente en torno al control humano, la independencia judicial y la responsabilidad de los/as empleados/as, funcionarios/as y magistrados/as. Asimismo, pone un énfasis claro en que toda decisión judicial debe ser siempre humana, entendiendo a la Inteligencia Artificial como una herramienta de apoyo y nunca como subrogante del criterio profesional o jurídico.
Novedades del nuevo Manual de Buenas Prácticas para el Uso de IA
En términos estructurales, el Manual presenta una organización novedosa, dividida en dos partes: una dirigida a magistradas/os, funcionarias/os y empleadas/os, con pautas prácticas para el uso cotidiano; y otra dirigida al propio Consejo, que asume compromisos institucionales para garantizar condiciones seguras, transparentes y auditables. Este enfoque de “responsabilidad compartida” constituye una innovación respecto de otras guías, que suelen centrarse únicamente en el usuario final.
El documento también incorpora un mecanismo de control claro para evitar el uso indiscriminado de estas tecnologías: el uso de herramientas de IAGen de carácter comercial (ChatGPT, Claude, Gemini, Llama, entre otras) requiere de la autorización expresa del titular de cada dependencia.
El Manual reafirma además principios esenciales como la independencia judicial, la compatibilidad legal y organizacional, la transparencia, la no discriminación, accesibilidad e inclusión, la protección y confidencialidad de los datos, y el control humano efectivo.
Entre las obligaciones más relevantes se destacan la anonimización obligatoria antes de utilizar herramientas comerciales; la prohibición de ingresar datos personales o información confidencial en sistemas no provistos por el Consejo; la verificación crítica por parte de personas humanas de todas las respuestas generadas por la IA, especialmente en lo referido a citas normativas y jurisprudenciales; la responsabilidad exclusiva del usuario o usuaria sobre cualquier decisión asistida por IA; la realización de controles periódicos por parte de las autoridades de cada dependencia; y la exigencia de capacitación teórico-práctica continua en materia de datos, IA e IAGen, para comprender sus funcionalidades, limitaciones y riesgos.