El uso de inteligencia artificial (IA) en el ámbito judicial dejó de ser una hipótesis teórica para convertirse en una realidad tangible en México. Una reciente resolución del Segundo Tribunal Colegiado en Materia Civil del Segundo Circuito, de la cual deriva la tesis aislada II.2o.C.9 K (11a.), establece por primera vez los parámetros éticos y metodológicos para su aplicación en los procesos jurisdiccionales. Así, el tribunal no solo utilizó herramientas de IA en su actuación, sino que también definió un estándar para su uso responsable, con enfoque en los derechos humanos, marcando un hito en la administración de justicia.
En el asunto de queja 212/2025, el tribunal revisó el auto de un Juzgado de Distrito que había fijado, sin motivación suficiente, una garantía de cincuenta mil pesos por cada folio real para permitir la inscripción registral de la demanda de amparo. La litis se centró en determinar si el monto había sido fundado y motivado, y —en su defecto— cómo debía fijarse conforme a criterios objetivos y verificables.
La ejecutoria ancla el cálculo de la garantía en tres pilares jurisprudenciales. Primero, exige garantía “bastante” previa a la anotación preventiva del amparo en el Registro Público de la Propiedad, por los eventuales daños y perjuicios a terceros. Segundo, incorpora la metodología para cuantificar daños (pérdida del poder adquisitivo) con el Índice Nacional de Precios al Consumidor y perjuicios (costo de oportunidad) con la TIIE a 28 días, prorrateados según la duración probable del proceso. Tercero, adopta el criterio que orienta a estimar, con base en estadística judicial, el plazo tentativo de tramitación de los amparos en ambas instancias.
Sobre esa arquitectura, el tribunal explica y ejecuta una metodología transparente: usa el valor catastral de los inmuebles como base objetiva, consulta las tasas oficiales de inflación, calcula la duración esperada del juicio a partir de los indicadores del Consejo de la Judicatura Federal, prorratea los factores a meses y desagrega el resultado en daños y perjuicios por lote, con un cuadro de resultados auditable. El rango obtenido para ambos lotes se ubicó aproximadamente entre $59,800 y $64,600; ponderado ese abanico, la garantía se fijó en $60,000 por razones de suficiencia, proporcionalidad y operatividad.
El aporte innovador radica en que el tribunal detalla el “cómo” del cálculo y legitima la IA como auxiliar para razonamientos numéricos. La herramienta no sustituye el juicio jurisdiccional: se limita a ejecutar operaciones aritméticas bajo parámetros normativos y jurisprudenciales predefinidos, con control, trazabilidad y verificabilidad.
Derivada de la queja 212/2025, la tesis aislada del Segundo Tribunal Colegiado en Materia Civil del Segundo Circuito establece los principios mínimos que deben observar las personas juzgadoras para emplear IA en sede judicial, con perspectiva de derechos humanos. El estándar descansa en cuatro ejes:
a. Proporcionalidad e inocuidad: La IA solo puede emplearse en lo estrictamente necesario, sin invadir el razonamiento jurídico.
b. Protección de datos personales: Todo uso de debe salvaguardar la información confidencial de los expedientes.
c. Transparencia y explicabilidad: Los jueces deben explicar cómo se usó la herramienta, los datos empleados y la metodología aplicada.
d. Supervisión y decisión humana: La tecnología es auxiliar, no sustitutiva; la decisión judicial sigue siendo humana.
La tesis se apoya en referentes internacionales, como las Directrices Éticas para una Inteligencia Artificial Fiable del Grupo Independiente de Altos Expertos de Alto Nivel Sobre Inteligencia Artificial, creado por la Comisión Europea, la Ley Europea de Inteligencia Artificial y la Recomendación sobre la ética de la inteligencia artificial de la UNESCO— y los adapta como buenas prácticas para la administración de justicia digital. El resultado es una pauta local robusta, compatible con estándares comparados, que dota de legitimidad y control al uso de IA en sede judicial.
El precedente emitido por el Segundo Tribunal Colegiado en Materia Civil del Segundo Circuito marca un punto de inflexión en la relación entre IA y justicia en México. Por primera vez, un órgano jurisdiccional avala expresamente el uso de herramientas de IA en procesos judiciales, reconociendo su potencial para mejorar la eficiencia del sistema, pero también los riesgos que entraña su aplicación en un ámbito tan delicado como la resolución de conflictos y la defensa de derechos humanos.
La decisión refleja la tensión natural entre innovación y garantía procesal: la IA puede agilizar cálculos y tareas técnicas, pero también introduce márgenes de error, sesgos o falta de explicabilidad que, en materia judicial, pueden traducirse en afectaciones directas a personas y empresas. Precisamente por ello, la sentencia adopta un enfoque de autocontención, fijando principios mínimos para asegurar un uso ético y responsable.
Este precedente no solo delimita cómo deben actuar los jueces: anticipa el estándar ético que también se exigirá al sector privado. Aun en ausencia de regulación específica, las empresas que integren IA en su operación —sea en gestión de datos, decisiones automatizadas o litigios— deberán observar los mismos criterios de proporcionalidad, transparencia y supervisión humana que hoy se espera de los tribunales. En otras palabras, la ética de la IA en el ámbito judicial podría anticipar el estándar con el que, en un futuro cercano, se evalúe su legitimidad en el ámbito empresarial.
Una aplicación consistente del precedente judicial puede generar efectos positivos que trascienden el caso concreto. En términos prácticos, se traduce en mayor previsibilidad respecto del desenlace de controversias análogas y en una sustantiva eficiencia procesal, al reducir incertidumbres y acotar los márgenes de discrecionalidad en la resolución de cuestiones recurrentes. Esta previsibilidad no solo facilita la planificación de estrategias procesales por parte de las partes, sino que también optimiza la asignación de recursos de los órganos jurisdiccionales, concentrando el esfuerzo en los puntos efectivamente controvertidos y evitando la reiteración de debates ya zanjados.
Sobre esa base, pueden identificarse beneficios tanto directos como indirectos, cuyos efectos se refuerzan de manera acumulativa en el tiempo.
La integración progresiva de herramientas de IA en el ecosistema judicial —siempre bajo parámetros de transparencia, explicabilidad y control humano— potencia los beneficios del precedente. La IA puede contribuir a mapear patrones decisorios, detectar inconsistencias y proponer normalizaciones de criterios, facilitando el acceso a información procesal estandarizada y mejor estructurada. Ello permite a litigantes, asesores y empresas modelar con mayor precisión el riesgo legal, estimar escenarios de resultados y calcular provisiones o contingencias con base en datos verificables y metodologías consistentes.
A largo plazo, la mayor consistencia en la aplicación de precedentes, apoyada por sistemas de análisis de decisiones, puede transformar la gestión del riesgo legal desde un enfoque predominantemente cualitativo e intuitivo hacia uno más cuantitativo, reproducible y auditable. Esta evolución no elimina el juicio profesional ni la discrecionalidad judicial, pero la enmarca en un contexto de reglas claras, datos estructurados y criterios comparables, reforzando la seguridad jurídica sin sacrificar la justicia del caso concreto.
El precedente emitido por el Segundo Tribunal Colegiado en Materia Civil del Segundo Circuito marca un punto de inflexión en la relación entre IA y justicia en México. Por primera vez, un órgano jurisdiccional avala expresamente el uso de herramientas de IA en procesos judiciales, reconociendo su potencial para mejorar la eficiencia del sistema, pero también los riesgos que entraña su aplicación en un ámbito tan delicado como la resolución de conflictos y la defensa de derechos humanos.
La decisión refleja la tensión natural entre innovación y garantía procesal: la IA puede agilizar cálculos y tareas técnicas, pero también introduce márgenes de error, sesgos o falta de explicabilidad que, en materia judicial, pueden traducirse en afectaciones directas a personas y empresas. Precisamente por ello, la sentencia adopta un enfoque de autocontención, fijando principios mínimos para asegurar un uso ético y responsable.
La prudencia del tribunal mexicano contrasta con experiencias internacionales menos afortunadas. En Estados Unidos, por ejemplo, algunos sistemas judiciales locales incorporaron algoritmos predictivos —como el caso COMPAS en procesos penales— sin suficiente supervisión humana. Años después, diversos estudios demostraron que los resultados tendían a reproducir sesgos raciales y socioeconómicos, afectando la imparcialidad de las sentencias. Estos antecedentes explican por qué la tesis mexicana adopta una lógica de contención: la IA puede asistir, pero no decidir. En un país con brechas institucionales y alta carga procesal, introducir IA sin un marco ético podría amplificar desigualdades o vulnerar derechos, no corregirlos.
Aun en ausencia de regulación específica, las empresas que integren IA en su operación —sea en gestión de datos, decisiones automatizadas o litigios— deberán observar los mismos criterios de proporcionalidad, transparencia y supervisión humana que hoy se espera de los tribunales. En otras palabras, la ética de la IA en el ámbito judicial podría anticipar el estándar con el que, en un futuro cercano, se evalúe su legitimidad en el ámbito empresarial.
Aunque la tesis se inscribe en el ámbito judicial, su racionalidad prefigura un estándar transversal de gobernanza algorítmica. Empresas que integren IA en procesos críticos —decisiones automatizadas, gestión de datos, scoring, cumplimiento y resolución de controversias— hallarán en este precedente una guía temprana para diseñar políticas internas: proporcionalidad en el despliegue tecnológico, explicabilidad de sistemas, trazabilidad de datos y supervisión humana efectiva. En el terreno contencioso, la metodología incrementa la previsibilidad de costos procesales asociados a garantías y liquidaciones, y puede facilitar la gestión del riesgo legal al homogeneizar criterios y fortalecer la auditabilidad de decisiones.
Para el sector privado, el precedente no es solo una nota judicial: es una señal regulatoria temprana. Las empresas pueden aprovecharla como guía para revisar o fortalecer sus propios protocolos de inteligencia artificial, litigio y compliance:
El mensaje de fondo es claro: la IA llegó al sistema judicial, y su adopción responsable será un diferenciador tanto para las instituciones públicas como para las empresas que interactúan con ellas.
Finalmente, la resolución del Segundo Tribunal Colegiado en Materia Civil del Segundo Circuito representa mucho más que un avance tecnológico: es un parteaguas institucional.
El hecho de adoptar, reconocer y regular la IA en el ámbito judicial sienta las bases para no quedarnos atrás en un mundo cada vez más tecnológico. Al establecer reglas claras, el Poder Judicial inaugura un modelo de innovación responsable, en el que la tecnología se somete al derecho, y no al revés. Este precedente no solo otorga legitimidad al uso de estas herramientas, sino que también introduce un estándar ético que trasciende los tribunales.
Con este marco, el sector privado se enfrenta a un reto, pero también a una oportunidad significativa. La incorporación de la IA en los procesos judiciales no solo fortalecerá la eficiencia y transparencia en el sistema legal, sino que también marcará una pauta para las empresas, que deberán adaptarse y alinearse con estas nuevas regulaciones para operar de manera ética y transparente. Así, la regulación responsable de la tecnología ofrece un modelo que, si es implementado correctamente, puede ser clave para el desarrollo de un entorno de negocios más justo y eficiente.
Premios














