Cuando una IA se equivoca: el debate jurídico que empieza a crecer en la Argentina
El marplatense Ezequiel Brunner publicó tres trabajos en el SAIJ donde analiza cómo deben actuar el Estado y la Justicia ante decisiones públicas tomadas con asistencia de inteligencia artificial.
La inteligencia artificial dejó de ser un tema reservado a laboratorios tecnológicos o debates futuristas. Hoy, los sistemas automatizados comienzan a intervenir en procesos administrativos, controles estatales, beneficios sociales, evaluaciones de riesgo, fiscalizaciones y otras decisiones capaces de impactar directamente en la vida de las personas.
En ese contexto, empieza a tomar fuerza una pregunta jurídica central: si una decisión pública asistida por inteligencia artificial perjudica a un ciudadano, ¿quién responde?
Ese interrogante atraviesa la línea de investigación desarrollada por Ezequiel Brunner, autor marplatense que ya cuenta con tres publicaciones doctrinarias en el Sistema Argentino de Información Jurídica (SAIJ) vinculadas a la transparencia algorítmica, el debido proceso, el control estatal y la responsabilidad pública frente al uso de inteligencia artificial.
Sus trabajos proponen una evolución progresiva del problema: primero, la necesidad de que el ciudadano sepa cuándo interviene un algoritmo; luego, la obligación del Estado de registrar, explicar y auditar esos sistemas; y finalmente, la discusión sobre cómo reparar los daños cuando una decisión automatizada resulta errónea, injusta o discriminatoria.
Del derecho a saber al derecho a reclamar
En su primera publicación, titulada “Transparencia Algorítmica como Garantía Constitucional: Hacia un Modelo Argentino de Control Real y Responsabilidad Pública” -Id SAIJ: DACF250125, publicada el 17 de diciembre de 2025-, Brunner aborda uno de los problemas más sensibles del uso de inteligencia artificial: la opacidad de los sistemas automatizados.
El trabajo advierte que, cuando un algoritmo participa en una decisión estatal, no alcanza con que el resultado sea formalmente emitido por una autoridad administrativa. Si la persona afectada no sabe qué sistema fue utilizado, qué datos se procesaron o bajo qué criterios se produjo la decisión, su posibilidad real de defensa queda debilitada.
Desde esa perspectiva, el autor plantea que la transparencia algorítmica debe ser entendida como una garantía constitucional concreta, vinculada con el debido proceso y con el derecho de defensa previsto en el artículo 18 de la Constitución Nacional.
La propuesta inicial se apoya en cuatro ideas principales: explicación obligatoria, auditoría estatal previa, responsabilidad institucional y revisión humana efectiva.
La Provincia de Buenos Aires como primer campo normativo
El segundo trabajo doctrinario, “Resolución 9/2025 (PBA): transparencia, explicabilidad y control algorítmico en la Administración Pública” -Id SAIJ: DACF260022-, analiza una norma clave dictada en la Provincia de Buenos Aires sobre el uso responsable de inteligencia artificial en el ámbito público.
La Resolución 9/2025 de la Subsecretaría de Gobierno Digital bonaerense incorpora principios como centralidad de la persona humana, transparencia, explicabilidad, trazabilidad, protección de datos personales, supervisión humana y responsabilidad demostrada. Además, prevé la creación de registros de sistemas de inteligencia artificial y obligaciones de advertencia cuando un organismo público utilice IA en su vínculo con la ciudadanía.
Brunner reconoce la importancia de la norma como un paso relevante dentro del derecho público argentino, aunque también señala sus limitaciones. Entre ellas, menciona la falta de un régimen sancionatorio específico, la ausencia de un recurso especial para el ciudadano afectado, la dependencia de la autoridad de aplicación dentro del propio Poder Ejecutivo y los riesgos derivados de una implementación insuficiente.
En esta segunda etapa, el análisis deja de centrarse únicamente en principios generales y se ubica frente a un caso normativo concreto: cómo empieza a organizarse el Estado argentino para controlar sus propios sistemas de inteligencia artificial.
Cuando explicar no es suficiente
La tercera doctrina, publicada el 30 de abril de 2026 bajo el título “Cuando explicar no alcanza: responsabilidad algorítmica, prueba y reparación frente a decisiones automatizadas en la Administración Pública argentina” -Id SAIJ: DACF260043-, lleva la discusión hacia un plano todavía más delicado: la responsabilidad jurídica frente al daño algorítmico.
El planteo central del trabajo es que la explicación técnica de un sistema no siempre resulta suficiente. Una decisión puede ser explicable desde el punto de vista informático y, aun así, producir un resultado injusto, discriminatorio, desproporcionado o contrario al derecho de defensa.
El artículo examina posibles escenarios donde el uso de inteligencia artificial podría derivar en exclusiones indebidas de beneficios, demoras injustificadas, clasificaciones negativas, pérdida de oportunidades, afectaciones económicas o restricciones indirectas al ejercicio de derechos fundamentales.
Uno de los aportes más importantes del trabajo se vincula con la prueba. En los conflictos administrativos tradicionales, el ciudadano puede discutir actos, documentos, fechas, notificaciones o fundamentos. Pero cuando interviene inteligencia artificial, buena parte de la información relevante suele estar en manos del propio Estado o de proveedores tecnológicos.
Por eso, Brunner introduce la idea de una asimetría probatoria estructural: el ciudadano común no tiene acceso al modelo, a los datos utilizados, a los registros de funcionamiento, a las tasas de error ni a los controles internos aplicados. En consecuencia, si el Estado decide utilizar inteligencia artificial, también debe poder demostrar cómo funcionó el sistema, qué controles existieron y qué intervención humana se realizó.
Cuatro puntos centrales para evitar la indefensión algorítmica
A partir de esta trilogía, la propuesta doctrinaria puede resumirse en cuatro ejes principales.
El primero es la necesidad de contar con un registro de sistemas algorítmicos relevantes, para que todo sistema de inteligencia artificial utilizado por el Estado en decisiones que puedan afectar derechos quede debidamente identificado.
El segundo es la auditoría preventiva, especialmente en sistemas de alto impacto vinculados con salud, educación, trabajo, seguridad, beneficios sociales, justicia, fiscalización o control ciudadano.
El tercero es la revisión humana efectiva. Para Brunner, no alcanza con que una persona firme o convalide automáticamente lo sugerido por un sistema. Debe existir una autoridad con conocimiento suficiente y capacidad real para revisar, corregir o apartarse del resultado producido por la inteligencia artificial.
El cuarto eje es el deber reforzado de explicación y prueba. Cuando una persona impugna una decisión asistida por IA, el Estado debería aportar información clara sobre el sistema utilizado, su finalidad, los datos relevantes, la trazabilidad del procedimiento y la intervención humana realizada.
Una discusión tecnológica, pero también constitucional
La línea desarrollada por Brunner pone sobre la mesa una advertencia relevante para el futuro legislativo argentino: la inteligencia artificial puede mejorar la eficiencia del Estado, pero esa eficiencia no garantiza por sí sola decisiones más justas.
Una Administración Pública automatizada puede ser más rápida, pero también puede equivocarse con mayor velocidad si no existen controles, registros, auditorías y vías efectivas de reclamo.
El debate, entonces, ya no pasa únicamente por decidir si el Estado debe o no utilizar inteligencia artificial. Esa etapa parece haber quedado atrás. La verdadera discusión consiste en determinar bajo qué condiciones puede hacerlo, con qué límites, con qué mecanismos de control y con qué consecuencias jurídicas cuando su utilización afecta derechos.
La inteligencia artificial puede convertirse en una herramienta valiosa para modernizar la gestión pública. Pero cuando el poder estatal se apoya en algoritmos, el ciudadano no puede perder su derecho a comprender, cuestionar y reclamar.
Porque cuando una persona no puede saber por qué fue afectada por una decisión automatizada, el problema deja de ser meramente tecnológico y se transforma en un problema constitucional.
Lo más visto hoy
- 1Encontraron muerto a un hombre al costado de la ruta 2 « Diario La Capital de Mar del Plata
- 2La Justicia investiga una sórdida trama de balazos y amenazas en el Balneario 13 « Diario La Capital de Mar del Plata
- 3Un ladrón terminó baleado durante un forcejeo tras intentar entrar armado a una casa « Diario La Capital de Mar del Plata
- 4Damonte pasó la escoba en Aldosivi « Diario La Capital de Mar del Plata
- 5La Provincia anunció el traspaso de Punta Mogotes a Mar del Plata tras un plan de obras y renovación « Diario La Capital de Mar del Plata
