Search for:
  • Home/
  • Novedades/
  • Uso de la IA en la administración pública: cuáles son los riesgos y beneficios y qué pasa en otros países

Uso de la IA en la administración pública: cuáles son los riesgos y beneficios y qué pasa en otros países

OpenAI, la empresa creadora de ChatGPT, señaló en un comunicado que se están explorando “oportunidades con el Gobierno argentino para fomentar” la IA en “todo el país”.

Hace tiempo que la inteligencia artificial dejó de ser un experimento de laboratorio o una curiosidad para programadores. Hoy ordena expedientes, predice datos y responde consultas dentro del Estado argentino.

El anuncio de la construcción de un centro de datos de inteligencia artificial en el país confirmó algo que ya estaba pasando: el Estado empezó a incorporar herramientas de IA para automatizar tareas, analizar información y mejorar la atención ciudadana. En teoría, promete un salto de calidad. En la práctica, plantea desafíos enormes.

Casi en simultáneo, la Corte Suprema presentó un sistema que permite visualizar y organizar fallos judiciales usando IA. Una señal clara de que la tecnología ya se filtró en uno de los ámbitos más conservadores del aparato público.

Estas iniciativas se suman a una lista creciente de proyectos que usan IA en distintos niveles del Estado: chatbots de atención ciudadana, automatización de procesos en salud y educación, predicción de demanda hospitalaria, clasificación de expedientes y redacción de dictámenes.


Atención ciudadana y optimización de recursos: las promesas de la IA estatal

La inteligencia artificial tiene potencial para transformar la gestión pública. Permite mejorar la atención, agilizar trámites y optimizar procesos internos.

Un ejemplo es Boti, el chatbot del Gobierno porteño, que incorporó IA generativa para ofrecer respuestas más precisas y personalizadas. También hay proyectos en Neuquén, donde se digitalizan años de legislación provincial con algoritmos de clasificación automática.

En Mendoza, Entre Ríos y Salta, los gobiernos usan IA para predecir el abandono escolar, cruzando datos sobre trayectorias educativas y contextos familiares. En el ámbito judicial, Prometea automatiza la clasificación de expedientes y redacta dictámenes en segundos.

En todos los casos, la promesa es la misma: liberar tiempo humano, mejorar la planificación y anticipar problemas.


Sesgos e inequidades: los riesgos del Estado automatizado

Pero no todo es eficiencia y datos limpios. La IA también puede amplificar los sesgos que ya existen en el Estado.

Si los algoritmos no se auditan adecuadamente, pueden reproducir injusticias, fallar en la interpretación de contextos sociales o tomar decisiones opacas e imposibles de explicar.

Otro punto crítico es la privacidad: el uso de herramientas como ChatGPT sin mecanismos de anonimización puede exponer información sensible de millones de ciudadanos.

La implementación de IA necesita marcos legales claros, auditorías periódicas y criterios éticos que prioricen la equidad y la rendición de cuentas. Sin esas condiciones, el riesgo no es menor: reemplazar la arbitrariedad política por la arbitrariedad del algoritmo.

En el campo de la salud, la Organización Panamericana de la Salud ya advirtió que todo contenido generado por IA —como materiales educativos o alertas públicas— debe tener supervisión humana antes de difundirse.


Un mapa en construcción

Hoy existen más de 40 proyectos públicos en todo el país que incorporan IA en educación, salud, seguridad, justicia y servicios ciudadanos. Sin embargo, la mayoría funcionan como pruebas piloto o iniciativas aisladas.

El potencial está, la infraestructura empieza a llegar y el talento técnico sobra. Lo que falta, como casi siempre, es coordinación y continuidad institucional.

Mientras tanto, el Estado argentino sigue probando algoritmos para decidir, predecir y responder. La pregunta que queda flotando es si podrá hacerlo sin perder de vista al ciudadano detrás del dato.

Fuente: Chequeado

Leave A Comment

All fields marked with an asterisk (*) are required