La provincia de Buenos Aires avanza con reglas estrictas para el uso de inteligencia artificial

La implementación de tecnologías basadas en inteligencia artificial dentro del sector público viene generando debate y preocupación en distintos niveles del Estado. En ese marco, una nueva normativa provincial busca ordenar su utilización y establecer límites claros que resguarden derechos y eviten prácticas riesgosas para la ciudadanía.

La provincia estableció por primera vez un marco obligatorio para el uso de IA

La Provincia de Buenos Aires publicó una resolución que fija reglas obligatorias para el desarrollo, investigación, compra, contratación y uso de sistemas de inteligencia artificial en todos los organismos estatales. La medida aparece pocos días después de la designación de “ZARA”, un chatbot con rango de directora en el municipio de Zárate, lo que generó cuestionamientos sobre los alcances y controles de estas herramientas en la administración pública.

Según la resolución de la Subsecretaría de Gobierno Digital, cualquier entidad pública que implemente IA deberá cumplir estándares de:

  • Seguridad
  • Transparencia
  • Equidad
  • Sustentabilidad
  • Supervisión y control humano

La normativa deja de lado el concepto de guía ética: su cumplimiento será obligatorio, auditable y transversal a toda la gestión estatal.

El caso de Zárate y el debate sobre los límites legales

La designación de ZARA como directora general de Atención al Vecino abrió interrogantes sobre si una herramienta automatizada puede ejercer funciones administrativas. Aunque su rol está circunscripto al ámbito municipal, la nueva regulación provincial podría obligar a evaluar formalmente su nivel de riesgo, exigir auditorías y garantizar que ningún sistema tome decisiones sin supervisión humana.

La normativa provincial establece que sistemas como el implementado en Zárate deberán someterse a revisiones continuas, en especial si tienen impacto directo en la ciudadanía.

Clasificación de riesgos: qué sistemas están permitidos y cuáles no

Uno de los puntos centrales es la adopción de una clasificación de riesgo, inspirada en el AI Act europeo, con cuatro categorías: riesgo inaceptable, alto, limitado y nulo.

Sistemas de riesgo inaceptable

Quedan prohibidos aquellos que puedan afectar gravemente:

  • La seguridad
  • La salud
  • Los derechos fundamentales
  • El orden constitucional-democrático

También se veta:

  • El uso de técnicas subliminales
  • Los sistemas de clasificación o scoring social, considerados discriminatorios y contrarios al principio de igualdad

Sistemas de alto riesgo

Incluyen herramientas utilizadas en:

  • Identificación biométrica
  • Infraestructura crítica
  • Educación
  • Justicia
  • Empleo
  • Procesos democráticos
  • Administración pública

Para estas tecnologías se exige una evaluación de impacto algorítmica previa, destinada a anticipar riesgos legales, éticos, sociales y técnicos.

Sistemas de riesgo limitado

Se permiten bajo condiciones de transparencia. Por ejemplo, los chatbots informativos deben informar explícitamente a la ciudadanía que están interactuando con una máquina.

sistemas de riesgo nulo

Corresponden a herramientas como filtros de spam o automatizaciones internas que no afectan a personas. En estos casos solo se requiere aplicar buenas prácticas técnicas.

Obligaciones del Estado y creación de un registro obligatorio

La resolución impone controles durante todo el ciclo de vida de cada sistema de IA. Los organismos deberán:

  • Realizar una evaluación preliminar de riesgos antes de implementarlo.
  • Aplicar estrategias periódicas de gestión de riesgos.
  • Evitar y documentar sesgos o prácticas discriminatorias, especialmente sobre sectores vulnerados.
  • Garantizar el almacenamiento de datos el tiempo necesario para permitir auditorías.
  • Contar con consentimiento libre, expreso, previo, inequívoco y específico cuando se traten datos personales.
  • Informar anticipadamente cuando una interacción provenga de un sistema automatizado, para evitar confusiones.

Además, todos los sistemas deberán inscribirse en un padrón provincial administrado por la Subsecretaría de Gobierno Digital.

La novedad: la regulación incorpora criterios ambientales

La Provincia incluye un aspecto innovador: la sustentabilidad ambiental de los sistemas de IA. La normativa exige que su diseño, desarrollo e implementación integren medidas que reduzcan el impacto ecológico, especialmente en lo referido al consumo energético y a la huella de carbono.

Este enfoque anticipa uno de los debates más relevantes a nivel global, considerando que los modelos de IA requieren cada vez más recursos computacionales.

La resolución también obliga al Estado a capacitarse de manera permanente, adaptándose al ritmo de evolución tecnológica y asegurando que los equipos públicos puedan comprender y supervisar adecuadamente las herramientas que utilizan.

Compartir este artículo