¿Por qué la Provincia frenó el avance de la IA?

Hay algo en la nueva regulación bonaerense que casi nadie leyó completo… y que puede cambiar cómo se usa la tecnología en toda la Provincia de Buenos Aires.

02-12-2025 - Por Crítica Argentina

Hay algo en la nueva regulación bonaerense que casi nadie leyó completo… y que puede cambiar cómo se usa la tecnología en toda la Provincia de Buenos Aires. Antes de contártelo, entendamos qué pasó y por qué el gobierno decidió poner un freno tan fuerte.

La semana pasada estalló el caso Zárate. El municipio presentó a un chatbot llamado “ZARA” como Directora General de Atención al Vecino. Sí, una IA en un cargo jerárquico. El intendente Matzkin defendió la decisión diciendo que apuestan a la tecnología para mejorar la gestión. La movida generó un ruido tremendo y la discusión llegó rápido a Kicillof.

La inteligencia artificial aún no reemplazará a los humanos, según estudio

La respuesta no tardó: el gobernador publicó una resolución en el Boletín Oficial que crea un marco obligatorio para regular la IA en todo el sector público bonaerense. Nada de guías sueltas ni recomendaciones. Es un régimen que se audita y que prevé sanciones.


Un sistema de clasificación que marca el límite


La normativa adopta un sistema de clasificación similar al del AI Act europeo. Divide todo en cuatro niveles: riesgo inaceptable, alto, limitado y nulo. Pero acá está el dato fuerte: en la Provincia de Buenos Aires, los sistemas de riesgo inaceptable quedan prohibidos.

En ese grupo entran los que puedan afectar derechos, la seguridad, la salud o el orden democrático. También están directamente prohibidos los sistemas de “clasificación y/o scoring social”, es decir, cualquier mecanismo que evalúe comportamiento ciudadano para otorgar beneficios o restringir acceso a servicios.

Los sistemas de alto riesgo —como biometría, educación, justicia o infraestructura crítica— tendrán que pasar por una evaluación de impacto algorítmico previa. Los de riesgo limitado, como chatbots comunes, deberán avisar claramente que son una máquina. Y los de riesgo nulo, como filtros de spam, sólo deben cumplir buenas prácticas.


Obligaciones nuevas para todo el Estado


La regulación exige que cada organismo controle toda la vida útil de sus sistemas de IA. Habrá evaluaciones preliminares de riesgo, estrategias de gestión periódicas y documentación obligatoria de cualquier sesgo.

Si se usan datos personales, el consentimiento deberá ser “libre, expreso, previo e informado”. Si la IA interactúa con la ciudadanía, se deberá avisar desde el inicio.

Además, cada sistema tendrá que inscribirse en un registro provincial administrado por la Subsecretaría de Gobierno Digital. Y, por primera vez, aparece un criterio ambiental: la IA deberá ser “sostenible y sustentable”, teniendo en cuenta consumo energético, huella de carbono y recursos de entrenamiento.


¿Freno o protección?


Acá vuelve el loop del principio: ¿qué fue eso que casi nadie vio? Que la normativa opera como un control previo muy duro. Antes de que la tecnología se expanda, el gobierno bonaerense establece un marco rígido que puede aumentar la burocracia y desalentar proyectos públicos y privados.

 

Mientras el mundo impulsa la IA para reducir costos y agilizar trámites, la regulación de Kicillof podría transformarse en un límite fuerte para su adopción. La discusión recién empieza… y lo que pase acá puede marcar tendencia.