En 2026 se consolidaron en Argentina una serie de normativas que refuerzan la presencia del Estado en el espacio digital con herramientas tecnológicas avanzadas. El eje de estas medidas está en el uso de inteligencia artificial (IA) y técnicas de monitoreo para combatir delitos que ya no ocurren solo en la calle, sino también en redes, apps y otros espacios online.
Una unidad con ojos en todo lado: qué se creó y cómo funciona
Según la Resolución 710/2024, publicada en el Boletín Oficial, el Gobierno creó la “Unidad de Inteligencia Artificial Aplicada a la Seguridad” (UIAAS) dentro de la Dirección de Ciberdelito y Asuntos Cibernéticos del Ministerio de Seguridad.
Esta unidad tiene entre sus objetivos prevenir, detectar, investigar y perseguir delitos y sus conexiones en el ciberespacio utilizando IA. Para eso, su tarea principal será analizar actividad en redes sociales, aplicaciones, sitios web e incluso partes de la llamada internet profunda o dark web con algoritmos y herramientas que buscan patrones de riesgo o signos de delitos.
El equipo está formado por representantes de varias fuerzas federales (Policía Federal Argentina, Gendarmería, Prefectura, Policía de Seguridad Aeroportuaria, y el Servicio Penitenciario Federal) bajo coordinación del director de Ciberdelito.
Además, está previsto que esta unidad pueda:
- Analizar imágenes y datos para identificar actividades sospechosas o perfiles de sospechosos.
- Monitorear tendencias o eventos en redes que puedan anticipar disturbios o amenazas.
- Detectar amenazas cibernéticas antes de que afecten sistemas críticos.
Paralelamente, otra medida publicada en el Boletín Oficial habilita a las fuerzas federales a realizar ciberpatrullaje en sitios web de acceso público y fuentes digitales abiertas, siempre respetando leyes de protección de datos personales y sin entrar en espacios que impliquen violación de intimidad.
¿Qué problemas intenta resolver? El contexto de ciberdelitos
El mismo Boletín Oficial también aprobó planes más amplios —como el “Plan Federal de Prevención de Ciberdelitos y Gestión Estratégica de la Ciberseguridad (2025-2027)”— que reconocen que el delito ya no es solo físico sino digital, con amenazas como hackeos, fraudes o ataques que impactan servicios críticos.
Este contexto se usa como argumento para justificar la adopción de IA y de nuevas herramientas tecnológicas por parte del Estado para garantizar la seguridad de la población en un entorno cada vez más digitalizado.
El debate social: seguridad vs. privacidad y confianza pública
La idea de usar IA y ciberpatrullaje para prevenir delitos suena potente: ¿quién no quiere menos fraudes, menos robos de identidad o detectar tráfico de contenidos ilegales antes de que se extiendan? Pero este tipo de medidas también generan preguntas importantes desde lo social y lo ético:
¿Hasta dónde puede llegar el monitoreo?
Aunque las normas aclaran que el ciberpatrullaje solo puede hacerse en fuentes públicas y abiertas, muchas personas jóvenes sienten que cualquier vigilancia sobre redes y comportamientos digitales ya es invasiva y tiende a generar desconfianza, porque no siempre está claro qué se considera información “pública” y qué no.
¿Qué pasa con la intimidad y la libertad de expresión?
Cuando fuerzas de seguridad analizan lo que la gente escribe o comparte en redes, incluso en espacios públicos, hay un debate sobre si eso puede afectar la manera en que nos expresamos y compartimos ideas. Parte de la sociedad tecnológica advierte que esto podría terminar autocensurándonos por miedo a ser interpretados como “riesgo” por sistemas automatizados.
¿La tecnología va a protegernos o nos va a vigilar más?
Muchos adolescentes ya sienten que sus propias vidas están literalmente “online” —mensajes, fotos, memes, gustos— y ver que el Estado usa IA para “patrullar” esos espacios puede generar ansiedad. ¿Es una herramienta de protección o un sistema que puede ampliar la presencia policial incluso en el mundo digital?
Lo que cambia para la gente de a pie
Para la mayoría de las personas, estas medidas no se notan directamente en el día a día… hasta que sí: puede que haya menos fraudes detectados a tiempo, o investigaciones más rápidas ante delitos digitales graves. Pero también puede generar un entorno donde la vigilancia tecnológica se normalice, incluso en contextos donde antes nadie pensaba que el Estado “mirara”.
En ese sentido, las discusiones sobre seguridad digital en 2026 no son solo técnicas o policiales: son sociales. Y están directamente relacionadas con cómo cada individuo concibe su privacidad, su libertad de expresión y su confianza en las instituciones en un mundo cada vez más conectado.