No mires hacia mí - ForkLog: criptomonedas, IA, singularidad, futuro

img-b3324e1a267cbfea-7852159350685838# No me mires

Las cámaras de vigilancia comunes en las megaciudades hace tiempo han sido reemplazadas por sistemas enteros equipados con inteligencia artificial. Lamentablemente o afortunadamente, muchos de nosotros debemos aceptar como hecho aquello que antes leíamos en distopías.

Krzysztof Szpak explicó cómo funcionan los sistemas de vigilancia con IA en las calles de las grandes ciudades y por qué los gobiernos se apresuraron a implementarlos ampliamente.

Policía Flock

En septiembre de 2025, frente a la casa de Krisanna Elzer en Denver, estaba un oficial de policía con una citación judicial. La dueña era acusada de robar un paquete de la puerta de otra ciudad.

La evidencia del delito fue proporcionada por los datos del sistema automatizado de videovigilancia de la empresa comercial Flock Safety, donde se veía el coche de Elzer. Sin embargo, el oficial se negó a compartir estos detalles con la sospechosa. Todas las objeciones las propuso presentar en el tribunal.

«Sabes que tenemos cámaras en esa ciudad. Ni un solo respiro de aire fresco pasa sin nuestro conocimiento», — explicó el policía.

Elzer, segura de su inocencia, empezó a recopilar sus propias pruebas. Ese día, en realidad, estuvo cerca — visitó a un sastre, pero no robó paquetes ajenos.

Recopiló datos de GPS en aplicaciones del teléfono y del coche, grabaciones del dashcam, testimonios orales e incluso fotos de su ropa que llevaba ese día.

Tras varios intentos fallidos de entregar la información a las autoridades, la sospechosa contactó directamente a su jefe de policía. Él la felicitó por su trabajo y le informó que la citación judicial había sido cancelada.

Para diciembre de 2025, Flock Safety ofrecía acceso a 80,000 cámaras en 49 estados de EE. UU.

De furgones con monitores a la predicción de delitos

Las cámaras de vigilancia en calles, tiendas y edificios son ya una vista habitual. Sin embargo, las cámaras inteligentes modernas y los métodos de procesamiento de información representan algo nuevo en comparación con sus predecesores.

CCTV de la era analógica

Antes, el sistema de videovigilancia (CCTV, Circuito Cerrado de Televisión) se entendía como una red cerrada de cámaras cuyo señal se transmitía a una docena de monitores frente a un guardia aburrido en un centro comercial.

La tecnología se limitaba a sensores de video, pantallas y equipos de grabación.

Las fuerzas de seguridad experimentaron con sistemas de vigilancia al menos desde mediados del siglo pasado.

Prueba del sistema CCTV de la policía británica en Trafalgar Square, 1960. Fuente: The National Archives. En 1960, la policía británica realizó pruebas con dos cámaras de vigilancia en Trafalgar Square durante la visita del rey y la reina de Tailandia. Los monitores se colocaron en una furgoneta cerca del lugar de instalación. La experiencia permitió detectar varios problemas técnicos y generó reacciones encontradas.

En 1979, la empresa de investigación del gobierno británico Police Scientific Development Branch desarrolló la tecnología ANPR basada en métodos de reconocimiento óptico de caracteres disponibles en ese momento.

Para los 90, las cámaras en intersecciones y fachadas se volvieron norma. Los policías integraron CCTV y ANPR en su arsenal cotidiano.

Cámaras inteligentes

Con la miniaturización de componentes informáticos, el aumento de la conectividad y la aparición de IA, en lugar del CCTV tradicional llega la cámara inteligente con base de datos centralizada y sistema automático de análisis de información.

Este dispositivo cuenta con su propio procesador con sistema operativo, almacenamiento, interfaces para conexión local e internet, y a veces micrófono para grabación de audio.

Cámara Flock Safety con funciones ANPR. Fuente: Wikimedia Algunos fabricantes integran aceleradores de IA y módulos NPU (Unidad de Procesamiento Neural) para procesar datos en tiempo real directamente en el dispositivo. Otros usan hardware externo para análisis de IA.

Estos sistemas pueden identificar objetos, reconocer matrículas y rostros, y generar resúmenes de lo visto. Las capacidades dependen de la configuración del software y las preferencias del proveedor.

La mente maestra tras bambalinas

Una cámara inteligente puede reconocer objetos y registrar sus identificadores — matrícula, rostro o patrón de caminata. El centro analítico recopila datos, los cruza con información de otras fuentes y envía conclusiones al operador.

Flock Safety ofrece algo similar con Nova — «plataforma de datos para la seguridad pública», que incluye no solo grabaciones de cámaras, sino también información de filtraciones, bases de datos de brokers y otras fuentes comerciales.

Este sistema crea perfiles con mapas de movimientos, preferencias, historial de vistas, hábitos, registros policiales y otros datos.

Con tal volumen de información, la IA puede hacer suposiciones sobre el comportamiento de las personas y alertar al operador sobre situaciones sospechosas. Esta opción ya está disponible para los clientes de Flock.

Según la empresa, Nova permite a las fuerzas del orden cerrar casos «en un clic».

Pero los críticos dicen que es una forma de evadir la obtención de órdenes judiciales para vigilancia y un terreno fértil para violaciones masivas de la privacidad.

Peinados coloridos e inyecciones de código

A muchos no les importa la vigilancia masiva. Para ellos, es solo una herramienta para detectar y prevenir delitos. Pero no todos son indiferentes a los límites de la libertad personal.

El enfrentamiento entre cámaras inteligentes y quienes quieren mantener la privacidad se desarrolla en varias dimensiones.

Además de la lucha legal a nivel de política estatal, los entusiastas recurren al arte del camuflaje y a métodos más clásicos de hacking.

Suplantación (Spoofing)

La forma más interesante de atacar estos dispositivos son las técnicas de spoofing o «ataques de presentación». Incluyen métodos para manipular la imagen que recibe la cámara.

Aquí entran máscaras, reflectores, texturas especializadas y otros métodos para «estropear» la imagen y dificultar que el sistema reconozca o identifique correctamente el objeto.

En 2016, el proyecto Reflectacles del diseñador Scott Urban propuso gafas con un reflector que dirige la luz infrarroja de la iluminación de la cámara de vigilancia de vuelta, sobreexponiendo la cara.

Reflectacles en video de vigilancia. Fuente: Kickstarter. Esta técnica de fuerza bruta no deja datos útiles para la cámara, pero es ineficaz en vigilancia desde múltiples ángulos.

El investigador y artista berlinés Adam Harvey desarrolló soluciones CV Dazzle para contrarrestar sistemas de reconocimiento facial.

Los patrones de los 2010s — peinados asimétricos y maquillaje diseñado para engañar al algoritmo de Viola-Jones, que detecta caras por sombras, simetría y posición de la nariz.

Como solución, el artista usó configuraciones de sombras y colores que contrastan con la piel.

CV Dazzle Look 5. Fuente: Adam.harvey.studio. Con la llegada de sistemas de reconocimiento facial con IA, los métodos anteriores quedaron obsoletos, y en 2020 Harvey propuso una versión actualizada del maquillaje.

CV Dazzle Look 6 y 7. Fuente: Adam.harvey.studio. El autor aclaró que muestra técnicas, no patrones específicos, y que la mejor solución dependerá de las condiciones de vigilancia.

Métodos similares se aplican a sistemas de reconocimiento de matrículas. El entusiasta estadounidense Benn Jordan describió técnicas para crear texturas «hostiles» para detectores ANPR.

Usando modelos abiertos de reconocimiento, Jordan entrenó una red neuronal para generar ruido visual que, al superponerlo a la matrícula, hace que el sistema lea caracteres incorrectos o no vea la placa en absoluto.

El problema de los métodos visuales es su fiabilidad, que depende de las condiciones y la cantidad de cámaras. Al mismo tiempo, los proveedores amplían las características que usan para reconocimiento, como la forma de caminar o el color del vehículo y sus modificaciones externas.

Los investigadores siguen buscando formas de evadir modelos avanzados, pero las amenazas más claras para los sistemas con cámaras inteligentes provienen de hackers.

Hackeo de dispositivos y ataques en red

Como cualquier computadora conectada a internet, independientemente de la potencia o presencia de IA, las cámaras inteligentes y su infraestructura son potencialmente vulnerables a ataques cibernéticos.

A lo largo de su existencia, se documentaron muchas vulnerabilidades de diversa gravedad.

En 2021, se detectó una vulnerabilidad en el código de las cámaras Hikvision que permitía ataques de inyección de código. La brecha permitía tomar control total del dispositivo, instalar software y acceder a otras cámaras en la red.

En 2023, en el sistema operativo de las cámaras Axis se encontró una vulnerabilidad que permitía ejecutar comandos arbitrarios durante la instalación de aplicaciones ACAP.

En 2025, se hallaron dos vulnerabilidades en los sistemas de Dahua relacionadas con ejecución remota de comandos y desbordamiento de búfer, que permitían a un atacante controlar completamente la cámara.

Un vector separado de ataque son las interacciones directas con el hardware, que a menudo está en la calle, en lugares públicos. Los malintencionados pueden usar interfaces de mantenimiento, acceder a almacenamiento local o modificar el dispositivo para sus fines.

Para protegerse, los fabricantes usan cifrado de datos, métodos de verificación de hardware y firmas criptográficas en los videos.

Un dispositivo configurado con las medidas de seguridad adecuadas no puede ser simplemente «reprogramado» o descargado con datos listos para usar. Pero a veces ocurren errores.

En 2025, la publicación 404 Media informó que al menos 60 cámaras IA Condor de Flock Safety con función de seguimiento de personas quedaron sin protección contra accesos no autorizados.

El experto en ciberseguridad John Ganes y el mencionado investigador Benn Jordan encontraron las IPs de los dispositivos usando el buscador especializado Shodan y descubrieron que podían acceder sin login ni contraseña.

Cualquier persona podía ver transmisiones en vivo, descargar datos archivados de los últimos 30 días, cambiar configuraciones y leer registros del sistema.

La empresa proveedora explicó el incidente como «error en la configuración, que afectó a un número limitado de dispositivos» y aseguró que ya se resolvió.

Los mismos investigadores señalaron que otro modelo de cámaras Flock ofrece un punto WiFi abierto para acceso, si se presionan ciertos botones en el cuerpo del dispositivo. Así, se podía obtener control total del aparato y su software.

Ganes publicó un análisis de estas y otras vulnerabilidades en un documento que abarca 55 puntos.

En respuesta oficial, la compañía afirmó que los problemas ya eran conocidos y que los posibles hackers dependen del acceso directo a las cámaras y del «conocimiento profundo del hardware».

El proveedor subrayó que todas las actualizaciones necesarias se entregan sin intervención del cliente y que no hay amenaza para el funcionamiento de los sistemas.

Lucha contra los «parcialmente competentes»

Los sistemas automáticos de vigilancia, especialmente con IA, se han convertido en una herramienta útil para las fuerzas del orden.

Los proveedores aseguran a los clientes que sus soluciones permiten — aquí la matrícula sospechosa y el mapa de movimientos, aquí la dirección. Ahora, los casos se pueden cerrar con un clic.

Es fácil acostumbrarse a esto. La gente tiende a confiar excesivamente en los datos de los sistemas automatizados. Este fenómeno está relacionado con uno de los sesgos cognitivos más comunes.

La automatización con IA sigue los mismos principios: muchos usuarios consideran correctas las respuestas de ChatGPT y ignoran posibles contradicciones. En la vida cotidiana, esto puede distorsionar la percepción y, en algunos casos, provocar psicosis.

Incluso bajo condiciones de perfección técnica y bajo control total del operador autorizado, un sistema de vigilancia con análisis de IA puede causar daño.

En 2025, las autoridades estadounidenses comenzaron una investigación por el posible uso de la tecnología Flock Safety en vigilancia ilegal. Sospecharon que las fuerzas del orden usaron el sistema para buscar inmigrantes y vigilar a mujeres que cruzaban las fronteras estatales en busca de jurisdicciones con abortos permitidos.

En ese caso, el sistema funcionó correctamente, sin engaños, sin hackeos ni manipulación de videos con deepfakes.

No romper, sino perfeccionar

Los sistemas CCTV están ampliamente extendidos desde hace tiempo. La implementación de análisis con IA en videovigilancia es la nueva realidad.

Incluso la máscara asimétrica más llamativa y las matrículas completamente cubiertas no garantizan la privacidad en un entorno de recopilación total de datos.

Como cualquier herramienta poderosa, los sistemas de vigilancia con IA necesitan regulación para prevenir su uso ilícito y la negligencia en la seguridad por parte de proveedores y operadores.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
0/400
Sin comentarios
  • Anclado