Cámara de videovigilancia con inteligencia artificial supervisando la Plaza de España en Palma

Más ojos en Palma: cámaras con IA en la Plaza de España y el Parque de Ses Estacions – ¿más seguridad o más control?

Palma quiere instalar 13 cámaras con apoyo de IA en el centro y destinar además fondos a nuevo equipamiento policial para aumentar la seguridad. La decisión plantea preguntas sobre protección de datos, responsabilidades y la vida en las plazas. ¿Qué queda sin aclarar y qué alternativas existen?

Más ojos, nuevas chaquetas: la modernización de Palma en pleno centro

A primeras horas de la mañana, cuando los panaderos de la Plaza de España encienden sus hornos y el tranvía va casi vacío, pronto habrá otras miradas sobre las cabezas: la ciudad de Palma planea un sistema de videovigilancia con 13 cámaras en la Plaza de España y en el Parque de Ses Estacions. Se han reservado 139.000 euros para ello y se prevé destinar otros 100.000 euros a uniformes, material de protección y vehículos para la policía local. La pregunta central sigue siendo: ¿la tecnología hace las plazas más seguras o las transforma de forma fundamental?

Qué es exactamente lo que se quiere instalar

Se prevén cámaras con análisis de vídeo integrado basadas en inteligencia artificial. No solo grabarán, sino que deberán reconocer anomalías, lanzar alertas y prefiltrar decisiones: un sistema que pretende ver más y reaccionar más rápido que una persona frente a un monitor. Suena práctico, sobre todo donde por la noche circulan grupos o hay hurtos en tiendas. Pero las palabras de los transeúntes en la Carrer de Sant Miquel suenan ambiguas: “Si es más seguro, está bien”, dice una mujer entre café y baguette. Un estudiante cerca de la Estación Intermodal responde: “¿Y quién le dice a la máquina qué es sospechoso?”

Los aspectos de los que rara vez se habla

En el debate público suelen aparecer dos puntos: seguridad y protección de datos. Preguntas importantes pero a menudo pasadas por alto son: ¿qué datos de entrenamiento usa la IA? ¿Podrían conjuntos de datos sesgados clasificar con más frecuencia a ciertos grupos como “sospechosos”? ¿Quién se encarga del mantenimiento y las actualizaciones del software, la ciudad o un proveedor externo? Y: ¿qué ocurre si las cámaras cometen errores y marcan a personas como sospechosas por error? Esos falsos positivos pueden derivar en estigmatización e intervenciones policiales innecesarias.

Riesgos concretos para el espacio público

La vigilancia cambia comportamientos. Una plaza con cámaras permanentes se siente distinta: las conversaciones se hacen más bajas, los encuentros pueden volverse más formales. Para personas sin hogar, jóvenes o trabajadores migrantes esto puede significar más control en lugar de ayuda. Además existe el riesgo de desplazamiento: la delincuencia puede trasladarse a otros barrios en lugar de desaparecer, como también genera debate la instalación de nuevos radares de semáforo en la ciudad. Y desde el punto de vista técnico está la duda de si se planea reconocimiento facial real o “solo” reconocimiento de patrones de movimiento y comportamiento, una diferencia con gran impacto en las libertades civiles.

Falta a menudo transparencia y control

El ayuntamiento asegura que se cumplirán las disposiciones legales. Pero las indicaciones legales por sí solas rara vez bastan para generar confianza. La ciudadanía pregunta: ¿quién tendrá acceso a las grabaciones? ¿Cuánto tiempo se almacenarán? ¿Quién define los criterios de alarma? Sin respuestas claras y comprensibles para el público, la desconfianza perdura. La supervisión y la posibilidad de revisión por parte de delegados independientes de protección de datos sería un primer paso.

Propuestas prácticas en lugar de fe ciega en la tecnología

Hay formas de equilibrar mejor seguridad y libertad. Algunas propuestas surgidas de la comunidad son:

1) Limitaciones claras: No al reconocimiento facial, plazos máximos fijos de almacenamiento (p. ej. 24–72 horas), rutinas automáticas de borrado y seudonimización cuando sea posible.

2) Control público: Un órgano municipal con representantes de la sociedad civil para supervisar, informes de auditoría periódicos y un registro público sobre incidentes en los que la IA haya activado una alarma.

3) El factor humano en el centro: Todas las alarmas deben ser verificadas por personal formado antes de que se adopten medidas. No debe haber intervenciones automáticas sin revisión humana.

4) Fase de evaluación: Un piloto con criterios de éxito definidos (p. ej. menos daños materiales, tiempos de respuesta más rápidos) y un periodo de evaluación transparente tras el cual se decida públicamente si ampliar o ajustar el sistema.

5) Alternativas sociales: Parte de los fondos debería destinarse a prevención: mejor iluminación de calles, trabajadores sociales de calle, ofertas para jóvenes y actividades culturales en las plazas —una presencia visible que no solo disuada, sino que integre.

Cómo se siente en Palma

Por la mañana en la Plaza de España: olor a ensaimadas recién horneadas, el bocinazo lejano del tranvía, algunos turistas con mapas, un vigilante con chaqueta nueva y perfectamente planchada. La tecnología llegará. Si calma la escena o la transforma dependerá de cuán abierta sea la ciudad con sus habitantes. ¿Quién decide las reglas? ¿Quién vigila a los vigilantes?

Conclusión: aprovechar las oportunidades, exigir transparencia

El nuevo equipamiento puede ayudar a reducir problemas. Pero sin reglas claras, controles independientes y medidas sociales de acompañamiento, Palma corre el riesgo de convertir sus plazas en zonas tecnologizadas donde cercanía y desconfianza conviven. Los próximos meses son una oportunidad: para una implementación transparente, para la participación y para soluciones que no contrapongan seguridad y privacidad, sino que protejan ambas.

Noticias similares