La idea de una ciudad autoadministrada parece sacada de la ciencia ficción, pero es una posibilidad cada vez más real.
La desconfianza en los gobernantes ha llevado a que los ciudadanos y los grandes conglomerados tecnológicos busquen alternativas.
En la era de las smart cities, los algoritmos y la inteligencia artificial prometen gestionar el tráfico, la seguridad y los servicios públicos con una precisión que los humanos no han logrado. Sin embargo, esta automatización conlleva riesgos: ¿qué pasa cuando la humanidad queda relegada en la toma de decisiones? ¿Podemos confiar en que los algoritmos actuarán en beneficio de todos y no solo de quienes los programan?
La automatización del poder: una vieja ambición con nueva tecnología
Por: Gabriel E. Levy B.
La idea de que una ciudad pueda funcionar sin intervención humana no es nueva. Desde las utopías urbanas del siglo XIX hasta los proyectos más recientes de ciudades inteligentes, la automatización siempre ha sido una promesa. Filósofos como Thomas More imaginaron sociedades donde el orden perfecto era posible, y tecnólogos del siglo XX como Norbert Wiener, el padre de la cibernética, soñaron con sistemas de control automatizados que optimizaran la vida humana.
Pero la diferencia hoy es que la tecnología lo hace posible.
En países como China y Singapur, las smart cities ya han dado pasos hacia la autoadministración con redes de sensores que regulan desde el tráfico hasta el consumo energético en tiempo real.
Empresas como Google y Amazon han desarrollado modelos urbanos donde los datos reemplazan las decisiones políticas tradicionales.
Toronto fue un experimento fallido en este sentido: el proyecto Sidewalk Labs de Google pretendía crear un barrio inteligente gestionado por algoritmos, pero fracasó por preocupaciones sobre la privacidad y la falta de regulación democrática.
Si bien la automatización promete eficiencia, también plantea la pregunta central: ¿quién controla la ciudad cuando el gobierno es un código de programación?
Cuando los algoritmos deciden por nosotros
Las smart cities avanzan con una premisa básica: los datos son la clave para mejorar la calidad de vida. Algoritmos de inteligencia artificial pueden analizar información en tiempo real y tomar decisiones más rápido y con menos margen de error que los humanos.
Esto se traduce en tráfico fluido, sistemas de energía eficientes y respuestas inmediatas a emergencias.
Pero hay un problema fundamental: los algoritmos no son neutrales. Están diseñados por empresas y gobiernos con intereses propios. Shoshana Zuboff, autora de The Age of Surveillance Capitalism, advierte que en las ciudades automatizadas, quienes manejan los datos no solo regulan el tránsito o la seguridad, sino que tienen acceso total a la vida privada de los ciudadanos.
En una ciudad autoadministrada por inteligencia artificial, cada movimiento es registrado, analizado y utilizado para predecir comportamientos.
Otro riesgo es el sesgo algorítmico. Cathy O’Neil, en su libro Weapons of Math Destruction, explica cómo los algoritmos pueden reproducir y amplificar desigualdades sociales. En un sistema de vigilancia automatizado, por ejemplo, los barrios con más reportes de delitos pueden recibir mayor atención policial, incluso si esos reportes están influenciados por prejuicios raciales o de clase.
Así, una ciudad autoadministrada podría consolidar desigualdades en lugar de eliminarlas.
Además, hay un dilema moral: si un algoritmo toma una decisión equivocada, ¿quién es responsable? En 2018, un vehículo autónomo de Uber atropelló a una peatona en Arizona porque el sistema no la identificó como una amenaza.
Si en el futuro una ciudad completamente automatizada comete errores similares, ¿a quién se le exige rendición de cuentas?
Casos donde la automatización reemplaza a los gobiernos
Algunas ciudades han dado pasos concretos hacia la autoadministración tecnológica.
Songdo, en Corea del Sur, es un ejemplo de una smart city donde el tráfico, el consumo de energía y la recolección de basura son gestionados por inteligencia artificial. Sin embargo, a pesar de su diseño futurista, los ciudadanos no han adoptado la ciudad como se esperaba: la falta de interacción humana y la hiperregulación algorítmica la han convertido en un espacio frío e impersonal.
Otro caso es el de Shenzhen, en China, donde el reconocimiento facial y los sistemas de vigilancia determinan el comportamiento ciudadano.
Cámaras con inteligencia artificial detectan infracciones y emiten multas automáticas, mientras un sistema de crédito social decide quién puede acceder a beneficios públicos. Aunque eficiente, este modelo ha sido criticado por erosionar la privacidad y los derechos individuales.
En Europa, Ámsterdam ha implementado algoritmos para gestionar servicios públicos de manera más equitativa. Pero, a diferencia de los modelos asiáticos, ha incluido mecanismos de control democrático que permiten a los ciudadanos intervenir en las decisiones tecnológicas. Este caso demuestra que la automatización puede coexistir con la participación ciudadana, aunque sigue siendo un desafío mantener el equilibrio.
El caso más radical es Neom, la ciudad futurista que Arabia Saudita está construyendo en el desierto. Diseñada para ser administrada por inteligencia artificial, se promociona como un modelo de eficiencia y sostenibilidad. Sin embargo, su planificación ignora la complejidad social: una ciudad no es solo infraestructura, sino también cultura, historia y relaciones humanas.
En conclusión
Las ciudades autoadministradas ofrecen soluciones innovadoras, pero también plantean riesgos éticos y políticos. La automatización puede hacer que los servicios sean más eficientes, pero si se eliminan las decisiones humanas del proceso, se corre el riesgo de perder el sentido de comunidad y responsabilidad social. Los algoritmos pueden administrar una ciudad, pero la pregunta sigue siendo: ¿quién los controla y bajo qué valores operan? La tecnología puede mejorar la vida urbana, pero sin supervisión democrática, puede convertirse en una herramienta de exclusión y vigilancia masiva.