La ciudad viva


Está en: Inicio > Blog


La ciudad en la era del big data

por Manu Fernandez — Martes, 17 de marzo de 2015

Uno de los elementos más sugerentes del régimen discursivo de la smart city es su apelación al surgimiento de una nueva ciencia de las ciudades. En una era de esplendor tecnológico, apelar a la ciencia como catalizadora de una nueva forma de pensar y construir las ciudades resulta atractivo. Sin embargo, no es algo novedoso. De hecho, en 1913 el término The city scientific ya fue utilizado por George B. Ford como título de su conferencia en la quinta reunión anual de la National Conference on City Planning celebrada en Chicago (Shelton, Zook y Wigg) y desde entonces han sido recurrentes las oleadas de promesas de transformación del análisis urbano a través de la tecnología emergente en cada momento.

Imagen: data.path Ryoji.Ikeda - 4 (CC BY-SA 2.0)

Entender las dinámicas urbanas a través de un aparato cibernético, de ecuaciones y algoritmos ha sido un empeño cíclico. Hoy planteamientos como los de Geoffrey West, Luis Betttencourt o Michael Batty, por poner algunos nombres asociados a la nueva ciencia de las ciudades, son una continuación o reedición de los primeros trabajos de modelización urbana Jay Forrester y otros en el MIT desde finales de la década de 1950, basados en ecuaciones que describen cómo funcionan diferentes aspectos de la ciudad y cómo interactúan entre ellos, programándose modelos de simulación para predecir el devenir de la ciudad. Estos ejercicios no quedaron en el ámbito académico o en los laboratorios de simulación, sino que fueron llevados a la práctica en ciudades como Pittsburgh o Nueva York con sonoros fracasos y críticas posteriores. De esta forma, esta disciplina sufrió su particular viaje por el desierto hasta que fue redescubierta por IBM a principios del siglo XXI para aplicarla en Portland, a través de nuevos modelos más complejos, refinados y sistemáticos. De nuevo, sus resultados –Antohny Townsend los expone con detalle- fueron decepcionantes para los gestores públicos, en un caso que refleja las limitaciones teóricas y, sobre todo, prácticas de este tipo de acercamientos, afectados por una fetichización de la ingeniería como última solución que soslaya perspectivas no tecnológicas y desde los estudios urbanos, mejor equipados para anticipar problemas teóricos, plantear preguntas prácticas y éticas, etc.

Esta nueva ciencia de las ciudades ha sido, en realidad, más impulsada desde grandes titulares de periódicos más que por los propios nombres antes citados quienes, si bien es cierto que ofrecen sus recursos científicos con rotundidad como un conocimiento objetivable sobre el funcionamiento y la predicción sobre el futuro de las ciudades, suelen ser más humildes en la forma de presentar sus argumentos. Aún así, esa nueva ciencia tiene un fuerte predicamento, hasta el punto de que son varias las universidades en el mundo que están alineando sus departamentos y facultades para ofrecer programas de formación y de investigación proponiendo esta nueva ciencia como reclamo (Center for Urban Science + Progress, Centre for Advanced Spatial Analysis, Santa Fe Institute, etc.). Sin embargo, más allá de su utilización como reclamo propagandístico, esta “ciencia de las ciudades” está lejos de ser una disciplina de contornos exactos. Como refleja el informe Future of cities: origins, meanings and uses,

“The science of cities is still emerging and has not yet generated global language norms. It is also an inter-disciplinary science, and this makes clarity of concepts harder to achieve. A more consistent and globally accepted set of principles for future cities may, paradoxically, take shape over the next decade, but it is likely that this will happen at the same time as local and corporate propositions an terminologies continue to multiply”.

En cualquier caso, detrás de esta reclamación de una nueva capacidad científica reside la retórica y la realidad del big data. Las implicaciones de las capacidades de recolección, almacenamiento, procesamiento y explotación de cantidades masivas de datos en un escenario de datificación de cualquier realidad social, empresarial, económica, etc. apenas han sido exploradas de manera crítica. De nuevo, nos encontramos ante una primera fase de socialización espectacularizada de un concepto y unas tecnologías que sólo ahora empiezan a apuntar sus desafíos (The data revolution. big data, open data, data infrastructures and their consequences, de Rob Kitchin, es una buena ventana para estudiar estas consecuencias). Uno de estos desafíos, quizá el que más se relaciona con el día a día ciudadano y el más capaz de generar impactos mediáticos es el relacionado con su potencial como tecnología de control y vigilancia  y como mecanismo de discriminación laboral, criminal o como consumidores.

En este sentido, podemos hablar de una ansiedad creciente sobre la reducida capacidad de actuar frente a mecanismos de control social automatizados, invasivos, imperceptibles y masivos que están detrás de episodios de espionaje, pero también en niveles más cotidianos (principalmente, a través del control de preferencias y gustos para la manipulación comercial como consumidores). Sin embargo, el desafío va más allá y, en muestro caso, nos interesa más su relación con la pretensión de construir unas nuevas bases científicas para el estudio del hecho urbano y la ciudad contemporánea. Kate Crawford, por ejemplo, ha planteado claramente cómo funciona esta mitología del big data como aspiración de verdad y perfección tan seductora que atrae a empresas de todo tipo y también a gestores públicos, encantados de poder disponer de un aparato técnico supuestamente neutral que les permita parapetarse en el “no fui yo, fueron los datos” cuando las cosas salen mal.

La propuesta de “revolución” científica del big data no implica sólo una acumulación cuantitativa de información para la mejora del conocimiento, sino también una mejora cualitativa al permitir traspasar los límites de la ciencia normal para llegar a una nueva revolución científica. Con estas premisas, el movimiento del big data ofrece un nuevo campo de actuación en el ámbito del análisis predictivo, el análisis de sentimientos (principalmente a través de la exploración de las redes sociales), las ciencias naturales (la secuenciación genómica, por ejemplo), el urbanismo cuantitativo o el periodismo de datos, por citar sólo unas ejemplos de aplicación. En este sentido, no es más que una reedición de las promesas del positivismo, instrumentadas ahora por un aparato de gestión informacional sin precedentes. Con ello reaparece en la sociedad y en el espectro del conocimiento científico la posibilidad de conocer de manera objetiva, neutral y desinterasada la realidad a estudiar, reflejada ahora en los datos masivos observados a través de una metodología –el big data y el uso de algoritmos- capaz de ofrecernos una imagen supuestamente perfecta de la realidad. Esta ideología cultural de fetichización de los datos se ha infiltrado en la sociedad, en las prácticas científico-tecnológicas, en los discursos institucionales y en los estudios sociales en una época dominada por las redes sociales como espacio de socialización y, sobre todo, de promoción de nuevos negocios y novedades tecnológicas. El big data se presenta, de hecho, como un asidero en el que las ciencias sociales pueden incluso quitarse de encima su complejo frente a las ciencias matemáticas, ya que ahora disponen de un instrumental para dotar de potencial estadístico comparable al de otras ciencias cuantitativas

Analizando esta aspiración, Boyd y Crawford en Critical questions for big data: Provocations for a cultural, technological,  and scholarly phenomenon apuntan una serie de desafíos que el big data no puede evitar afrontar:

• La pretensión de objetividad y exactitud son una ilusión

• Más datos no implican siempre mejores datos

• Sin contexto el big data pierde su significado

• Que sea accesible no lo hace ético necesariamente

• Acceso limitado al big data crea nuevas brechas digitales

En el escenario de espectacularización y banalización de las potencialidades y limitaciones del big data y las smart cities, el riesgo de los sesgos y las exclusiones de información, afectan a nuestra capacidad de entender por completo una ciudad a través de la datificación de su funcionamiento. A esta debilidad, las expectativas siempre responderán con una misma salida: si faltan datos, es precisamente porque necesitamos más datos, necesitamos ampliar el alcance de lo que podemos datificar, convirtiendo cualquier crítica sobre la insuficiencia de datos en un absurdo. Sin embargo, es precisamente en las ausencias de lo que no es cuantificable o lo que no es donde se abren las brechas para la crítica del neo-positivismo de los datos como escenario de conocimiento perfecto de la realidad. ¿Quién deja rastro de sus actividades en la ciudad? ¿Quiénes participan en los circuitos e infraestructuras captadores de datos digitales? ¿Es esta la realidad reflejada a través de estos rastros digitales? ¿Quién no participa de estos circuitos de datificación? Y, sobre todo, ¿de qué manera el uso del big data responde a una realidad fraccionada?

Todas estas posibilidades tecnológicas abren nuevos campos de exploración para mejorar la gestión de la ciudad y para ampliar nuestra experiencia urbana. De hecho, ya está pasando. Pero necesitamos hacernos muchas más preguntas y cuestionar sus limitaciones a la hora de describir o transformar la complejidad de la vida social en la ciudad.

Manu Fernández (@manufernandez) es analista urbano y autor del blog Ciudades a Escala Humana. Consultor independiente, actualmente se encuentra desarrollando su tesis doctoral sobre la narrativa de las smart cities.

comparte:
  • Facebook
  • del.icio.us
  • Twitter
  • Google Bookmarks
1 Star2 Stars3 Stars4 Stars5 Stars (2 votos, media: 5,00 sobre 5)
Loading ... Loading ...

Etiquetas: , , ,

Deja un comentario


Los articulos publicados son responsabilidad del/os autor/es y no necesariamente refleja el pensamiento de la organización.

Logotipo de la Junta de Andalucía