Haz que tenga sentido: el desafío del análisis de datos en la deliberación global
La comunidad deliberativa apenas está comenzando a experimentar cómo hacer funcionar la deliberación globla, y solo a través del espíritu colaborativo llegaremos a procesos que puedan marcar la diferencia. En mi rol liderando la estrategia de datos de la Fundación Iswe, apoyo sus esfuerzos para convocar una coalición e instituir una asamblea permanente de ciudadanos globales, a partir del próximo año.
La participación masiva será clave para vigorizar las deliberaciones globales. Las asambleas tendrán más posibilidades de ser consideradas legítimas, justas y con apoyo público si involucran a miles o incluso millones de participantes diversos. Esto plantea un desafío operativo: cómo sistematizar las ideas políticas de muchas personas en todo el mundo.
En una asamblea global centralizada, entre 50 y 500 ciudadanos de varios países participan en un único proceso deliberativo y producen recomendaciones o acciones políticas que cruzan idiomas y culturas. En una asamblea distribuida, se convocan múltiples reuniones a nivel local que comparten una metodología común pero flexible, lo que permite a los participantes discutir un tema común aplicado tanto a contextos locales como globales. De cualquier manera, un proceso de deliberación global exige la organización y síntesis de posiblemente miles de ideas de diversos idiomas y culturas de todo el mundo.
¿Cómo podremos hacer sentido de todos esos datos para sistematizar las ideas y recomendaciones de los ciudadanos? Para esto, la mayoría de las personas recurren a los métodos computacionales que ayudan a reducir la complejidad e identificar patrones. Entre ellas, una primera opción frecuente para analizar texto es poco más que un simple conteo, a través del cual podemos producir tablas de frecuencias o nubes de palabras.
Esta es la razón por la que, en la mayoría de los casos, los analistas de participación combinan los métodos de Big Data con lo que llamo “datos pequeños” (Little Data, inspirado en Norvaisas & Karpfen y mi mentora Coni Miranda): ejemplos, citas, historias, fotos, ideas individualizadas y otras anécdotas que iluminan más profundamente las perspectivas de los ciudadanos. Esto significa caminar por una delgada línea entre abrumar a los lectores con demasiada información (si solo nos enfocamos en el Little Data) y perder los matices que hace que la deliberación valga la pena (si solo nos enfocamos en el Big Data).
Es una delgada línea entre abrumar a los lectores con demasiada información y perder los matices que hace que la deliberación valga la pena.
¿Cómo hacemos para elegir los ejemplos correctos para el Little Data? Al menos en mi experiencia, en muchos casos el organizador o investigador simplemente selecciona un montón de ejemplos en función de sus preferencias. En otros casos, las personas utilizan procedimientos estadísticos que identifican oraciones que supuestamente son representativas de las discusiones, lo que se conoce como resumen extractivo. Pero el resultado suele carecer de diversidad, ya que generalmente produce denominadores comunes que terminan siendo genéricos e insípidos, en lugar de explorar la amplitud de las perspectivas.
Otros proyectos también han comenzado a utilizar Grandes Modelos de Lenguaje (LLM) para crear activamente “ejemplos” de las posturas de los ciudadanos (resumen abstractivo). Bajo este enfoque, los analistas de la participación pueden utilizar modelos pre-entrenados (incluidos los comerciales como ChatGPT) proporcionando todo el texto y pidiéndole que elabore un resumen o que describa grupos de opiniones. Sin embargo, no parece tener mucho sentido fabricar perspectivas amalgamadas cuando tenemos ideas reales de los ciudadanos que se pueden rastrear hasta su contexto local.
Proyectos como Talk to The City y Fora de Cortico utilizan todos estos métodos: modelos estadísticos, LLMs, y también hacen todo lo posible para compartir citas y videos no adulterados. Este enfoque es definitivamente prometedor, pero aún está en desarrollo. Por ejemplo, todavía no sabemos qué tan confiables son los LLM para resumir texto.
Pero también se nos pueden ocurrir opciones más creativas. Si pensamos en los temas o palabras más prevalentes que identificamos a través de modelos estadísticos como filtros iniciales, podemos diseñar un enfoque más participativo y descentralizado. Si creemos en la importancia democrática de la descentralización y la participación, nuestra estrategia de análisis de datos también debería abstenerse de dejar toda la interpretación de los datos a una sola organización. Por ejemplo, si identificamos en nuestro análisis que el concepto de “agua limpia” es prevalente, podríamos tomar todos los resultados de la asamblea que se refieran a ese concepto y enviarlos a las ONG de todo el mundo que se especializan en agua limpia como “curadores invitados” dejar que ellas identifiquen ideas interesantes.
Incluso podríamos involucrar ciencia ciudadana y hacer que ciudadanos ayuden a categorizar y ordenar los datos. En la práctica esto es involucrar a voluntarios para que ayuden a analizar los datos, permitiéndoles organizar, clasificar y seleccionar ideas para mostrar. Un enfoque muy similar está siendo desarrollado por Fora para invitar a tantas personas como sea posible a convertirse en “creadores de sentido” (sensemakers) en sus proyectos.
Sobre los autores
Iñaki Goñi es asociado de datos en Iswe Foundation y candidato a doctor en Estudios de Ciencia y Tecnología en la Universidad de Edimburgo, donde estudia tecnología y democracia. Trabaja en procesos participativos a gran escala y tecnologías participativas desde una perspectiva crítica.
Supporters
The Journal of Deliberative Democracy and Deliberative Democracy Digest are supported by:
Contact
General queries
Please get in touch with our editor Lucy Parry.
Mailing Address
Journal of Deliberative Democracy
Centre for Deliberative Democracy and Global Governance
Ann Harding Conference Centre
University Drive South
University of Canberra, ACT 2617