Mariluz Congosto, natural de Henarejos, ha trabajado tanto en el sector público como en el privado, hasta llegar a dedicarse a tiempo completo a la que dice es lo que le gusta: la investigación. Actualmente es investigadora y profesora honorífica en la Universidad Carlos III de Madrid. Como investigadora, es un referente en el análisis cuantitativo de la dinámica de las redes sociales. Esto le ha llevado a convertirse en una de las personalidades más importantes a nivel nacional en el análisis de datos en X (la red social anteriormente conocida como Twitter) en la cuenta @congosto.
Empezaremos por su experiencia en la Academia siendo de un pueblo de Cuenca. En su opinión, ¿tiene las mismas oportunidades alguien de la España vaciada que una persona nacida en una gran ciudad?
Supongo que no. En principio no. Yo, aunque nací en Henarejos, a los cuatro años me vine a Madrid. Entonces, prácticamente he vivido siempre en Madrid. Pero hay una cosa que me ha chocado mucho: En el Departamento de Telemática de la Universidad Carlos III (UC3M), donde hice yo la tesis, estábamos tres personas de Cuenca. Me parecía, teniendo en cuenta los pocos habitantes que somos en Cuenca, que hubiera esa concentración en una universidad en el mismo departamento. Y he encontrado siempre muchas personas de Cuenca en el entorno de la informática y telecomunicaciones. Mira, te aclaro: yo nací en Henarejos porque mi padre trabajaba allí en aquel momento, pero toda mi familia por parte de madre es de Valdemorillo de la Sierra. Pero vamos, aunque me fuese a los cuatro años yo soy de Cuenca y tengo allí mis raíces. A una persona de Cuenca le cuesta más porque, primero, carreras técnicas como la que he hecho yo no hay, tienes que irte a Madrid. Y si no tienes una beca sale muy caro, hay una barrera muy grande. La gente que vive en Madrid puede optar a cualquier tipo de carrera y la gente de la España vaciada pues si no tienes una beca es muy complicado que te vayas a estudiar fuera, entoces eso es un freno. Sin embargo, me ha sorprendido que me he encontrado con muchísima gente de Cuenca en mi entorno, cuando somos una provincia de poco más de 50.000 habitantes. Y encontrarme eso en un departamento tan concentrado siempre me ha sorprendido. Y hay una preferencia por el estudio de informática, telecomunicaciones.
¿Eso podría solucionarse con la UCLM, con los grados que hay en la Politécnica de Cuenca, por ejemplo?
Sí, ahora está todo mucho más distribuido. De cuando yo estuve en la carrera han pasado muchísimos años y prácticamente carreras técnicas había en Madrid, Barcelona y Valencia. Ahora en Castilla-La Mancha hay, pero están distribuidas. La de Informática está ahí en Albacete y en Cuenca hay cosas más de Bellas Artes… Es también puro desplazamiento. No es tanto desplazamiento irte, por ejemplo, a Albacete, que tiene calidad de vida y además unos precios más razonables de alquiler y de coste de vida, que irte a Madrid que, si no tienes una beca, es imposible por lo carísimo que está todo. Te frena. El que se hayan distribuido las universidades es una cosa muy buena para que la gente pueda optar a lo que realmente le gusta, porque si no te ves avocado a hacer una carrera que la dan en oferta cerca de donde estás tú. Eso es un freno y una barrera tremenda porque limita capacidades de personas que pueden ser muy buenas en una profesión y que no van a poder acceder a ella por limitaciones de dinero.
Ha dicho algo bueno y algo malo: lo de la distribución es cierto y lo de los alquileres también es cierto. En su opinión, ¿es más fácil o más difícil ahora para las nuevas generaciones de estudiantes?
Ahora es más fácil porque no se tienen que ir tan lejos y pueden optar entre sitios que sean razonablemente más asequibles. Ahora hay más oportunidades de poder elegir. Con todo, no tienen libre elección, porque no tienen en todas las provincias lo que quisieran. Que tampoco sería sostenible. Pero bueno, es más fácil. Ahora la gente si quiere estudiar lo tiene más fácil que cuando lo hice yo, que solo podíamos irnos a ciudades grandes. Pero no deja de tener su punto de dificultad. Que sea más fácil no significa que se hayan solucionado todos los problemas.
En cuanto a su trabajo. Exactamente, ¿en qué consiste un trabajo de análisis de datos?
Es una disciplina muy horizontal, mezcla muchas cosas. Tienes que tener conocimientos de programación porque, aunque hay muchas cosas desarrolladas siempre tienes que adaptar y hacer; tienes que conocer temas de estadística y tienes que unificar una serie de conocimientos para abordar los datos. Es una cosa que se aprende mucho con el uso. La ciencia de datos no es algo que se dé en la universidad, si estudias telecomunicaciones vas a aprender cosas que te van a servir para hacer cosas de tipo informática, estadística, física o matemáticas. Vas a encontrar siempre cosas que te enseñen y te van a ayudar mucho a hacer esto. Pero al final es una combinación de todas ellas. Entonces, se aprende mucho haciendo y mirando mucho en internet. En internet hay gente que desarrolla herramientas y con ellas hacen cosas que puedes ver y aprender de ellas. Se aprende más, al menos yo, mirando en internet que en el conocimiento reglado. Los datos son algo muy bonito, porque son una manera de ver qué está ocurriendo, y es muy interesante decir «me parece qué» a ver exactamente lo que ocurre. Es algo multidisciplinar que requiere tocar muchas teclas, pero sin una base de saber programar te limita mucho.
¿Qué tipo de herramientas se utilizan?
Hay muchas desarrolladas. Además, yo solo utilizo herramientas gratis, más que nada porque un investigador no se puede permitir pagar ninguna herramienta. Afortunadamente hay un repositorio que se llama GitHub, que es la maravilla de las maravillas donde hay todo tipo de cosas en las que no tienes que hacer nada. Lo único que tienes que hacer es ir y ver si alguien lo ha hecho, porque es tontería empezar de cero. Además coges ideas, ves cómo está… Te ayuda mucho a centrarte en lo que quieres hacer. En GitHub hay multitud de herramientas, la mayoría de ellas desarrolladas en R o en Python, que son dos lenguajes que más se usan para la ciencia de datos. Y luego tienes Spark-Overflow, que es un foro técnico donde la gente te cuenta sus problemas. Entonces, si te encuentras atascada y no sabes por dónde seguir, buscas allí y siempre encuentras no una, sino varias soluciones. Luego ahora está la Inteligencia Artificial, que te programa directamente. Yo eso lo he probado y, bueno… programa, pero si no sabes programar estás muy vendido, porque no te da la respuesta buena a la primera. Te da una respuesta, pruebas y dices «no, esto no funciona» y a la tercera a lo mejor te da una buena solución. Te ayuda, pero no es fiable en absoluto. Pero bueno, es una ayuda, sobre todo a veces, cuando no sabes por qué no te funciona una cosa, le das el código y te dice «pues mira: te falta esto o te falta lo otro». Es una ayuda, pero nunca va a suplir el conocimiento que tú tienes. Y luego hay otro tipo de herramientas, yo hago análisis de redes y hay herramientas como Gephi, que es una herramienta libre que te ayuda a analizar los grafos para ver cómo están relacionadas las personas. Es una herramienta muy buena, es un producto, porque muchas de estas herramientas son productos de doctorados. La gente hace una tesis (yo también), hace unas herramientas y las compartimos en GitHub. El conocimiento de todo tu aprendizaje en una tesis queda para los que vienen detrás. El creador hizo en 2008 o 2009 una tesis de cómo hacer un análisis de red de cierta manera con una herramienta que fuera muy fácil y que no necesitara programación, se la compraron y al final se hizo como un grupo de gente que la mantuviera porque ya había mucha gente que lo usaba y dejarla de aplique. Fue una decisión muy altruista que permitió que muchísima gente podamos acceder al análisis de redes. Entre herramientas que hacen cosas que no necesitas programar, que son gratis y luego cosas que alguien ha hecho, las ha dejado en un repositorio y tú puedes descargarlas y ejecutarlas en tu máquina, con eso pueden hacerse muchísimas cosas.
Que nos hayan quitado la API académica en Twitter ha sido una tragedia, nos ha limitado muchísimo nuestro trabajo. No podemos hacer lo que hacíamos antes
¿Ese trabajo en redes en qué consiste? Porque vemos esos análisis con grafos, las nubes interconectadas por un par de cuentas… ¿Cómo se hace ese trabajo?
El análisis de redes vale para redes sociales, vale para análisis molecular, vale para todo tipo de solución de problemas, en realidad. La red es que tienes unas entidades, que se llaman nodos; y unas relaciones que unen esos nodos. En el caso de Twitter lo que tenemos es que los nodos son los usuarios y los enlaces pueden ser quién sigue a quién o quién retuitea a quién. Con eso tú vas guardando datos y la herramienta con esos datos construye una matriz de conexión y te pinta con unos algoritmos en los que, cuando hay muchas conexiones entre dos nodos esos dos nodos se atraen, y cuando no las hay se repelen. Es un «algoritmo de fuerzas», que se llama. Lo que hace es juntar lo que es más parecido y separar lo más diferente. ¿Qué ocurre? Que el retweet en Twitter tiene un carácter de «voto positivo». Si yo retweeteo algo es porque me gusta. Entonces, si yo retweeteo mucho cierto tipo de cuentas, cuando haga el grafo, el grafo me va a juntar las cuentas que más se retweetean entre sí. Cuando hay, por ejemplo, una polémica entre derecha e izquierda, salen como dos bolas: una de derechas que se retweetearán entre sí y otra de izquierdas que se retweetearán entre sí; y luego algunos, los menos, que lo hacen con ambos bandos. Eso te permite, primero, ver la estructura de lo que se está hablando, por dónde se está difundiendo y con qué forma. Si es una forma de dos cámaras de eco separadas, o solamente una pero que tiene muchos grupos… Te da un poco la idea. Es una manera visual de poder ver cómo son las conexiones, y eso también te permite clasificar los tweets y ver cada grupo qué es lo que está hablando. Porque claro, en una conversación hay muchos tipos de mensajes, pero puedes ver que este grupo está hablando de esto y este de aquello, y hacer un análisis de discurso de una manera mucho más segmentada. El análisis de red es fundamental. Y, a veces, cuando hay una polémica puedes separar los que están a favor y los que están en contra sin analizar el contenido, simplemente porque los que están a favor se están retweeteando entre sí y los que están en contra se están retweeteando entre sí; de forma que, a veces, las relaciones nos definen más que los contenidos. Con quién nos relacionamos nos está definiendo en cómo estamos en esa red.
¿Puede servir esto para ver el origen de bulos y fake news?
Sí, sí. Una cosa que hago yo es análisis de bulos. Ahora, como Elon Musk nos está fastidiando muchos a los académicos y nos ha quitado la API académica pues tenemos menos posibilidades de hacer este análisis, porque ahora solo podemos ver y descargar información de los últimos diez días. Con lo cual, si es un bulo que tiene una vida más larga, pues no podemos verlo, pero si es uno reciente nos da tiempo. Con esto podemos ver cuál ha sido el origen de ese tweet y hay que cogerlo muy rápido, porque a veces alguien lanza un bulo y luego borra los tweets una vez que se ha reactivado, y entonces vemos quién ha lanzado ese bulo y quiénes lo han fomentado, es decir, qué usuarios con muchos seguidores lo han retweeteado de forma que le han dado mucha más visibilidad. Con eso se ve, no solo el origen, sino qué grupos de personas están favoreciendo que eso se difunda. Se ve además, por cómo están conectados, cómo ha podido saltar de un grupo a otro, porque a lo mejor nace en un grupo pero luego eso se difunde a un segundo grupo que es el que realmente le ha dado la visibilidad. Por eso puedes ver cuál es la técnica que se usa para difundir bulos o mensajes que no quieres que sean virales.
Para explicarlo fácilmente: ¿qué es una API?
Es una interfaz. Por ejemplo, cuando tú haces una consulta en la web de Twitter, tienes una casilla donde pones lo que quieres buscar y te salen los tweets que corresponden a esa consulta que has hecho. En la API es hacer lo mismo pero desde una máquina. En vez de entrar en un navegador web y poner la consulta, lo que ponemos una url con la propia consulta y Twitter nos los va a dar. En vez de dárnoslos bonitos en HTML, que tú ves en formato web cómo queda, en formato colocadito… te lo da en un formato llamado JSON, que es un formato que se utiliza para intercambio de información entre máquinas. En ese formato se puede analizar y sacar los datos para su posterior análisis. Es simplemente automatizar las consultas que hacemos en web a través de un programa para conseguir la información accesible y fácil de manejar. Es una comunicación entre máquinas. Que nos hayan quitado la API académica en Twitter ha sido una tragedia, nos ha limitado muchísimo nuestro trabajo. No podemos hacer lo que hacíamos antes. Antes decías: «¿y este qué ha dicho?» y le podíamos investigar hasta el origen de los tiempos, ahora ya no. Para análisis de perfiles falsos hemos perdido muchísimo.
Ahora estamos hablando de una red social, de una empresa privada, pero ¿hay algo parecido a nivel de datos públicos?
A nivel de datos públicos es muy lamentable, haya el gobierno que haya, sea del color que sea. La falta de transparencia es algo transversal a la política. En la pandemia, que ha habido una necesidad enorme de datos, los datos que daba el Gobierno eran en PDF, que es una verdadera vergüenza. Las comunidades los han distribuido unas mejor que otras. Había algunas que daban los datos en Excel; otras en TSV, que es texto plano separado por comas; e incluso alguna ha hecho una API igual que Twitter, es decir, que en vez de tener que descargar un fichero, yo le pregunto al servidor de datos de la entidad que me dé esos datos. Eso es súper cómodo, porque lo puedes automatizar, no tienes que ir bajando información a mano. La implementación de APIs para la Administración Pública es lo que debiera de ser. Habrá gente que le guste consumir los datos en Excel porque se maneja en ese programa, pero hay mucha gente que analiza datos de manera automática que lo que le interesa es que sea lo más automático posible, y eso es una API donde yo le pregunte al servidor de la Administración por unos datos y me da mis datitos en un formato accesible para que yo pueda procesarlos automáticamente. Esto está muy lejos de la realidad. Hace como siete u ocho años que surgió el boom de los portales de datos abiertos y se gastaron todo el dinero en hacer el portal, pero no había datos. Ha sido una verdadera estafa, una vergüenza y fatal. Lo de los datos en España es una vergüenza.
Hace diez años en una entrevista dijo que, a nivel estatal, le parecía buena la iniciativa datos.gob.es, pero que a nivel local no había despegado todavía. ¿La situación ha cambiado a nivel estatal? Y, si no había despegado entonces a nivel local, ¿sigue en esa situación?
Mi experiencia es, por ejemplo en la pandemia, han sido mucho más transparentes las comunidades autónomas que el Gobierno Central. Es un caso reciente donde se demuestra. Ha sido muy curioso y muy dispar. Hice un análisis para un congreso de cómo servían los datos unos y otros, y había disparidad total de modos y usos. Claro, las Autonomías eran las que recogían los datos y luego se servían al Central. Y como había retrasos porque no se añadían automáticamente, luego de repente se incorporaban cincuenta mil y quedaban todas las gráficas descolocadas con un pico enorme porque estaba fuera de tiempo… En datos centrales han sido muy malos y los datos de las Autonomías, algunas han sido muy buenas y otras muy malas. Ha habido variación, pero han superado, de media, la manera de servir los datos respecto al gobierno central.
Se gastaron todo el dinero en hacer el portal, pero no había datos. Ha sido una verdadera estafa, una vergüenza y fatal. Lo de los datos en España es una vergüenza
¿Se acuerda de cómo presentaron los datos en Castilla-La Mancha?
Es que yo estaba en un grupo en el que llevaba Andalucía. En Castilla-La Mancha no me acuerdo… Sé que hablaban muy bien muy bien de Castilla y León; de Euskadi al principio parecía muy bien, que daban mucho, pero era como falso porque lo importante no lo daban; Asturias tenía un portal muy interesante que lo hizo una persona que estudió estadística y la verdad que estaba muy bien… Castilla-La Mancha de las malas no era, no me suena de las malas. En Murcia era una cosa curiosa, porque los daban con un jpeg (una imagen) en Twitter, lo nunca visto, nos reíamos mucho. Pero vamos, no recuerdo exactamente Castilla-La Mancha en qué ránking estaba, pero no era de las peores.
¿Estos datos son accesibles para los ciudadanos?
No, para un ciudadano cualquiera no es fácil. Luego, además, la información no está clara. Entras en el portal y no tienes un enlace para los datos. Por ejemplo, las últimas elecciones. A mí me interesaba saber la abstención, por ver cómo había variado. Para encontrar el enlace donde estaban los datos de las abstenciones era entrar en tres sitios sin equivocarse, porque no estaban. Si los tienes, pon los datos globales y pinchando ahí que te lleve a los detallados. No, no, no, no. Los datos están de entrada colocados para que no se encuentren. Y luego, por ejemplo, yo estoy en un mapa de España pintado, maravilloso, con todas las abstenciones y los datos no estaban en formato JSON ni en TSV, tenías que cogerlos en HTML y pasarle un filtro. Y resulta que esos datos sí que los tienen, porque no podrían hacer el mapa si no tuvieran el JSON. Y luego hay gente muy lista que lo encuentra, porque tienes que navegar en la estructura de la aplicación, o sea, eso un ciudadano de a pie no puede hacerlo, y una vez que lo encuentran se lo chiva a todo el mundo. Porque lo que sí hay en el mundo de los datos es que la gente no se guarda las cosas para sí, cuando alguien encuentra algo lo comparte. Todos los demás vamos detrás y recogemos los frutos. Pero la información no es accesible para el ciudadano de a pie, la que le dan está en un PDF que ha estado elaborado sin que se le pueda ver el detalle, y si ves el detalle es una tabla llena de números que no te dice nada y te va a costar encontrarla. No es accesible.
Y, aunque fuese accesible, tampoco es accesible, ¿no es así?
Claro. No es entendible. Luego, por ejemplo también, en la pandemia tienes qué explicar cómo son los datos y cómo se procesa una recogida de datos, y qué datos son fiables y cuáles no son fiables. Por ejemplo: en los dos últimos días, como iba todo muy lento, no se incorporaban todos los datos, con lo cual si tú vas midiendo, había Autonomías que aportaban los datos antes y otras que después. Con lo cual, los datos eran malos porque no estaban todos, estaban parciales. Y lo que daban en la tele eran los datos de los tres últimos días. La tele, que tiene que divulgar e informar para toda España. Yo decía: «pero bueno ¿es que nadie puede explicar que esos datos no valen?». Que, aunque haya mucha prisa por conocerlos, no se pueden dar porque esos datos no valen. Y lo mismo ha ocurrido con las elecciones ahora, con la abstención. Decían que había habido un 71% de participación, que era muy alto, y tal. Mentira. Porque no habían contado el voto CERA (Censo Electoral de los Residentes Ausentes). Si lo cuentas, ha habido más abstención que en las pasadas elecciones. Y, lo que ha quedado en el imaginario de la gente, es que este año ha habido menos abstención, y es mentira. No sé si lo hacen deliberado o que quieren sustentar un relato, pero lo hacen con datos falsos.
Todo esto, ¿cómo se podría solucionar? ¿Esperando un poco?
Ya, pero por ejemplo, si tú quieres comparar la abstención de un año para otro, no puedes comparar la abstención con CERA que sin CERA. Si tú dijeras: «el año pasado, sin el voto CERA, hubo tal abstención y este año ha habido tal», estás comparando peras con peras. Si comparas con el CERA… porque hay muy poco y sube mucho la abstención, porque poca gente vota. Entonces tienes que comparar magnitudes que están medidas de manera similar, si lo haces de otra forma estás engañando. Hay gente que se dedica a analizar estas cosas que siempre lo advierten, pero nadie les hace caso. Al final, las voces de los que estamos analizando y buscando la verdad de los datos son voces muy pequeñas que nos conocen cuatro en las redes, pero luego lo que sale es lo que sale en el telediario. Y en el telediario… Yo no sé si el periodismo primero, que en el Gobierno la gente que maneja los datos debe estar en un sótano y no los dejan salir ni hablar con nadie, la gente que comunica lo hace mal, con información errónea, y llega a la televisión que hay periodistas que tampoco se preocupan de verificar lo que les están diciendo y lo retransmiten igual de mal. Es un círculo vicioso. Entonces es información anómala que sustenta relatos de una manera yo diría que hasta maliciosa. Pero ahí estamos, todos los años igual. Y todos los años se dice. Bueno, y cuando salió el ministro de Interior, pusieron una gráfica dando los resultados trucada. Que parecía que PSOE había sacado más votos que el PP y que Sumar había sacado más que VOX, porque hicieron una proyección moviendo ahí, con el 3D, haciendo filigranas, y visualmente tú te quedas con la imagen que el PSOE ha sacado más que el PP y que Sumar ha sacado más que VOX y eso no es cierto, pero ahí queda.
¿Qué puede hacer el periodismo local con los datos?
El periodismo local tendría que, primero, localizar a la gente que está haciendo análisis serios, con fiabilidad y ver lo que dicen. Porque, normalmente, cuando ocurre una cosa de estas salimos a decir «Esto no es así». La repercusión que tenemos es poca, pero si eso se valorara… El periodismo central no nos va a mirar nunca ni nos va a publicar ninguna de nuestras cosas, pero el local, que tiene más proximidad al ciudadano, puede alimentarse de esas personas siempre que tengan credibilidad. Hay que ver qué ha hecho esa persona, cómo lo ha hecho, cómo es de aceptada por el resto de la comunidad… Eso se puede ver, qué personas son más o menos fiables, porque también hay gente en datos que manipula. Ver y contrastar lo que ocurre. Es contrastar la información, no asumir que la información que te mandan de una administración es correcta, porque no siempre lo es.
No sé si lo hacen deliberado o que quieren sustentar un relato, pero lo hacen con datos falsos
¿El periodismo local de datos qué podría informar?
Hay muchos datos locales a los que la gente que analizamos no solemos entrar porque no sabemos la problemática. Lo bueno que tiene el periodismo local es que conoce la problemática muy de cerca. Ahora ya hay un montón de másters de periodismo de datos y gente que sabe hacerlo, y luego además están los informáticos. Pues un periódico local, aunque eso cueste dinero, podría coger datos que les interesen de ver qué ocurre con cierto tema y encargárselos a una persona especialista y poder informar con datos locales. Porque nadie lo va a hacer, a lo mejor, por desconocimiento de los problemas locales. Yo creo que ahora hay licenciados en comunicación con máster en periodismo de datos que saben hacer muchas y luego están personas que, a lo mejor no son periodistas pero que saben manejar los datos. No sé, algún acuerdo con la Universidad con algún proyecto de investigación de datos, con gente que pueda hacer un Trabajo de Fin de Grado… Yo creo que una colaboración Universidad-Prensa local podría ser buena.
Una persona que sabe que estos datos no son del todo fiables, porque sabe que los han cocinado como han querido y que no tiene los conocimientos para analizarlos como son, ¿qué puede hacer?
Decírselo a alguien que sí sepa para ver si los puede analizar. A mí me llegan muchas peticiones del oyente por la Universidad. «Oye, mira, ¿podrías mirar esto?» Si yo veo que es factible y puedo hacerlo, pues lo hago. Porque claro, nadie tiene la visión del mundo mundial de lo que está pasando. Si alguien ve o sospecha que un dato no es correcto puede acudir a alguien que sí sepa de estas cosas y preguntárselo.
¿Algo más por tu parte que te gustaría decir?
Que los datos abiertos sean abiertos, realmente abiertos, porque no lo son. Y que la transparencia, que es lo mejor para muchos gobiernos, que no se haga mucho paripé. Tenemos mucha falta de transparencia. Por ejemplo: toda la información de contratos con el estado. Hay gente que lo está analizando pero hay que coger los datos malamente, con scraping (extracción de datos). Nadie te va a dar esos datos. Todo lo que son licitación de la Administración o contratos… Todo tipo de información, porque al final toda esa información la aportamos los ciudadanos. Tendría que estar a nuestra disposición para analizarla, para el que tenga las capacidades de hacerlo. Y hacerla visible, no con PDFs, de manera racional con TSV o con APIs que permita hacerlo de manera automatizada, no a mano. Ahí queda muchísimo y lo triste es que no es una cosa de ser gobiernos de derechas o de izquierdas, no. A los gobiernos en sí no les gusta la transparencia porque pueden vislumbrar cosas que a lo mejor no son muy correctas. Entonces prefieren la opacidad.
Para terminar, aparte de @congosto, ¿qué otras tres cuentas seguir para que la gente esté informada?
Yo tengo una estrecha relación con Marcelino Madrigal y con Javier Barriluso porque estamos en un grupo en el que nos apoyamos mutuamente. Más o menos los tres hacemos lo mismo. Marcelino a lo mejor picotea mucho más y es al que le gusta abrir caminos. Se va a Youtube o a Telegram y te acerca datos de todos sitios. Más ahora que nos han cerrado lo de Twitter pues hay que buscar otra red. Barri es de Cuenca también, de Cañada de Mira, se va todos los fines de semana desde Valencia. Es una maravilla. Le he conocido personalmente después de muchos años en julio y es estupendo. Y por ejemplo Numeroteca es una cuenta maravillosa. Ha escrito una tesis excepcional analizando la corrupción durante 20 años y tiene cosas estupendas para leer. Además está publicando la tesis en modo hilo.