Técnicamente

Un blog en español sobre las tecnologías digitales y sus impactos sociales y políticos

Llevaba varios meses postergando este post, en parte por asuntos personales y laborales, pero sobre todo porque me parecía que tenía que analizar cada noticia sobre los desarrollos y las novedades de la inteligencia artificial y, mientras pensaba en alguno de estos, surgía uno nuevo y lo comenzaba a considerar. Pero, realmente, me di cuenta de que, a pesar de tantos anuncios y lanzamientos, mi conclusión sigue siendo la misma: el mercadeo alrededor de la inteligencia artificial sigue siendo más poderoso que la inteligencia artificial. O, como lo puso elegantemente Cory Doctorow: “la inteligencia artificial no va a hacer tu trabajo, pero su narrativa podría convencer a tu jefe de despedirte y reemplazarte con un bot que no puede hacer tu trabajo”.

Pero, ¿por qué tantos jefes son propensos a dejarse convencer? Primero, porque vivimos en un mundo capitalista en el que buena parte, si no la mayoría, de los jefes son juzgados según cuánto pueden maximizar las ganancias, y pagar una licencia de algún producto de inteligencia artificial es más barato que contratar a un humano. Y, segundo, porque muchos jefes no entienden (o, debido al punto anterior, prefieren no entender) cómo, realmente funciona la inteligencia artificial.

Sobre lo primero no hay mucho que pueda hacer desde acá. Pero sobre lo segundo por lo menos puedo intentar explicar un par de cosas. Y es justo lo que quiero hacer.

¿Qué es la inteligencia artificial?

Nadie lo sabe. No, en serio. No hay una definición universalmente aceptada de qué, exactamente, quiere decir “inteligencia artificial”. Wikipedia la define, simplemente, como “la inteligencia de las máquinas ... en oposición a la inteligencia de los seres vivos”. Pero, ¿qué es “inteligencia”? ¿Qué es una “máquina”? Incluso la pregunta “¿qué es 'un ser vivo'?” es bastante complicada (aunque también excede el foco de este post).

Algunos investigadores (y en particular los fundadores y desarrolladores de empresas y organizaciones que se dedican a estos temas, como OpenAI o DeepMind) hablan también de “inteligencia artificial general” (o IAG), que es:

  1. la capacidad de las máquinas de realizar varias tareas cognitivas mejor de lo que los humanos podrían hacerlo,
  2. a veces descrita como cuando las máquinas “se vuelven conscientes”,
  3. discutida extensamente como una amenaza existencial para la humanidad y,
  4. algo que nunca ha sucedido.

A veces, los medios que reportan sobre programas o aplicaciones de “inteligencia artificial” (e incluso los desarrolladores que trabajan en ellos) usan la definición (que, como ven, también es muy vaga) de la IAG para hablar de la IA en general. Los primeros quizás por desconocimiento, los segundos porque su propósito es llegar a la IAG (que, repito, no existe aún) y ven el estado actual de las cosas como, simplemente, un paso para llegar a esa meta.

Pero, entonces, ¿de qué hablamos cuando hablamos de “inteligencia artificial”?

Bienvenidos a la red (neuronal... y artificial)

Muchas cosas que funcionan a través del procesamiento de una gran cantidad de datos han sido llamadas “inteligencia artificial”. Estas cosas tratan estos datos a través de un algoritmo (que no es más que una serie de reglas para que opere una máquina) y entregan un resultado. Tanto los algoritmos de recomendación de redes sociales, como los algoritmos que usan empresas de taxi para encontrar un carro cercano, o los que usan páginas para recomendar qué más comprar o qué canción escuchar han sido considerados “inteligencia artificial” (y en algunos casos, el término “algoritmo” se ha usado como sinónimo de “inteligencia artificial”). Pero el poder de procesamiento de las máquinas actuales ha aumentado exponencialmente, así como la capacidad de capturar datos. Además, parece que nos hemos acostumbrado a los algoritmos descritos en este párrafo, así que ya no los llamamos “inteligencia artificial”.

Lo que últimamente llamamos “inteligencia artificial” (en particular desde el lanzamiento de ChatGPT en noviembre de 2022) son realmente aplicaciones de algo llamado redes neuronales artificiales. Estas redes son modelos computacionales que, a partir de una gran cantidad de datos y un proceso de prueba y error, “aprenden” algo nuevo.

Aquí, un paréntesis necesario: al hablar de inteligencia artificial se suelen usar muchas metáforas relacionadas a procesos mentales humanos. Es comprensible, así es como aprendemos y entendemos los humanos. Pero esto crea la situación desafortunada para quienes queremos explicar el tema (y afortunada para quienes quieren venderlo) de que, al parecer, le conferimos rasgos humanos a las máquinas. Lo que suena a que las máquinas han llegado a una inteligencia humana... o una inteligencia artificial general... lo que, de nuevo, no ha sucedido aún.

Por “aprender” lo que se quiere decir es que a estas redes se les entregan enormes cantidades de datos (millones y millones de datos, que pueden ser textos, imágenes, videos, etc.), se les programa una meta (por ejemplo, diferenciar caras de perros chihuaha de fotos de muffins con chips de chocolate) y, cada vez, a través de un entrenamiento, son más eficientes y efectivas en llegar a esa meta.

Aunque este proceso es llamado “machine learning” (“aprendizaje de máquinas”), estas máquinas no “aprenden” en el sentido humano de adquirir nuevo conocimiento. Estas redes no son conscientes ni saben qué es conocimiento. Lo que hacen es ajustar su algoritmos. Usualmente se ajustan gracias a la intervención de humanos (muchas veces con salarios miserables) que marcan si los resultados de los procesos se acercan o se alejan de la meta. Eso crea nuevos datos, que son tomados en cuenta en los nuevos procesos y, así, la máquina se acerca cada vez más a la meta. (En algunos casos se han desarrollado programas para que estas redes se entrenen a sí mismas pero, por ahora, los resultados no han sido los mejores).

Las “metas” pueden aplicarse a todo tipo de procesos, pero los procesos de los que se suele hablar cuando se habla, actualmente, de “inteligencia artificial”, son los llamados “generativos”: aquellos que crean algún tipo de contenido, como texto, audio, imágenes o video. Esta inteligencia artificial generativa es la que tiene al mundo en vilo, así que concentrémonos en ella de aquí en adelante.

Loros estocásticos

¿Qué es exactamente lo que genera una inteligencia artificial generativa? Como ya dije, los resultados pueden ser textos, imágenes, audios o videos. Pero, ¿cómo se llega a ellos y qué, realmente, es lo que estamos viendo cuando consumimos estos contenidos?

Las redes neuronales de las que parten los procesos de la inteligencia artificial generativa son llamadas también LLM (Large Language Models, o Grandes Modelos de Lenguaje), pues las primeras que fueron desarrolladas tomaron grandes cantidades de texto (lenguaje escrito) para su entrenamiento. Originalmente, las redes entrenadas con texto sólo podían generar texto, las redes entrenadas con audio sólo podían generar audio y así. Pero actualmente existen redes “multimodales” que pueden ser entrenadas con más de un formato y, asimismo, generar contenido en más de un formato.

Estos contenidos generados, entonces, son simplemente una imitación de los patrones que los algoritmos reconocieron dentro de los datos de su entrenamiento.

Si bien el cubrimiento de prensa y el mercadeo alrededor de la inteligencia artificial repite constantemente que programas como ChatGPT o Copilot “aprenden”, “entienden el texto”, o “dicen nuevas cosas”, esto no es más que un impulso antropomorfizante sobre un proceso algorítmico. Las IA no entienden el contenido que producen, al menos no en el mismo sentido que un humano, que puede ser consciente de las varias partes de los procesos cognitivos y puede dilucidar significados y significantes. Las IA simplemente están repitiendo patrones de sus datos de entrenamiento, como un loro que puede pronunciar palabras humanas, pero desconoce su significado.

Este, por lo menos, es el argumento de un artículo académico de Emily M. Bender, Timnit Gebru, Angelina McMillan-Major y Margaret Mitchell llamado, justamente “Stochastic Parrots” (“estocástico” hace referencia a variables aleatorias). Un argumento que, si bien ha sido muy polémico y les costó a dos de las autoras sus trabajos en Google, ha probado ser, bajo el estado actual de las cosas, correcto.

Todos los casos reportados en los que una compañía es demandada porque un chatbot creado con inteligencia artificial dio información incorrecta, o en los que alguien termina tomando una decisión catastrófica por confiar plenamente en una IA vienen de lo mismo: de creer que la IA sabe de qué está hablando.

En realidad, cuando se le pregunta a una IA algo, o se le pide crear una imagen, esta IA no va a dar un resultado correcto, pues no ha sido programada para esto. No sabe, ni tiene cómo saber cuál es la información correcta. La IA va a dar un resultado que repite los patrones con los que fue entrenada. Los datos de los que salieron esos patrones no necesariamente son correctos, ni son información particularmente útil. Es más, en algunos casos esta información está viciada y produce resultados igualmente viciados. Es el caso, por ejemplo, de muchas aplicaciones de IA usadas en sistemas judiciales que parten de datos recabados de sistemas inherentemente discriminatorios y, por lo tanto repiten y amplifican esas discriminaciones (mi colega Luisa Fernanda Gómez y yo resumimos este problema en un artículo para Chequeado en 2020).

Pero la mayoría de usuarios de estas aplicaciones parecen estar convencidos de que no sólo las IA sí saben de qué están hablando, sino además de que, por ser tecnología avanzada saben aún más que un humano. Así es que muchas de los contenidos generados por IA, que no tienen asidero en la realidad, son tomados casi como dogmas irrefutables.

Continuando con las metáforas humanas, el campo de IA ha denominado estos errores factuales como “alucinaciones”. De nuevo, las metáforas son necesarias para entender el problema. Pero también les han sido útiles a los promotores de la IA. Decir que una IA “alucina” crea la impresión de que es una entidad con comprensión, pero con algunos problemas de percepción que pueden ser corregidos, así como un humano que alucina puede recibir tratamiento. Pero, actualmente, lo cierto es que estos errores son parte fundamental de cómo funcionan las IA generativas pues, como ya expliqué, no tienen manera de saber qué información es correcta o incorrecta.

He hecho énfasis en que lo que describo es el estado actual de las cosas porque, como bien afirmarían los promotores de la IA, es posible que con mejor tecnología, mejores datos y mejores entrenamientos, todo esto cambie. Quizás algún día la IA sí pueda diferenciar entre información correcta e incorrecta. Quizás pueda, realmente entender los contenidos que produce. O puede ser que el “boom” de la IA sea otra promesa sin cumplir de las empresas de Big Tech, como lo fueron el metaverso o los NFT. No puedo saber qué sucederá porque no puedo predecir el futuro. Pero sí les puedo contar que el camino hacia una IA que realmente cumpla lo que promete está plagado de obstáculos.

La caja negra que consume todo

La versión original de ChatGPT disponible para el público fue entrenada con una serie de datos, recopilados de internet hasta septiembre de 2021 que, si bien era enorme, era limitada. La versión actual puede buscar datos en internet. Es decir que tiene acceso a, teóricamente, una serie infinita de datos. Muchas otras IA generativas han adoptado o prometen un acceso similar para mejorar sus procesos. Pero los problemas persisten.

Por una parte, internet está plagado de información incorrecta, así es que nada garantiza que este mayor acceso mejore la calidad de los contenidos generados.

Por otra parte, para procesar datos prácticamente infinitos se necesita una cantidad de energía prácticamente infinita en un mundo que, sabemos, tiene unas fuentes de energía, por ahora, finitas.

Además, esta serie casi infinita de datos ha sido usada sin permiso de sus creadores, lo que está creando discusiones complejas sobre derechos de autor y sobre derechos laborales.

Finalmente, entre más avanza esta tecnología, más complejos se vuelven sus procesos. No sólo es cierto que cada vez los contenidos generados son más sofisticados (a pesar de que el problema de su veracidad o corrección permanece), sino que cada vez son más inescrutables las maneras en las son generados.

Es decir, sabemos que el proceso va así: entran datos, se usan para el entrenamiento y se producen contenidos. Pero el espacio entre el segundo y el tercer paso es una suerte de caja negra, un misterio que ni siquiera el programador de una aplicación de IA podría explicar. Lo que nos está llevando a un mundo en el que cada vez más contenidos son no sólo poco confiables sino que además no tienen una trazabilidad o una cadena de responsabilidad clara.

Y, entonces, ¿qué tan asustados deberíamos estar?

El ímpetu por usar más IA generativa no está sólo en ahorrar dinero. Entre más avanza esta tecnología, más crea la impresión de ser muy compleja, una suerte de “súperinteligencia” que podría ayudar a los humanos a agilizar sus tareas o, incluso, a hacer tareas que no podríamos hacer por nuestra cuenta (una impresión que ha resultado muy exitosa así, por ahora, no sea del todo cierta).

Esta no sería la primera vez en la historia que algo así sucede, por supuesto. Los computadores más básicos podían calcular operaciones aritméticas a velocidades que ningún humano podría soñar. Pero en este caso los promotores de la IA prometen que esta tecnología podría reemplazar prácticamente todas las actividades humanas, algo que se ve aún muy lejano.

Así que no creo que, por ahora, nos deberíamos preocupar de que la IA vaya a revolucionar fundamentalmente cómo funciona el mundo. Pero sí nos deberíamos preocupar por las intenciones de los empresarios de tecnología que buscan avanzar con el proyecto de la IAG a cualquier costo, humano o ambiental. Nos deberíamos preocupar por lo efectivo que ha sido el mercadeo alrededor de la IA, que parece haber convencido al público en general de que es capaz de hacer algo de lo que no es capaz. Y, sobre todo, nos deberíamos preocupar ahora por lo que sí puede hacer muy bien la IA: engañar.

En la primera edición del boletín Clave de Búsqueda, que lanzamos con mi colega José Luis Peñarredonda para discutir preguntas sobre investigar la desinformación (y que, a diferencia de este blog, sí estoy escribiendo rutinariamente), contamos cómo la mayoría de personas no sabe diferenciar deepfakes de audio de audios reales. La IA ha abaratado el costo de crear todo tipo de contenidos, incluso contenidos engañosos y manipuladores. Y, si bien para ojos expertos los resultados son obviamente de baja calidad, para legos no hay diferencia. Así que creo que el mayor miedo que deberíamos tener, ahora, sobre la IA, es lo fácil que será utilizada para mentir.

Esto tampoco es nuevo. Un argumento similar se podría haber hecho sobre los blogs hace 20 años, o sobre las redes sociales hace 10. Pero cada una de estas cosas aceleraron y abarataron la creación de contenidos (engañosos o no) y cada vez es más difícil, para nuestras mentes humanas, adaptarnos a estos cambios.

Además, las tecnologías no son inherentemente buenas o malas. Así que espero que también se desarrollen aplicaciones de IA positivas para la humanidad. Pero más de esto, quizás, en otro post.

Por: Pablo Medina Uribe

A principios del año pasado, cuando Elon Musk estaba preparando su oferta para comprar Twitter, preguntó en esa misma plataforma si era necesaria una nueva plataforma para que funcionara como “la plaza pública de facto”. En privado, Jack Dorsey (entonces CEO de Twitter) le respondió que sí, pues, en su opinión, ese rol lo debería cumplir una plataforma que no sea una compañía, que no reciba sus ingresos de publicidad, que esté financiada por una fundación, que sea decentralizada y, entre otras, que sea de fuente abierta (hey, me suena conocido).

Musk, como ya sabemos, hizo caso omiso a esta recomendación y, desde que compró Twitter en octubre, se ha promocionado a sí mismo como el salvador de la libertad de expresión (y, por ende, la democracia) tanto en su plataforma como en el mundo. Pero no sólo las reformas de Musk a Twitter lo han alejado de esta promesa, la misma promesa es imposible de cumplir.

La idea de una “plaza pública” es la de un lugar donde ciudadanos interesados se pueden reunir a discutir los temas sobre su sociedad que los interesan o impactan. Un lugar desde el cual pueden surgir movimientos, decisiones, acciones que cambien las reglas y las maneras en las que nos relacionamos. Y la idea de muchos analistas de Twitter durante la última década es que esta plataforma era el espacio ideal para hacerlo, usualmente por dos razones: primero, porque las personas e instituciones con autoridad para tomar decisiones con impacto estaban en la plataforma (y existía la noción, no siempre cierta, de que atendían personalmente a sus cuentas); segundo, porque, si bien Twitter no eliminaba las jerarquías ni sus barreras, sí las reducía. Cualquier persona en cualquier parte con una cuenta de Twitter podía escribirle al presidente de su país y existía por lo menos una posibilidad de que su mensaje fuera visto o respondido.

Pero los cambios que ha hecho Musk en la plataforma han derrumbado todo esto. Su decisión de cobrar por el sello azul de verificación hizo que muchos de los dueños de las cuentas previamente verificadas sintieran que podrían ser fácilmente suplantados. Es más, el sello se volvió un símbolo de una sola cosa: de que el dueño de la cuenta le paga ocho dólares mensuales a Twitter (Musk cambia esta política todo el tiempo, lo que diluye aún más el valor simbólico del sello). Incluso, en algún momento el sello se volvió una marca de vergüenza. Por todo esto es razonable pensar que las cuentas de instituciones o personalidades en posiciones de poder se hayan ido o piensen irse pronto (así ciertos presidentes latinoamericanos sigan pensando que tuitear es sinónimo de gobernar).

Eso, a su vez, hace que los usuarios pierdan la confianza en que su voz pueda ser escuchada, o en que tengan la posibilidad de acceder a discusiones significativas. Un sentimiento que puede ser amplificado por la otra consecuencia de cobrar por los sellos azules. Algunos de los beneficios de suscribirse a Twitter son aparecer más arriba en las menciones a otros usuarios, ser beneficiado por el algoritmo de recomendación y aparecer en una pestaña especial sólo para sellos azules. Cuando Musk cambió el sistema de verificación, dijo que lo hacía porque quería abolir el sistema de “señores feudales y campesinos” (”lords and peasants”). Pero como todo lo que dice Musk, seguramente esto era mentira y el resultado fue que creó, por una necesidad financiera, un sistema en el que una clase de burgueses puede pagar para que su voz sea más relevante. Como si esto no fuera suficientemente evidente, cuando Twitter tuvo que limitar la cantidad de publicaciones que un usuario podía ver (probablemente debido a no haber pagado su cuenta de Google Cloud), los usuarios de “Twitter Blue” (es decir, los que pagan), tenían un límite de publicaciones más alto.

Ahora, Musk diría que nada de esto va en contra de la libertad de expresión pues, en su visión de “free speech absolutism”, lo importante no es el acceso equitativo a la plataforma, sino la posibilidad de decir cualquier cosa sin censura. Esto también es mentira, por supuesto. Musk ha censurado todo tipo de publicaciones, por razones que van desde el egotismo hasta lo político. Pero incluso si fuera honesto en esto, a Musk se le estaría desbaratando la metáfora de la plaza pública. Todas las sociedades tienen límites a la libertad de expresión, tanto legales como morales. En una plaza física no se puede decir cualquier cosa sin enfrentar consecuencias. La mayoría de ciudades no tolerarían una marcha a favor de la pedofilia. En Alemania es ilegal desplegar ciertas imágenes asociadas con el nazismo. Insultar a alguien en un café puede terminar en un puño (que no sería ilegal en todas partes). Esta parte de la discusión es mucho más larga, pero en resumen, la libertad de expresión no es sinónimo de poder decir cualquier cosa.

Claro, no puedo negar algo: Twitter sí se volvió un lugar donde se discutían asuntos democráticos importantes. La prueba principal de esto, me parece, es el debate que se creó cuando tanto Twitter como Meta decidieron suspender las cuentas de Donald Trump a principios de 2021.

Uno de los argumentos en contra de la suspensión fue que Trump, en tanto figura política relevante, usaba estas redes sociales como canales oficiales de comunicación y, por lo tanto, no era democrático negarle a un jugador importante de la política la posibilidad de comunicarse con sus seguidores. Este argumento nunca me convenció, por tres razones: primero, Trump tenía acceso a muchos canales realmente oficiales de comunicación mientras todavía era presidente y acceso a todos los medios masivos después de serlo. Es más, cuando creó su propia red, Truth Social, sus publicaciones eran constantemente republicadas en medios más grandes. Segundo, Trump había constantemente violado las políticas de uso de Twitter y Facebook, pero estaba recibiendo un trato especial por ser presidente. Eso me parece más peligroso, tanto para las redes sociales como para la democracia, que suspender su cuenta. Y, tercero, estas redes sociales son privadas y, si bien tienen que ajustarse a las leyes de los países donde operan, no tienen por qué ser vistas como entidades públicas.

En cualquier caso, el resultado no es que Twitter fuera una plaza pública que se cerró al debate con la suspensión de Trump. Al contrario, Trump veía a Twitter como una lista de difusión, una lista de cuyos servicios abusó. Muy lejos de un lugar de discusión democrática.

Aún quedan millones de usuarios en Twitter, varios de los cuales usan el servicio a diario. Pero si la confianza entre los usuarios y la compañía no estuviera tan rota, Meta quizás no se habría animado a lanzar un competidor, Threads, y probablemente su lanzamiento no habría sido tan exitoso. La gente quiere un servicio como Twitter, pero ya no cree que Twitter pueda cumplir esa función.

Pero, ¿de qué gente estamos hablando?

Twitter no puede ser la plaza pública digital porque su promesa fundamental (proveer un espacio para la discusión pública que pueda tener un impacto real) está rota. Pero además, Twitter nunca fue una plaza pública. Sí, se podrían poner aquí muchos ejemplos de discusiones que se movieron en Twitter que luego resultaron en cambio real, pero sería ingenuo pensar que estas fueron discusiones, verdaderamente, públicas.

Twitter es un lugar de élites. Pero no en el sentido que dice Musk. Hasta donde sé, no hay ningún país en el que Twitter sea la red social más usada. En Colombia, por ejemplo, según los datos más recientes sólo el 3% de usuarios de internet usan Twitter. Muy lejos de la red social más popular del país, Facebook, que usa el 25% de usuarios (y aún más lejos de WhatsApp, probablemente la cosa de internet más popular del país). En cambio, Twitter es una de las redes sociales más usadas por periodistas y políticos.

La preponderancia de personas que pueden moldear narrativas locales o nacionales crea la ilusión de que estamos ante discusiones verdaderamente públicas, de que la ciudad, la región o el país está completamente inmerso en lo que se habla. Pero este es un sesgo profesional. Uno en el que yo mismo he caído. Cuando comencé a dirigir Colombiacheck en 2018, uno de mis primeros focos fue darle fuerza a nuestra cuenta de Twitter, con el propósito de obtener legitimidad ante otros medios y ante políticos, para que así nos tuvieran en cuenta a la hora de hacerles preguntas. Esto funcionó en buena medida, el reconocimiento llegó. Pero al esforzarnos menos en otros canales, el resultado fue que, si bien sabían de nosotros en el Congreso, rara vez una persona que no trabajara todo el día en política nos reconocía. (Esto es algo que el equipo de Colombiacheck ha sabido aliviar muy bien, en mi opinión, a través de sus publicaciones en otras redes).

En cualquier caso, el resultado es que mientras que quienes éramos adictos a Twitter pensábamos que estábamos discutiendo el país allí, el grueso de la gente estaba en otra parte, pensando en otras cosas. Si alguna narrativa de Twitter se volvía tendencia nacional, esto solía ser resultado justamente de esta adicción. Algún periodista sacaba de proporción lo que allí se discutía, luego lo mencionaba en su medio masivo, donde alcanza a una audiencia mucho mayor, y luego otros medios lo replicaban. Digamos que era una manera fácil de encontrar tema.

Y esa no es la única razón por la que los periodistas nos obsesionamos tanto con Twitter. La principal, creo, es porque Twitter era una herramienta excelente para seguir, casi en directo, qué sucedía alrededor del mundo. Ningún medio de comunicación puede reunir la diversidad de personas publicando desde todas partes en un solo lugar como lo hacía Twitter. Pero, además, la velocidad con la que se puede publicar un tuit es inalcanzable para un medio que tiene que (o por lo menos debería) verificar, editar y montar sus artículos antes de publicarlos.

Lo que me lleva al último problema y es que era (y aún es, aunque Musk diga lo contrario) extremadamente fácil generar discusiones inorgánicas en Twitter. Como reportamos hace poco en CLIP, es muy barato pagar por posicionar tendencias. Pero, a la vez, es poco común que sus usuarios se den cuenta de que están siendo manipulados.

Estos últimos problemas, en mi opinión, se repetirán en cualquiera que sea el reemplazo de Twitter como el lugar donde se habla de política. Y se les sumará un problema adicional: no va a haber una sola red que reúna a todas esas personas importantes de Twitter. Estaremos ante un ecosistema fragmentado donde algunos encontraran su nicho en Mastodon, o Bluesky, o Threads, o Substack Notes, o...

Por eso no sólo no ha habido una plaza pública digital, nunca la habrá.

Por: Pablo Medina Uribe

Desde hace un buen tiempo tenía ganas de abrir algún espacio para escribir mis ideas sobre la tecnología que investigo en mi trabajo.

Desde 2018 trabajo cubriendo e investigando la desinformación: primero como editor del medio de fact-checking Colombiacheck, luego como investigador en Linterna Verde y actualmente como editor de investigaciones en el Centro Latinoamericano de Investigación Periodística (CLIP). Haciendo este trabajo he aprendido mucho (y me han surgido muchas preguntas) sobre cómo funcionan las redes sociales, las apps de mensajería y en general las tecnologías de comunicación entre las que se comparten los contenidos que a veces se califican como “desinformación” (qué significa exactamente esta etiqueta, también aprendí, es bastante difícil de definir, pero quizás eso sea un tema para otro post).

También me di cuenta de que, si bien estas herramientas de comunicación se usan, estudian y analizan en todo el mundo, la discusión sobre ellas está centrada en inglés, pues es el idioma de Estados Unidos, el país en el que están basadas las compañías más grandes dedicadas a estas tecnologías (como Meta, Twitter y Google). Así que quise abrir un espacio para discutir sobre estas plataformas (y otras tecnologías relacionadas) en español.

Por supuesto, un blog no va a cambiar el desbalance mundial que favorece al mundo anglosajón entre el sector de las tecnologías de la comunicación y aquí estaré referenciando constantemente los contextos políticos, legales y sociales de Estados Unidos (pues, repito, allí están basadas buena parte de las empresas de las que quiero hablar). Pero espero que el que exista un lugar en español para hablar de esto aporte en algo en tener discusiones que puedan ver más allá de ese país.

En cualquier caso, no planeo centrarme en la desinformación sino en los contextos e impactos sociopolíticos de estas tecnologías. No planeo hacer contenidos reporteados (eso lo hago ya en otros lugares, como mi trabajo), sino más bien escribir reflexiones (espero) bien documentadas que me surgen al investigar estas plataformas. Tampoco planeo cerrarme a escribir sólo de redes sociales, pero sí va a ser un comienzo para este blog.

El blog se llama “Técnicamente” no sólo por la razón obvia, sino porque hace poco alguien me hizo notar que esta es una muletilla que uso bastante seguido al hablar. Uno de los malos juegos de palabras que pueden esperar aquí.

Decidí abrir el blog en alguna plataforma del Fediverso, la red interconectada de servidores que cumplen varios roles diferentes de publicación de contenido, porque llevo un tiempo usando Mastodon y he estado muy fascinado con la interoperabilidad (más sobre esto pronto) de los varios servicios disponibles.

Este blog está en un servidor llamado NoBlogo, que es una “instancia” del servicio WriteFreely, usado, justamente, para publicar blogs. Escogí WriteFreely porque me gustó su diseño minimalista tanto para escribir, como para leer. Y me decidí por NoBlogo, que es una comunidad de blogueros italianos, porque me permitía crear hasta cinco blogs gratuitos (sólo tuve que pedir permiso para crearlos y escribir en español enviándoles un mensaje directo a través de Mastodon).

Sé que todo esto del Fediverso suena confuso, pero espero explicarlo mejor en un post futuro.

Por ahora, lo importante es que, si tienen alguna cuenta en el Fediverso, (Mastodon, PixelFed, Pleroma, etc.), pueden seguir las actualizaciones de este blog buscando al usuario pablo@noblogo.org, o poniendo la URL https://noblogo.org/pablo/ en la barra de búsquedas. Es más, pueden comentar este y los demás posts respondiéndole a ese usuario desde sus cuentas de Mastodon y demás.

También, si quieren, me pueden seguir (a mí, no a este blog) en mi cuenta de Mastodon, derpoltergeist@col.social.

No estaremos leyendo pronto.

Por: Pablo Medina Uribe