Técnicamente

Un blog en español sobre las tecnologías digitales y sus impactos sociales y políticos

He tenido muchas ideas para escribir en este blog, pero no lo he hecho, en parte por asuntos de mi vida, pero también en parte porque sentía que la mayoría de esas ideas necesitaban un prerrequisito, otra entrada a la cual enlazar, un lugar donde esté explícito y explicado que no se puede hablar del mundo de la tecnología contemporánea sin hablar de una manera muy específica de cómo fluye el dinero dentro de él.

Esta es esa entrada.

En una entrevista que le hicieron a Meredith Whittaker, la presidente de la Signal Foundation (encargada de Signal, una aplicación de mensajería segura), le preguntaron lo siguiente:

“¿Cuál crees que es una tecnología que esté overhyped?”

La mejor traducción en español para “overhyped” quizás sea “sobrevalorada”, pero en este caso no captura la esencia de la pregunta. En inglés, “hype” se refiere no sólo a la acción de valorar algo, sino a activamente ser su simpatizante y promotor, a ser su barrista, a ser el señor que sale antes de un espectáculo de comedia o un concierto de hip-hop para emocionar al público sobre lo que están a punto de ver. Es decir, el “hype” de algo no es una valoración objetiva, sino la emoción que suscita. Y que algo sea “overhyped” quiere decir que esa emoción por la cosa no se justifica por las posibilidades de dicha cosa.

Les digo esto, porque me parece que la respuesta de Whittaker, que se basa en esta idea, resume perfectamente el punto que quiero hacer en esta entrada:

El modelo de negocio del capital riesgo necesariamente tiene que entenderse como uno que necesita de hype ... El capital riesgo mira las valoraciones y el crecimiento, no necesariamente mira las ganancias. Así que no tienes que invertir en una tecnología que funcione, o siquiera que genere ganacias, simplemente tienes que tener una narrativa que sea lo suficientemente convincente para inflar esas valoraciones.

Así que ves cómo este ciclo repetitivo y extenuante de hype es una característica de esta industria ... No es simplemente que una tecnología esté overhyped, es que el hype es un ingrediente necesario para el ecosistema actual de la industria de la tecnología.

Whittaker dio esta respuesta a finales de 2023, es decir, antes de que el ciclo del hype por la inteligencia artificial se tomara todo el discurso sobre tecnología. Pero su análisis aplica tanto a este ciclo, como a varios anteriores (ella misma menciona el metaverso y el Web3, es decir las criptomonedas, en su respuesta) y aplicará para ciclos futuros.

Porque este es el asunto: El capital riesgo, que es un tipo particular de inversión del que ya hablaremos más, sostiene a prácticamente todos los grandes proyectos de tecnología. Los ciclos de este capital están moldeando a la tecnología que usamos, que a su vez está moldeando nuestras vidas.

Si han estado poniendo atención, quizás hayan sentido que los principales desarrollos tecnológicos recientes, o por lo menos los más presentes en la consciencia popular, no están ahí para mejorar nuestras vidas, sino para enriquecer a ciertas personas mientras que, en sus versiones más nocivas, nos vuelven adictos y alteran nuestros cerebros y nuestras relaciones con otras personas, con ideas e incluso con la realidad de maneras que ni siquiera nos habíamos imaginado.

Al mismo tiempo, estamos siendo constantemente bombardeados con publicidad sobre cómo estas mismas tecnologías serán revolucionarias, nos abrirán posibilidades nunca antes vistas (como rendir más en el trabajo, ja) y cambiarán radicalmente lo que significa ser humano.

¿Por qué? ¿Por qué vivimos en un mundo de tecnologías que tratan cada vez peor a sus usuarios, pero en el que a la vez hay un esfuerzo cada vez más grande por convencer a esos usuarios de que no pueden vivir sin esas tecnologías?

Por el hype.

Bueno, más precisamente, porque hay algunas personas que quieren hacerse millonarias con esas tecnologías y en esta industria es imposible hacerse millonario sin el hype.

Y este hype hace mover el ciclo del capital riesgo, que quiero explicar ahora.

Hay un concepto relacionado, el ciclo de Gartner (creado por Jackie Fenn de la firma Gartner), que busca describir el ciclo sobre la adopción de una nueva tecnología. Ese ciclo dice que, después de un pico de expectativas, todas las tecnologías se desinflan, hasta causar desilusión, para luego repuntar y establecerse en una planicie de productividad. es decir, que la tecnología es usada por quienes la encuentran útil y ya.

Pero no es ese ciclo del que quiero hablar, sino del ciclo del dinero de los inversionistas y de qué efectos cada parte del ciclo tiene en nuestras vidas. Voy a dividir ese ciclo en estas cuatro partes:

  1. Sin riesgo no hay ingreso
  2. En busca de la próxima cosa
  3. Relato mata dato
  4. ¿Es que mi plata no vale?

Sin riesgo no hay ingreso

Antes de cumplir el sueño de cualquier empresa de tecnología y volverse una multinacional con un presupuesto más grande que el de varios países combinados y con más poder que la ONU, una de estas empresas nace como una “startup”, un humilde emprendimiento.

Ya conocen la historia: uno o varios niños genios, se arman una oficina en un garaje y se equipan con nada más que un par de computadores, un sueño y millones de dólares en inversión. ¿Cómo consiguen esos dólares? Puede que los hereden, o que sus familias inviertan unos cuantos miles de dólares, sí. Pero lo importante es convencer a un fondo que invierta en capital riesgo (también llamado capital emprendedor, o en inglés venture capital) de que ponga plata en su negocio.

Hay fondos que se especializan en capital riesgo, que es justamente el dinero que va a estas empresas en etapa temprana, pero hay otros fondos que pueden hacer estos tipos de inversiones y también invertir en empresas más desarrolladas.

Pero el capital del que hablamos se llama “riesgo” porque, a diferencia de otras inversiones, este dinero va a muchos negocios con poca probabilidad de éxito, pero con la esperanza de que uno de ellos despegue de una manera tan espectacular que el retorno de esa inversión haga palidecer las pérdidas de las demás inversiones.

La inmensa mayoría de emprendimientos fracasa, como seguramente alguien está escribiendo en LinkedIn ahora mismo para darse ánimos. Y es lo mismo con los emprendimientos tecnológicos. Pero estos tienen una ventaja sobre otro tipo de emprendimientos: son fácilmente escalables. Es decir, el dinero que se necesita para pasar de atender a unos cuantos clientes/usuarios a miles o millones no es tanto. En vez de tener que invertir en más tiendas o más fábricas, se compran unos servidores y se contratan un par de ingenieros de sistemas, y listo. (Bueno, simplificando). Por eso, es más fácil convencerse de que invertir en algo así tiene sentido.

Claro que eso no es lo principal que buscan los fondos que invierten en capital riesgo. Lo que más quieren estos inversionistas es algo que revolucione la industria, algo completamente inaudito, algo que sea... ugh, disruptivo. Los inversionistas en estos casos quieren, como ya dije, que unas cuantas de sus inversiones revienten y no les importa si la mayoría no va a ningún lado. Pero sí quieren ser más eficientes en identificar cuáles son las que pueden reventar. Cuáles tienen un modelo de negocio o una tecnología o una combinación de ambas tan novedosa que hará que buena parte del planeta pague por su producto. En resumen: cuál es el nuevo iPhone. O, puesto de otra forma...

En busca de la próxima gran cosa

Tras el lanzamiento del iPhone en 2007, la economía mundial, en efecto, cambió. No sólo los teléfonos inteligentes se volvieron un bien tan común que más de la mitad de humanos en el planeta tiene uno, sino que además se creó una nueva economía alrededor de las aplicaciones a las que pueden acceder estos teléfonos y, eventualmente, de cosas relacionadas con esas aplicaciones, como redes sociales o influencers.

Pero qué es, exactamente, “la nueva gran cosa” es difícil de definir. Sobre todo porque es una apuesta a futuro. El iPhone, cuando salió al mercado, era evidentemente una nueva gran cosa que iba a cambiar el mercado. Pero antes de hacerlo requirió de una gran inversión en desarrollo (una inversión que, por cierto, Apple mismo hizo, poniendo en riesgo el futuro de su compañía si este nuevo producto no funcionaba).

Ahora la idea de un teléfono inteligente nos parece obvia, pero si el iPhone no hubiera sido exitoso, ¿tendríamos teléfonos inteligentes evolucionados del BlackBerry o de las agendas digitales personales? ¿A otra compañía se le habría ocurrido la idea? ¿Era una idea necesaria para la vida humana?

Quién sabe. El iPhone fue una apuesta a futuro que funcionó y eso, en esencia, es lo que “la próxima gran cosa” es: una apuesta a futuro que funcione. ¿Pero cómo hace uno para saber qué va a funcionar? Los humanos vivimos más o menos bien durante milenios sin siquiera el concepto de teléfonos inteligentes. ¿Cómo podemos prever cuál será la próxima cosa que se volverá prácticamente esencial?

No podemos.

Relato mata dato

Y por eso una de las principales tareas de los CEO de compañías tecnológicas es dominar el arte de la narrativa: convencer a los inversionistas de que su cosa, esa cosa ahí que armaron en el garaje, es realmente la próxima cosa y que ellos, con sus bolsillos metafóricamente llenos de dinero, pueden tener el privilegio en ser uno de los primeros inversionistas en esta cosa que será el más reciente cambio de paradigma global.

Es aquí donde entra el hype.

Uber iba a cambiar el mundo. El metaverso iba a cambiar el mundo. La inteligencia artificial va a cambiar el mundo. Son sólo tres ejemplos de una tendencia mucho más grande, pero nos sirven para ilustrar el punto.

Uber prometía revolucionar todo el transporte terrestre en todo el mundo. Y vendió tan bien la idea que operó a pérdidas hasta (dicen ellos) 2023. ¿Cómo lo hizo? Mintiend... Eh, dominando la narrativa, creando hype.

Uber comenzó con la promesa de que algún día tendría tantos usuarios que así lograría tener ganancias. Pero también comenzó subsidiando el precio que pagaban sus usuarios y el dinero que recibían sus conductores con dinero de sus inversionistas. Esto, por supuesto, es insostenible. Entre más usuarios tuviera Uber, más dinero perdería. Pero así lograron operar por una década. Porque, a pesar de sus pérdidas constantes, lograron contar el cuento.

Primero dijeron que su servicio era tan conveniente que algún día reemplazaría el transporte público (falso). Unos años después, dijeron que sus costos se reducirían cuando por fin pudieran desplegar su flota de carros autónomos (improbable, los carros autónomos siguen siendo muy peligrosos). Finalmente dijeron que habían conseguido tener ganancias (y quizás sí lo lograron, pero lo hicieron mintiéndoles a sus usuarios y a sus conductores sobre sus precios).

Pero en medio de todo esto, inversionistas siguieron dándole dinero a Uber y su valuación en la bolsa, en general, aumentó. ¿Por qué? Porque nadie quiere quedarse por fuera de la próxima cosa y, simplificando un poco los mercados, cuando un inversionista ve que hay dinero fluyendo hacia una parte, piensa “no me quiero quedar atrás” y no se queda atrás e invierte también.

Esto hace que la valoración de una compañía (es decir, cuánto creen otras personas que vale) despegue, a veces astronómicamente. Pero detrás de esa valoración no hay necesariamente dinero o bienes listos para cubrir el valor, sino una serie de personas que creen en promesas a futuro que quizás se cumplirán.

Uber aún está aquí y sí que ha cambiado cosas. La idea de pedir un taxi (sea Uber o no) a través de un celular inteligente es parte de la rutina diaria de mucha gente. Y quizás algunos inversionistas sí hayan recibido ya sus retornos. Pero para llegar hasta aquí, Uber primero quemó billones de dólares y mintió durante todo el proceso. ¿Fue esa una próxima gran cosa?

El metaverso prometía cambiar cómo interactuábamos entre humanos. Desde el video de lanzamiento, por lo menos a mí, me quedó claro lo ridícula de esta promesa: el metaverso prometía revolucionar cómo los humanos interactuábamos en el trabajo, el lugar menos interesante de nuestras vidas. ¿Quién se querría apuntar voluntariamente a eso? ¿Quién haría cambios en su rutina para complicar aún más el proceso de trabajar?

Nadie, por supuesto, como demostró el futuro. Pero antes de saber la respuesta, miles de millones de dólares fluyeron hacia Facebook, el principal proponente de esta tecnología (que incluso se rebautizó como Meta, como signo de su compromiso con esta próxima gran cosa), cuyas acciones subieron por un tiempo. ¿Y por qué? En parte porque el dinero de los inversionistas fluye hacia donde va el dinero de otros inversionistas. Pero también en parte porque este proyecto estaba liderado por uno de esos niños genios que comenzaron en un garaje (bueno, en un dormitorio en la Universidad de Harvard): Mark Zuckerberg.

Como CEO de Facebook, digo, Meta, Zuckerberg tiene influencia porque tiene mucho dinero (y el dinero atrae más dinero) ytambién porque es visto como una de las pocas personas que ya dio con una próxima cosa: su red social. Facebook es la red social con más usuarios en todo el mundo y su éxito temprano pavimentó el camino para todas las redes sociales que existen ahora. Pero no sólo eso, a diferencia de Twitter, su principal competidor en algún momento, Facebook descubrió cómo hacer toneladas de dinero (robando los datos de sus usuarios y vendiendo publicidad en cada esquina posible).

Esto le daba a Zuckerberg la posibilidad de crear una narrativa con mucha facilidad: “soy un niño genio de la tecnología. Escuchen hacia donde estoy yendo e inviertan ahí o arriésguense a quedarse rezagados”. Él, por supuesto, no es el único. Elon Musk, por ejemplo, ha hecho carrera arruinando empresas, o dejando que otros las saquen a flote, pero construyendo la narrativa de que él es el niño genio, detrás de todos los éxitos, a quien hay que seguir.

Esta narrativa de los niños genios... perdón, de los genios tecnológicos es tan fuerte que, a pesar del colapso monumental del metaverso, que terminó en miles de despidos en la compañía, los inversionistas le siguen creyendo a Zuckerberg, que ahora se dedica a ser evangelista de la inteligencia artificial, y las acciones de Meta vienen aumentando desde 2023.

¿Fue el metaverso la próxima cosa? Jaja, no. Pero Mark sigue buscando, quizás la encuentre.

¿Quizás lo sea la inteligencia artificial? La inteligencia artificial hace promesas como ninguna tecnología ha hecho antes: no sólo va a cambiar cómo interactuamos, sino cómo percibimos la realidad e, incluso, cuál es nuestra posición como seres en este universo. ¿Las cumplirá? No lo sé.

Lo importante para esta entrada es pensar por qué se hacen estas promesas y de dónde vienen.

Un informe reciente del Deutsche Bank advierte que la economía estadounidense ha evitado una recesión debido al boom de la inteligencia artificial. Pero la tecnología en sí misma no ha generado ganancias. Las grandes compañías de esta próxima cosa operan a pérdidas multimillonarias. Lo que mantiene a flote la economía estadounidense es la construcción de infraestructura: centros de datos donde se alojan servidores especiales que hacen que la IA funcione [en CLIP publicamos hace poco sobre el daño ambiental y económico de los centros de datos en América Latina]. Y lo que permite el funcionamiento de estos servidores son chips especiales, la mayoría de ellos producidos por Nvidia.

Los inversionistas que buscan la próxima gran cosa creen, por ahora, que esta está o en las compañías de inteligencia artificial, o en los centros de datos, o en los chips que permiten todo esto, o en las tres a la vez . Pero, por ahora, aunque algunas aplicaciones de esta tecnología parecen estar aquí para quedarse, las compañías detrás de ellas no tienen un camino claro hacia cómo comenzar a generar ganancias. Y es por esto que varios bancos, analistas y etcétera han advertido de la posibilidad de una burbuja (que está pronta a reventar).

Pero en estos casos la realidad de las finanzas no importa tanto como la narrativa, como ha quedado más que claro con la IA y sus proponentes.

Sam Altman, líder de OpenAI y otro niño genio, dice que la inteligencia artificial no sólo es inevitable, sino que pronto será una súperinteligencia que superará a los humanos. Marc Andreessen (uno de los principales inversionistas que persigue la próxima cosa) dice constantemente que la inteligencia artificial es, o por lo menos será, capaz de hacer cualquier cosa mejor que los humanos. No hay prueba de que esto sea verdad, pero como ya vimos, no es necesario que sea verdad. Lo único necesario es que genere hype.

Aplicativos de IA “mienten” constantemente, causando líos en colegios, universidades y cortes alrededor del mundo, pues es una tecnología incapaz de discernir que es verdadero. Pero al mismo tiempo la publicidad (a veces disfrazada de artículos de prensa hechos por periodistas que no entienden muy bien de lo que hablan) sobre estos aplicativos nos dicen que estamos ante una suprainteligencia, un ente, casi un ser, más poderoso que la humanidad misma.

¿Por qué?

Porque en algún momento hay que recoger la inversión.

¿Es que mi plata no vale?

Uber pudo aguantar más de una década desangrando a sus inversionistas. Pero en algún momento tenía que pagar. Como ya les conté, su estrategia fue defraudar a sus usuarios para poder conseguir el dinero. Pero esa no es la única.

Meta le hizo perder mucha plata a muchas personas con el metaverso. Pero en vez de dejar ahí, comenzó a perseguir una nueva inversión. No es simplemente que Meta sea como el tío ese de cada familia que todavía vive con la abuela y tiene un negocio nuevo cada vez que esta vez sí le va a reventar.

Meta les tiene que responder a sus accionistas e inversionistas y a estos no les gusta que las acciones de una compañía se queden estancadas. Meta es una de las empresas más ricas del planeta y uno pensaría que con eso podría quedar satisfecha. Pero la presión, en el mundo financiero en el que vivimos, es siempre crecer, sin freno, infinitamente. O si no, algo va mal. ¿Y cuál es una de las mejores maneras de ver que el numerito en la pantalla suba? Así es, perseguir una nueva gran cosa.

Esa nueva gran cosa, por ahora es la inteligencia artificial. Pero, como mencioné arriba, un buen porcentaje de la economía estadounidense está invertida en esta promesa a futuro. Por eso, mucha gente necesita, desesperadamente, que se cumplan promesas que aún no es claro que se vayan a cumplir. De ahí el bombardeo mediático sobre este tema. No sólo hay que convencer a usuarios de que esta tecnología es inevitable, también a gobiernos a reguladores y a bancos. El dinero tiene que seguir fluyendo y tiene que salir de alguna parte... Hasta que quizás llegue el día en el que no fluya más y pasaremos a la siguiente gran cosa.

Mientras tanto, sigue creciendo la brecha entre lo que este ciclo financia y lo que la sociedad realmente necesita. O, como lo pone Whittaker en su entrevista: “tenemos que examinar qué tan común es que el incentivo financiero para este hype es premiado sin tener ningún tipo de beneficio social real, sin progreso verdadero en la tecnología, sin que estas herramientas y servicios realmente comiencen a existir. Eso es clave para entender el creciente cisma entre la narrativa de los tecnooptimistas y la realidad de nuestro mundo sobrecargado de tecnología”.

Por: Pablo Medina Uribe

A Sócrates no le convencía eso de escribir. Su argumento principal era que, al tener las ideas siempre a la mano en un dispositivo externo a la mente humana, esto atrofiaría nuestra memoria: ya no haríamos un esfuerzo por recordar largos poemas épicos, o largas listas de hechos científicos. Pero tampoco haríamos un esfuerzo por recordar nuestros propios argumentos sobre disquisiciones varias. Todo estaría por ahí, en papel o en piedra, listo para consultarse cuando se nos diera la gana.

Esto, habría dicho Sócrates, nos daría una “simulación” del conocimiento, en vez de permitirnos acceder a un “verdadero” conocimiento de las cosas. Por supuesto, yo sólo sé de esto porque uno de los discípulos de Sócrates, un tal Platón, escribió en su Fedro acerca de lo que su maestro pensaba de la escritura.

A pesar de las críticas de Sócrates, la escritura triunfó como tecnología: casi todas las sociedades del planeta la han adoptado y buena parte de nuestro conocimiento, nuestras comunicaciones y nuestra vida en general está basada en esta invención.

Esta victoria, a pesar de las críticas de “tradicionalistas” como Sócrates, ha sido puesta en paralelo con el estado de las cosas con la inteligencia artificial: una nueva tecnología que tiene muchos críticos, pero que eventualmente se impondrá y cambiará nuestra manera de vivir por completo.

Yo mismo, en otras conversaciones sobre otras cosas, he recurrido a esta historia de Sócrates con la escritura. Recuerdo en algún taller dictado hace muchos años haber dicho que las redes sociales (con todas las críticas que merecían y aún merecen) se impondrían como tecnología, cambiarían nuestra manera de vivir (y sí, estoy citando esto no como un buen ejemplo, sino como un ejemplo de que uno puede usar este argumento para cualquier innovación). Así como las críticas de Sócrates no pudieron parar el éxito de la escritura, nosotros no podríamos parar el auge de las redes sociales.

Pero Sócrates tuvo razón en algo: la escritura sí atrofió nuestra memoria. No la de todos, por supuesto, pero sin duda relegó el acto de recordar a un segundo plano, tanto individualmente (alguien con memoria eidética, o con el conocimiento oral de su pueblo es impresionante, pero no es tan respetado como antes), como colectivamente (después de milenios de escritura, cada vez hay menos personas por ahí recitando La Ilíada y cada vez son menos las sociedades en las que importa la tradición oral).

Pero, a cambio, la escritura nos abrió la posibilidad de conocer mucho más allá de lo que puede guardar una memoria humana individual. Los grandes avances de la ciencia, la filosofía, o la literatura (occidentales y orientales, del sur y del norte), no habrían sido posibles sin la escritura, sin la posibilidad de intercambiar ideas a lo largo de países, continentes y siglos.

Un discípulo de Platón, Aristóteles, a veces es descrito como una de las últimas personas que sabían todo lo que había por saber. No porque estuviera al tanto de todo el conocimiento en general, sino porque en su época la escritura aún no era tan popular y la cantidad de conocimiento a la que podía potencialmente tener acceso un individuo seguía siendo muy limitada. Quizás conociera todo lo que había que conocer en su mundo, pero ese mundo era bastante pequeño. Probablemente ignoraba conocimientos de China, o América, pero no podía saber que los ignoraba.

Eso es imposible de sostener ahora. Ninguna persona por sí sola puede tener en su cabeza todo el conocimiento humano. Pero sí tiene acceso, potencialmente, a todo este conocimiento, en internet, en libros, incluso en ChatGPT. Cada formato con sus errores y sesgos.

Por su parte, las redes sociales (en un sentido amplio que incluye foros y blogs) atrofiaron nuestro sentido de habitar una realidad común. Pero a cambio nos dieron la posibilidad de cambiar las dinámicas del poder de la información. Ahora “cualquiera” (en el sentido de Ratatouille) puede hacer escuchar su voz, no sólo los guardianes de la información a los que hemos estado acostumbrados. Esto tiene sus cosas buenas y malas, pero sin duda ha cambiado cómo vivimos e interactuamos.

Una de las críticas que se le suele hacer a la inteligencia artificial generativa (que como conté en otro post, es una sección muy específica de la IA) y que yo mismo hago, es que va a atrofiar nuestra capacidad de hacer y pensar cosas críticamente. Si decides programar usando sólo un chatbot (una práctica llamada “vibe coding” en inglés), vas a delegar constantemente no sólo el trabajo, sino la capacidad de aprender cómo hacerlo. Nunca vas a aprender a programar bien. Ni siquiera vas a saber cómo corregir los errores que salgan de ese vibe coding, porque no vas a saber identificarlos. Lo mismo puede pasar con cualquier actividad humana que se le delegue a una inteligencia artificial: escribir, componer o tocar música, pensar en argumentos, lo que sea.

Emily Bender, una de las autoras del famoso artículo académico “On the Dangers of Stochastic Parrots”, que argumenta que las inteligencias artificiales generativas son sólo máquinas que reproducen patrones (y por lo tanto no “entienden” lo que escriben, ni “tienen consciencia”) planteó en estos días en su blog que esto, delegar el aprendizaje de habilidades, es un costo de oportunidad. Es decir que, al hacerlo, se pierde la alternativa, que en este caso es poder hacer cosas nosotros mismos (incluso cosas mundanas e insulsas como enviar un correo electrónico laboral).

Por supuesto, muchos de todas maneras la usan y la seguirán usando para realizar actividades que quizás no les son tan importantes. No podemos negar que la inteligencia artificial esté aquí para quedarse. El asunto es cómo va a quedarse. A diferencia de la escritura, no es claro cuál es el beneficio concreto que pueda traernos la inteligencia artificial para que se justifique su eventual omnipresencia (y el atrofiamiento que ella implica). Si absolutamente todos adoptáramos su uso en todas las áreas de la vida, pronto nadie tendría habilidades. Es más, sólo podríamos acceder a habilidades pagando el precio de suscripción (que inevitablemente será aumentado por las compañías de IA que en estos momentos están operando a pérdidas para fidelizar a sus clientes).

El vibe coding funciona porque hay gente que sabe programar. Un programador que sabe lo que hace puede pedirle a una IA que le haga un código y luego puede revisar y corregir sus inevitables* errores. O puede corregir los errores de las personas que no saben programar pero usaron un chatbot para escribir código. De hecho hay toda una industria de programadores dedicados a hacer estos arreglos. Muchas empresas de software ahora no están contratando a programadores junior, con la idea de que alguien puede producir código à la vibe coding y luego un programador más experto lo puede corregir. ¿Pero qué van a hacer cuando esos programadores expertos se retiren y las empresas pierdan esas habilidades? Por ahora, muchas confían en las promesas de mejoría de la industria de la inteligencia artificial*.

Pero yo postulo que este, como todos los sectores, eventualmente se dará cuenta que tener habilidades humanas es mucho más valioso. De hecho muchas ya se han dado cuenta. Y las personas se darán cuenta también: incluso si la industria de la inteligencia artificial no está en una burbuja y si sí se apodera de todas nuestras vidas, las personas nos daremos cuenta de que obtener habilidades es mucho más valioso de delegárselas a una máquina.

Ya que escribo como trabajo, muchas veces me han preguntado si no creo que seré reemplazado por una inteligencia artificial. Yo creo que no. Aunque seguramente muchas personas usarán estas herramientas para escribir cosas, consideren lo que pasaría si todo el texto del mundo fuera creado por IA: los modelos de lenguaje en los que están basados estas herramientas simplemente regurgitarían infinitamente otros textos, si bien coherentes, de baja calidad y de dudosa verosimilitud ya regurgitados por otra inteligencia artificial. Eventualmente habría un mercado para algún humano que entrara, cuando menos, a revisar, a editar, a hacer algo con el texto. A escribir.

La escritura fue revolucionaria, por todas las razones ya mencionadas; pero la inteligencia artificial parece cada vez más ser una “tecnología normal”, como lo plantean en un artículo académico Arvind Narayanan y Sayash Kapoor. Una tecnología que transformará muchas cosas, pero que no es tan utópica como la pintan sus mercaderes, ni tan distópica como dicen sus más fuertes críticos. Sino una tecnología más, que tendrá sus usos y aplicaciones, sus consecuencias y efectos, pero no cambiará a toda la sociedad de pies a cabeza.

En su blog, Bender también argumenta que aún podemos, como sociedad, influenciar el impacto que pueda tener la inteligencia artificial en nuestras vidas. La escritura es sencilla y, ya inventada, es prácticamente inevitable (como cuenta el escritor de ciencia ficción Ted Chiang en un cuento sobre la escritura y la memoria). La inteligencia artificial es muy compleja y aún no nos ha demostrado que se justifique para ser inevitable y que sus críticos quedemos como Sócrates.

*La industria de la inteligencia artificial argumenta que su producto mejorará tanto que los errores sí llegarán a ser evitables. A mí no me convence ese argumento.

Por: Pablo Medina Uribe

Llevaba varios meses postergando este post, en parte por asuntos personales y laborales, pero sobre todo porque me parecía que tenía que analizar cada noticia sobre los desarrollos y las novedades de la inteligencia artificial y, mientras pensaba en alguno de estos, surgía uno nuevo y lo comenzaba a considerar. Pero, realmente, me di cuenta de que, a pesar de tantos anuncios y lanzamientos, mi conclusión sigue siendo la misma: el mercadeo alrededor de la inteligencia artificial sigue siendo más poderoso que la inteligencia artificial. O, como lo puso elegantemente Cory Doctorow: “la inteligencia artificial no va a hacer tu trabajo, pero su narrativa podría convencer a tu jefe de despedirte y reemplazarte con un bot que no puede hacer tu trabajo”.

Pero, ¿por qué tantos jefes son propensos a dejarse convencer? Primero, porque vivimos en un mundo capitalista en el que buena parte, si no la mayoría, de los jefes son juzgados según cuánto pueden maximizar las ganancias, y pagar una licencia de algún producto de inteligencia artificial es más barato que contratar a un humano. Y, segundo, porque muchos jefes no entienden (o, debido al punto anterior, prefieren no entender) cómo, realmente funciona la inteligencia artificial.

Sobre lo primero no hay mucho que pueda hacer desde acá. Pero sobre lo segundo por lo menos puedo intentar explicar un par de cosas. Y es justo lo que quiero hacer.

¿Qué es la inteligencia artificial?

Nadie lo sabe. No, en serio. No hay una definición universalmente aceptada de qué, exactamente, quiere decir “inteligencia artificial”. Wikipedia la define, simplemente, como “la inteligencia de las máquinas ... en oposición a la inteligencia de los seres vivos”. Pero, ¿qué es “inteligencia”? ¿Qué es una “máquina”? Incluso la pregunta “¿qué es 'un ser vivo'?” es bastante complicada (aunque también excede el foco de este post).

Algunos investigadores (y en particular los fundadores y desarrolladores de empresas y organizaciones que se dedican a estos temas, como OpenAI o DeepMind) hablan también de “inteligencia artificial general” (o IAG), que es:

  1. la capacidad de las máquinas de realizar varias tareas cognitivas mejor de lo que los humanos podrían hacerlo,
  2. a veces descrita como cuando las máquinas “se vuelven conscientes”,
  3. discutida extensamente como una amenaza existencial para la humanidad y,
  4. algo que nunca ha sucedido.

A veces, los medios que reportan sobre programas o aplicaciones de “inteligencia artificial” (e incluso los desarrolladores que trabajan en ellos) usan la definición (que, como ven, también es muy vaga) de la IAG para hablar de la IA en general. Los primeros quizás por desconocimiento, los segundos porque su propósito es llegar a la IAG (que, repito, no existe aún) y ven el estado actual de las cosas como, simplemente, un paso para llegar a esa meta.

Pero, entonces, ¿de qué hablamos cuando hablamos de “inteligencia artificial”?

Bienvenidos a la red (neuronal... y artificial)

Muchas cosas que funcionan a través del procesamiento de una gran cantidad de datos han sido llamadas “inteligencia artificial”. Estas cosas tratan estos datos a través de un algoritmo (que no es más que una serie de reglas para que opere una máquina) y entregan un resultado. Tanto los algoritmos de recomendación de redes sociales, como los algoritmos que usan empresas de taxi para encontrar un carro cercano, o los que usan páginas para recomendar qué más comprar o qué canción escuchar han sido considerados “inteligencia artificial” (y en algunos casos, el término “algoritmo” se ha usado como sinónimo de “inteligencia artificial”). Pero el poder de procesamiento de las máquinas actuales ha aumentado exponencialmente, así como la capacidad de capturar datos. Además, parece que nos hemos acostumbrado a los algoritmos descritos en este párrafo, así que ya no los llamamos “inteligencia artificial”.

Lo que últimamente llamamos “inteligencia artificial” (en particular desde el lanzamiento de ChatGPT en noviembre de 2022) son realmente aplicaciones de algo llamado redes neuronales artificiales. Estas redes son modelos computacionales que, a partir de una gran cantidad de datos y un proceso de prueba y error, “aprenden” algo nuevo.

Aquí, un paréntesis necesario: al hablar de inteligencia artificial se suelen usar muchas metáforas relacionadas a procesos mentales humanos. Es comprensible, así es como aprendemos y entendemos los humanos. Pero esto crea la situación desafortunada para quienes queremos explicar el tema (y afortunada para quienes quieren venderlo) de que, al parecer, le conferimos rasgos humanos a las máquinas. Lo que suena a que las máquinas han llegado a una inteligencia humana... o una inteligencia artificial general... lo que, de nuevo, no ha sucedido aún.

Por “aprender” lo que se quiere decir es que a estas redes se les entregan enormes cantidades de datos (millones y millones de datos, que pueden ser textos, imágenes, videos, etc.), se les programa una meta (por ejemplo, diferenciar caras de perros chihuaha de fotos de muffins con chips de chocolate) y, cada vez, a través de un entrenamiento, son más eficientes y efectivas en llegar a esa meta.

Aunque este proceso es llamado “machine learning” (“aprendizaje de máquinas”), estas máquinas no “aprenden” en el sentido humano de adquirir nuevo conocimiento. Estas redes no son conscientes ni saben qué es conocimiento. Lo que hacen es ajustar su algoritmos. Usualmente se ajustan gracias a la intervención de humanos (muchas veces con salarios miserables) que marcan si los resultados de los procesos se acercan o se alejan de la meta. Eso crea nuevos datos, que son tomados en cuenta en los nuevos procesos y, así, la máquina se acerca cada vez más a la meta. (En algunos casos se han desarrollado programas para que estas redes se entrenen a sí mismas pero, por ahora, los resultados no han sido los mejores).

Las “metas” pueden aplicarse a todo tipo de procesos, pero los procesos de los que se suele hablar cuando se habla, actualmente, de “inteligencia artificial”, son los llamados “generativos”: aquellos que crean algún tipo de contenido, como texto, audio, imágenes o video. Esta inteligencia artificial generativa es la que tiene al mundo en vilo, así que concentrémonos en ella de aquí en adelante.

Loros estocásticos

¿Qué es exactamente lo que genera una inteligencia artificial generativa? Como ya dije, los resultados pueden ser textos, imágenes, audios o videos. Pero, ¿cómo se llega a ellos y qué, realmente, es lo que estamos viendo cuando consumimos estos contenidos?

Las redes neuronales de las que parten los procesos de la inteligencia artificial generativa son llamadas también LLM (Large Language Models, o Grandes Modelos de Lenguaje), pues las primeras que fueron desarrolladas tomaron grandes cantidades de texto (lenguaje escrito) para su entrenamiento. Originalmente, las redes entrenadas con texto sólo podían generar texto, las redes entrenadas con audio sólo podían generar audio y así. Pero actualmente existen redes “multimodales” que pueden ser entrenadas con más de un formato y, asimismo, generar contenido en más de un formato.

Estos contenidos generados, entonces, son simplemente una imitación de los patrones que los algoritmos reconocieron dentro de los datos de su entrenamiento.

Si bien el cubrimiento de prensa y el mercadeo alrededor de la inteligencia artificial repite constantemente que programas como ChatGPT o Copilot “aprenden”, “entienden el texto”, o “dicen nuevas cosas”, esto no es más que un impulso antropomorfizante sobre un proceso algorítmico. Las IA no entienden el contenido que producen, al menos no en el mismo sentido que un humano, que puede ser consciente de las varias partes de los procesos cognitivos y puede dilucidar significados y significantes. Las IA simplemente están repitiendo patrones de sus datos de entrenamiento, como un loro que puede pronunciar palabras humanas, pero desconoce su significado.

Este, por lo menos, es el argumento de un artículo académico de Emily M. Bender, Timnit Gebru, Angelina McMillan-Major y Margaret Mitchell llamado, justamente “Stochastic Parrots” (“estocástico” hace referencia a variables aleatorias). Un argumento que, si bien ha sido muy polémico y les costó a dos de las autoras sus trabajos en Google, ha probado ser, bajo el estado actual de las cosas, correcto.

Todos los casos reportados en los que una compañía es demandada porque un chatbot creado con inteligencia artificial dio información incorrecta, o en los que alguien termina tomando una decisión catastrófica por confiar plenamente en una IA vienen de lo mismo: de creer que la IA sabe de qué está hablando.

En realidad, cuando se le pregunta a una IA algo, o se le pide crear una imagen, esta IA no va a dar un resultado correcto, pues no ha sido programada para esto. No sabe, ni tiene cómo saber cuál es la información correcta. La IA va a dar un resultado que repite los patrones con los que fue entrenada. Los datos de los que salieron esos patrones no necesariamente son correctos, ni son información particularmente útil. Es más, en algunos casos esta información está viciada y produce resultados igualmente viciados. Es el caso, por ejemplo, de muchas aplicaciones de IA usadas en sistemas judiciales que parten de datos recabados de sistemas inherentemente discriminatorios y, por lo tanto repiten y amplifican esas discriminaciones (mi colega Luisa Fernanda Gómez y yo resumimos este problema en un artículo para Chequeado en 2020).

Pero la mayoría de usuarios de estas aplicaciones parecen estar convencidos de que no sólo las IA sí saben de qué están hablando, sino además de que, por ser tecnología avanzada saben aún más que un humano. Así es que muchas de los contenidos generados por IA, que no tienen asidero en la realidad, son tomados casi como dogmas irrefutables.

Continuando con las metáforas humanas, el campo de IA ha denominado estos errores factuales como “alucinaciones”. De nuevo, las metáforas son necesarias para entender el problema. Pero también les han sido útiles a los promotores de la IA. Decir que una IA “alucina” crea la impresión de que es una entidad con comprensión, pero con algunos problemas de percepción que pueden ser corregidos, así como un humano que alucina puede recibir tratamiento. Pero, actualmente, lo cierto es que estos errores son parte fundamental de cómo funcionan las IA generativas pues, como ya expliqué, no tienen manera de saber qué información es correcta o incorrecta.

He hecho énfasis en que lo que describo es el estado actual de las cosas porque, como bien afirmarían los promotores de la IA, es posible que con mejor tecnología, mejores datos y mejores entrenamientos, todo esto cambie. Quizás algún día la IA sí pueda diferenciar entre información correcta e incorrecta. Quizás pueda, realmente entender los contenidos que produce. O puede ser que el “boom” de la IA sea otra promesa sin cumplir de las empresas de Big Tech, como lo fueron el metaverso o los NFT. No puedo saber qué sucederá porque no puedo predecir el futuro. Pero sí les puedo contar que el camino hacia una IA que realmente cumpla lo que promete está plagado de obstáculos.

La caja negra que consume todo

La versión original de ChatGPT disponible para el público fue entrenada con una serie de datos, recopilados de internet hasta septiembre de 2021 que, si bien era enorme, era limitada. La versión actual puede buscar datos en internet. Es decir que tiene acceso a, teóricamente, una serie infinita de datos. Muchas otras IA generativas han adoptado o prometen un acceso similar para mejorar sus procesos. Pero los problemas persisten.

Por una parte, internet está plagado de información incorrecta, así es que nada garantiza que este mayor acceso mejore la calidad de los contenidos generados.

Por otra parte, para procesar datos prácticamente infinitos se necesita una cantidad de energía prácticamente infinita en un mundo que, sabemos, tiene unas fuentes de energía, por ahora, finitas.

Además, esta serie casi infinita de datos ha sido usada sin permiso de sus creadores, lo que está creando discusiones complejas sobre derechos de autor y sobre derechos laborales.

Finalmente, entre más avanza esta tecnología, más complejos se vuelven sus procesos. No sólo es cierto que cada vez los contenidos generados son más sofisticados (a pesar de que el problema de su veracidad o corrección permanece), sino que cada vez son más inescrutables las maneras en las son generados.

Es decir, sabemos que el proceso va así: entran datos, se usan para el entrenamiento y se producen contenidos. Pero el espacio entre el segundo y el tercer paso es una suerte de caja negra, un misterio que ni siquiera el programador de una aplicación de IA podría explicar. Lo que nos está llevando a un mundo en el que cada vez más contenidos son no sólo poco confiables sino que además no tienen una trazabilidad o una cadena de responsabilidad clara.

Y, entonces, ¿qué tan asustados deberíamos estar?

El ímpetu por usar más IA generativa no está sólo en ahorrar dinero. Entre más avanza esta tecnología, más crea la impresión de ser muy compleja, una suerte de “súperinteligencia” que podría ayudar a los humanos a agilizar sus tareas o, incluso, a hacer tareas que no podríamos hacer por nuestra cuenta (una impresión que ha resultado muy exitosa así, por ahora, no sea del todo cierta).

Esta no sería la primera vez en la historia que algo así sucede, por supuesto. Los computadores más básicos podían calcular operaciones aritméticas a velocidades que ningún humano podría soñar. Pero en este caso los promotores de la IA prometen que esta tecnología podría reemplazar prácticamente todas las actividades humanas, algo que se ve aún muy lejano.

Así que no creo que, por ahora, nos deberíamos preocupar de que la IA vaya a revolucionar fundamentalmente cómo funciona el mundo. Pero sí nos deberíamos preocupar por las intenciones de los empresarios de tecnología que buscan avanzar con el proyecto de la IAG a cualquier costo, humano o ambiental. Nos deberíamos preocupar por lo efectivo que ha sido el mercadeo alrededor de la IA, que parece haber convencido al público en general de que es capaz de hacer algo de lo que no es capaz. Y, sobre todo, nos deberíamos preocupar ahora por lo que sí puede hacer muy bien la IA: engañar.

En la primera edición del boletín Clave de Búsqueda, que lanzamos con mi colega José Luis Peñarredonda para discutir preguntas sobre investigar la desinformación (y que, a diferencia de este blog, sí estoy escribiendo rutinariamente), contamos cómo la mayoría de personas no sabe diferenciar deepfakes de audio de audios reales. La IA ha abaratado el costo de crear todo tipo de contenidos, incluso contenidos engañosos y manipuladores. Y, si bien para ojos expertos los resultados son obviamente de baja calidad, para legos no hay diferencia. Así que creo que el mayor miedo que deberíamos tener, ahora, sobre la IA, es lo fácil que será utilizada para mentir.

Esto tampoco es nuevo. Un argumento similar se podría haber hecho sobre los blogs hace 20 años, o sobre las redes sociales hace 10. Pero cada una de estas cosas aceleraron y abarataron la creación de contenidos (engañosos o no) y cada vez es más difícil, para nuestras mentes humanas, adaptarnos a estos cambios.

Además, las tecnologías no son inherentemente buenas o malas. Así que espero que también se desarrollen aplicaciones de IA positivas para la humanidad. Pero más de esto, quizás, en otro post.

Por: Pablo Medina Uribe

A principios del año pasado, cuando Elon Musk estaba preparando su oferta para comprar Twitter, preguntó en esa misma plataforma si era necesaria una nueva plataforma para que funcionara como “la plaza pública de facto”. En privado, Jack Dorsey (entonces CEO de Twitter) le respondió que sí, pues, en su opinión, ese rol lo debería cumplir una plataforma que no sea una compañía, que no reciba sus ingresos de publicidad, que esté financiada por una fundación, que sea decentralizada y, entre otras, que sea de fuente abierta (hey, me suena conocido).

Musk, como ya sabemos, hizo caso omiso a esta recomendación y, desde que compró Twitter en octubre, se ha promocionado a sí mismo como el salvador de la libertad de expresión (y, por ende, la democracia) tanto en su plataforma como en el mundo. Pero no sólo las reformas de Musk a Twitter lo han alejado de esta promesa, la misma promesa es imposible de cumplir.

La idea de una “plaza pública” es la de un lugar donde ciudadanos interesados se pueden reunir a discutir los temas sobre su sociedad que los interesan o impactan. Un lugar desde el cual pueden surgir movimientos, decisiones, acciones que cambien las reglas y las maneras en las que nos relacionamos. Y la idea de muchos analistas de Twitter durante la última década es que esta plataforma era el espacio ideal para hacerlo, usualmente por dos razones: primero, porque las personas e instituciones con autoridad para tomar decisiones con impacto estaban en la plataforma (y existía la noción, no siempre cierta, de que atendían personalmente a sus cuentas); segundo, porque, si bien Twitter no eliminaba las jerarquías ni sus barreras, sí las reducía. Cualquier persona en cualquier parte con una cuenta de Twitter podía escribirle al presidente de su país y existía por lo menos una posibilidad de que su mensaje fuera visto o respondido.

Pero los cambios que ha hecho Musk en la plataforma han derrumbado todo esto. Su decisión de cobrar por el sello azul de verificación hizo que muchos de los dueños de las cuentas previamente verificadas sintieran que podrían ser fácilmente suplantados. Es más, el sello se volvió un símbolo de una sola cosa: de que el dueño de la cuenta le paga ocho dólares mensuales a Twitter (Musk cambia esta política todo el tiempo, lo que diluye aún más el valor simbólico del sello). Incluso, en algún momento el sello se volvió una marca de vergüenza. Por todo esto es razonable pensar que las cuentas de instituciones o personalidades en posiciones de poder se hayan ido o piensen irse pronto (así ciertos presidentes latinoamericanos sigan pensando que tuitear es sinónimo de gobernar).

Eso, a su vez, hace que los usuarios pierdan la confianza en que su voz pueda ser escuchada, o en que tengan la posibilidad de acceder a discusiones significativas. Un sentimiento que puede ser amplificado por la otra consecuencia de cobrar por los sellos azules. Algunos de los beneficios de suscribirse a Twitter son aparecer más arriba en las menciones a otros usuarios, ser beneficiado por el algoritmo de recomendación y aparecer en una pestaña especial sólo para sellos azules. Cuando Musk cambió el sistema de verificación, dijo que lo hacía porque quería abolir el sistema de “señores feudales y campesinos” (”lords and peasants”). Pero como todo lo que dice Musk, seguramente esto era mentira y el resultado fue que creó, por una necesidad financiera, un sistema en el que una clase de burgueses puede pagar para que su voz sea más relevante. Como si esto no fuera suficientemente evidente, cuando Twitter tuvo que limitar la cantidad de publicaciones que un usuario podía ver (probablemente debido a no haber pagado su cuenta de Google Cloud), los usuarios de “Twitter Blue” (es decir, los que pagan), tenían un límite de publicaciones más alto.

Ahora, Musk diría que nada de esto va en contra de la libertad de expresión pues, en su visión de “free speech absolutism”, lo importante no es el acceso equitativo a la plataforma, sino la posibilidad de decir cualquier cosa sin censura. Esto también es mentira, por supuesto. Musk ha censurado todo tipo de publicaciones, por razones que van desde el egotismo hasta lo político. Pero incluso si fuera honesto en esto, a Musk se le estaría desbaratando la metáfora de la plaza pública. Todas las sociedades tienen límites a la libertad de expresión, tanto legales como morales. En una plaza física no se puede decir cualquier cosa sin enfrentar consecuencias. La mayoría de ciudades no tolerarían una marcha a favor de la pedofilia. En Alemania es ilegal desplegar ciertas imágenes asociadas con el nazismo. Insultar a alguien en un café puede terminar en un puño (que no sería ilegal en todas partes). Esta parte de la discusión es mucho más larga, pero en resumen, la libertad de expresión no es sinónimo de poder decir cualquier cosa.

Claro, no puedo negar algo: Twitter sí se volvió un lugar donde se discutían asuntos democráticos importantes. La prueba principal de esto, me parece, es el debate que se creó cuando tanto Twitter como Meta decidieron suspender las cuentas de Donald Trump a principios de 2021.

Uno de los argumentos en contra de la suspensión fue que Trump, en tanto figura política relevante, usaba estas redes sociales como canales oficiales de comunicación y, por lo tanto, no era democrático negarle a un jugador importante de la política la posibilidad de comunicarse con sus seguidores. Este argumento nunca me convenció, por tres razones: primero, Trump tenía acceso a muchos canales realmente oficiales de comunicación mientras todavía era presidente y acceso a todos los medios masivos después de serlo. Es más, cuando creó su propia red, Truth Social, sus publicaciones eran constantemente republicadas en medios más grandes. Segundo, Trump había constantemente violado las políticas de uso de Twitter y Facebook, pero estaba recibiendo un trato especial por ser presidente. Eso me parece más peligroso, tanto para las redes sociales como para la democracia, que suspender su cuenta. Y, tercero, estas redes sociales son privadas y, si bien tienen que ajustarse a las leyes de los países donde operan, no tienen por qué ser vistas como entidades públicas.

En cualquier caso, el resultado no es que Twitter fuera una plaza pública que se cerró al debate con la suspensión de Trump. Al contrario, Trump veía a Twitter como una lista de difusión, una lista de cuyos servicios abusó. Muy lejos de un lugar de discusión democrática.

Aún quedan millones de usuarios en Twitter, varios de los cuales usan el servicio a diario. Pero si la confianza entre los usuarios y la compañía no estuviera tan rota, Meta quizás no se habría animado a lanzar un competidor, Threads, y probablemente su lanzamiento no habría sido tan exitoso. La gente quiere un servicio como Twitter, pero ya no cree que Twitter pueda cumplir esa función.

Pero, ¿de qué gente estamos hablando?

Twitter no puede ser la plaza pública digital porque su promesa fundamental (proveer un espacio para la discusión pública que pueda tener un impacto real) está rota. Pero además, Twitter nunca fue una plaza pública. Sí, se podrían poner aquí muchos ejemplos de discusiones que se movieron en Twitter que luego resultaron en cambio real, pero sería ingenuo pensar que estas fueron discusiones, verdaderamente, públicas.

Twitter es un lugar de élites. Pero no en el sentido que dice Musk. Hasta donde sé, no hay ningún país en el que Twitter sea la red social más usada. En Colombia, por ejemplo, según los datos más recientes sólo el 3% de usuarios de internet usan Twitter. Muy lejos de la red social más popular del país, Facebook, que usa el 25% de usuarios (y aún más lejos de WhatsApp, probablemente la cosa de internet más popular del país). En cambio, Twitter es una de las redes sociales más usadas por periodistas y políticos.

La preponderancia de personas que pueden moldear narrativas locales o nacionales crea la ilusión de que estamos ante discusiones verdaderamente públicas, de que la ciudad, la región o el país está completamente inmerso en lo que se habla. Pero este es un sesgo profesional. Uno en el que yo mismo he caído. Cuando comencé a dirigir Colombiacheck en 2018, uno de mis primeros focos fue darle fuerza a nuestra cuenta de Twitter, con el propósito de obtener legitimidad ante otros medios y ante políticos, para que así nos tuvieran en cuenta a la hora de hacerles preguntas. Esto funcionó en buena medida, el reconocimiento llegó. Pero al esforzarnos menos en otros canales, el resultado fue que, si bien sabían de nosotros en el Congreso, rara vez una persona que no trabajara todo el día en política nos reconocía. (Esto es algo que el equipo de Colombiacheck ha sabido aliviar muy bien, en mi opinión, a través de sus publicaciones en otras redes).

En cualquier caso, el resultado es que mientras que quienes éramos adictos a Twitter pensábamos que estábamos discutiendo el país allí, el grueso de la gente estaba en otra parte, pensando en otras cosas. Si alguna narrativa de Twitter se volvía tendencia nacional, esto solía ser resultado justamente de esta adicción. Algún periodista sacaba de proporción lo que allí se discutía, luego lo mencionaba en su medio masivo, donde alcanza a una audiencia mucho mayor, y luego otros medios lo replicaban. Digamos que era una manera fácil de encontrar tema.

Y esa no es la única razón por la que los periodistas nos obsesionamos tanto con Twitter. La principal, creo, es porque Twitter era una herramienta excelente para seguir, casi en directo, qué sucedía alrededor del mundo. Ningún medio de comunicación puede reunir la diversidad de personas publicando desde todas partes en un solo lugar como lo hacía Twitter. Pero, además, la velocidad con la que se puede publicar un tuit es inalcanzable para un medio que tiene que (o por lo menos debería) verificar, editar y montar sus artículos antes de publicarlos.

Lo que me lleva al último problema y es que era (y aún es, aunque Musk diga lo contrario) extremadamente fácil generar discusiones inorgánicas en Twitter. Como reportamos hace poco en CLIP, es muy barato pagar por posicionar tendencias. Pero, a la vez, es poco común que sus usuarios se den cuenta de que están siendo manipulados.

Estos últimos problemas, en mi opinión, se repetirán en cualquiera que sea el reemplazo de Twitter como el lugar donde se habla de política. Y se les sumará un problema adicional: no va a haber una sola red que reúna a todas esas personas importantes de Twitter. Estaremos ante un ecosistema fragmentado donde algunos encontraran su nicho en Mastodon, o Bluesky, o Threads, o Substack Notes, o...

Por eso no sólo no ha habido una plaza pública digital, nunca la habrá.

Por: Pablo Medina Uribe

Desde hace un buen tiempo tenía ganas de abrir algún espacio para escribir mis ideas sobre la tecnología que investigo en mi trabajo.

Desde 2018 trabajo cubriendo e investigando la desinformación: primero como editor del medio de fact-checking Colombiacheck, luego como investigador en Linterna Verde y actualmente como editor de investigaciones en el Centro Latinoamericano de Investigación Periodística (CLIP). Haciendo este trabajo he aprendido mucho (y me han surgido muchas preguntas) sobre cómo funcionan las redes sociales, las apps de mensajería y en general las tecnologías de comunicación entre las que se comparten los contenidos que a veces se califican como “desinformación” (qué significa exactamente esta etiqueta, también aprendí, es bastante difícil de definir, pero quizás eso sea un tema para otro post).

También me di cuenta de que, si bien estas herramientas de comunicación se usan, estudian y analizan en todo el mundo, la discusión sobre ellas está centrada en inglés, pues es el idioma de Estados Unidos, el país en el que están basadas las compañías más grandes dedicadas a estas tecnologías (como Meta, Twitter y Google). Así que quise abrir un espacio para discutir sobre estas plataformas (y otras tecnologías relacionadas) en español.

Por supuesto, un blog no va a cambiar el desbalance mundial que favorece al mundo anglosajón entre el sector de las tecnologías de la comunicación y aquí estaré referenciando constantemente los contextos políticos, legales y sociales de Estados Unidos (pues, repito, allí están basadas buena parte de las empresas de las que quiero hablar). Pero espero que el que exista un lugar en español para hablar de esto aporte en algo en tener discusiones que puedan ver más allá de ese país.

En cualquier caso, no planeo centrarme en la desinformación sino en los contextos e impactos sociopolíticos de estas tecnologías. No planeo hacer contenidos reporteados (eso lo hago ya en otros lugares, como mi trabajo), sino más bien escribir reflexiones (espero) bien documentadas que me surgen al investigar estas plataformas. Tampoco planeo cerrarme a escribir sólo de redes sociales, pero sí va a ser un comienzo para este blog.

El blog se llama “Técnicamente” no sólo por la razón obvia, sino porque hace poco alguien me hizo notar que esta es una muletilla que uso bastante seguido al hablar. Uno de los malos juegos de palabras que pueden esperar aquí.

Decidí abrir el blog en alguna plataforma del Fediverso, la red interconectada de servidores que cumplen varios roles diferentes de publicación de contenido, porque llevo un tiempo usando Mastodon y he estado muy fascinado con la interoperabilidad (más sobre esto pronto) de los varios servicios disponibles.

Este blog está en un servidor llamado NoBlogo, que es una “instancia” del servicio WriteFreely, usado, justamente, para publicar blogs. Escogí WriteFreely porque me gustó su diseño minimalista tanto para escribir, como para leer. Y me decidí por NoBlogo, que es una comunidad de blogueros italianos, porque me permitía crear hasta cinco blogs gratuitos (sólo tuve que pedir permiso para crearlos y escribir en español enviándoles un mensaje directo a través de Mastodon).

Sé que todo esto del Fediverso suena confuso, pero espero explicarlo mejor en un post futuro.

Por ahora, lo importante es que, si tienen alguna cuenta en el Fediverso, (Mastodon, PixelFed, Pleroma, etc.), pueden seguir las actualizaciones de este blog buscando al usuario pablo@noblogo.org, o poniendo la URL https://noblogo.org/pablo/ en la barra de búsquedas. Es más, pueden comentar este y los demás posts respondiéndole a ese usuario desde sus cuentas de Mastodon y demás.

También, si quieren, me pueden seguir (a mí, no a este blog) en mi cuenta de Mastodon, derpoltergeist@col.social.

No estaremos leyendo pronto.

Por: Pablo Medina Uribe