Qué es la inteligencia artificial y qué tan asustados deberíamos estar

Llevaba varios meses postergando este post, en parte por asuntos personales y laborales, pero sobre todo porque me parecía que tenía que analizar cada noticia sobre los desarrollos y las novedades de la inteligencia artificial y, mientras pensaba en alguno de estos, surgía uno nuevo y lo comenzaba a considerar. Pero, realmente, me di cuenta de que, a pesar de tantos anuncios y lanzamientos, mi conclusión sigue siendo la misma: el mercadeo alrededor de la inteligencia artificial sigue siendo más poderoso que la inteligencia artificial. O, como lo puso elegantemente Cory Doctorow: “la inteligencia artificial no va a hacer tu trabajo, pero su narrativa podría convencer a tu jefe de despedirte y reemplazarte con un bot que no puede hacer tu trabajo”.

Pero, ¿por qué tantos jefes son propensos a dejarse convencer? Primero, porque vivimos en un mundo capitalista en el que buena parte, si no la mayoría, de los jefes son juzgados según cuánto pueden maximizar las ganancias, y pagar una licencia de algún producto de inteligencia artificial es más barato que contratar a un humano. Y, segundo, porque muchos jefes no entienden (o, debido al punto anterior, prefieren no entender) cómo, realmente funciona la inteligencia artificial.

Sobre lo primero no hay mucho que pueda hacer desde acá. Pero sobre lo segundo por lo menos puedo intentar explicar un par de cosas. Y es justo lo que quiero hacer.

¿Qué es la inteligencia artificial?

Nadie lo sabe. No, en serio. No hay una definición universalmente aceptada de qué, exactamente, quiere decir “inteligencia artificial”. Wikipedia la define, simplemente, como “la inteligencia de las máquinas ... en oposición a la inteligencia de los seres vivos”. Pero, ¿qué es “inteligencia”? ¿Qué es una “máquina”? Incluso la pregunta “¿qué es 'un ser vivo'?” es bastante complicada (aunque también excede el foco de este post).

Algunos investigadores (y en particular los fundadores y desarrolladores de empresas y organizaciones que se dedican a estos temas, como OpenAI o DeepMind) hablan también de “inteligencia artificial general” (o IAG), que es:

  1. la capacidad de las máquinas de realizar varias tareas cognitivas mejor de lo que los humanos podrían hacerlo,
  2. a veces descrita como cuando las máquinas “se vuelven conscientes”,
  3. discutida extensamente como una amenaza existencial para la humanidad y,
  4. algo que nunca ha sucedido.

A veces, los medios que reportan sobre programas o aplicaciones de “inteligencia artificial” (e incluso los desarrolladores que trabajan en ellos) usan la definición (que, como ven, también es muy vaga) de la IAG para hablar de la IA en general. Los primeros quizás por desconocimiento, los segundos porque su propósito es llegar a la IAG (que, repito, no existe aún) y ven el estado actual de las cosas como, simplemente, un paso para llegar a esa meta.

Pero, entonces, ¿de qué hablamos cuando hablamos de “inteligencia artificial”?

Bienvenidos a la red (neuronal... y artificial)

Muchas cosas que funcionan a través del procesamiento de una gran cantidad de datos han sido llamadas “inteligencia artificial”. Estas cosas tratan estos datos a través de un algoritmo (que no es más que una serie de reglas para que opere una máquina) y entregan un resultado. Tanto los algoritmos de recomendación de redes sociales, como los algoritmos que usan empresas de taxi para encontrar un carro cercano, o los que usan páginas para recomendar qué más comprar o qué canción escuchar han sido considerados “inteligencia artificial” (y en algunos casos, el término “algoritmo” se ha usado como sinónimo de “inteligencia artificial”). Pero el poder de procesamiento de las máquinas actuales ha aumentado exponencialmente, así como la capacidad de capturar datos. Además, parece que nos hemos acostumbrado a los algoritmos descritos en este párrafo, así que ya no los llamamos “inteligencia artificial”.

Lo que últimamente llamamos “inteligencia artificial” (en particular desde el lanzamiento de ChatGPT en noviembre de 2022) son realmente aplicaciones de algo llamado redes neuronales artificiales. Estas redes son modelos computacionales que, a partir de una gran cantidad de datos y un proceso de prueba y error, “aprenden” algo nuevo.

Aquí, un paréntesis necesario: al hablar de inteligencia artificial se suelen usar muchas metáforas relacionadas a procesos mentales humanos. Es comprensible, así es como aprendemos y entendemos los humanos. Pero esto crea la situación desafortunada para quienes queremos explicar el tema (y afortunada para quienes quieren venderlo) de que, al parecer, le conferimos rasgos humanos a las máquinas. Lo que suena a que las máquinas han llegado a una inteligencia humana... o una inteligencia artificial general... lo que, de nuevo, no ha sucedido aún.

Por “aprender” lo que se quiere decir es que a estas redes se les entregan enormes cantidades de datos (millones y millones de datos, que pueden ser textos, imágenes, videos, etc.), se les programa una meta (por ejemplo, diferenciar caras de perros chihuaha de fotos de muffins con chips de chocolate) y, cada vez, a través de un entrenamiento, son más eficientes y efectivas en llegar a esa meta.

Aunque este proceso es llamado “machine learning” (“aprendizaje de máquinas”), estas máquinas no “aprenden” en el sentido humano de adquirir nuevo conocimiento. Estas redes no son conscientes ni saben qué es conocimiento. Lo que hacen es ajustar su algoritmos. Usualmente se ajustan gracias a la intervención de humanos (muchas veces con salarios miserables) que marcan si los resultados de los procesos se acercan o se alejan de la meta. Eso crea nuevos datos, que son tomados en cuenta en los nuevos procesos y, así, la máquina se acerca cada vez más a la meta. (En algunos casos se han desarrollado programas para que estas redes se entrenen a sí mismas pero, por ahora, los resultados no han sido los mejores).

Las “metas” pueden aplicarse a todo tipo de procesos, pero los procesos de los que se suele hablar cuando se habla, actualmente, de “inteligencia artificial”, son los llamados “generativos”: aquellos que crean algún tipo de contenido, como texto, audio, imágenes o video. Esta inteligencia artificial generativa es la que tiene al mundo en vilo, así que concentrémonos en ella de aquí en adelante.

Loros estocásticos

¿Qué es exactamente lo que genera una inteligencia artificial generativa? Como ya dije, los resultados pueden ser textos, imágenes, audios o videos. Pero, ¿cómo se llega a ellos y qué, realmente, es lo que estamos viendo cuando consumimos estos contenidos?

Las redes neuronales de las que parten los procesos de la inteligencia artificial generativa son llamadas también LLM (Large Language Models, o Grandes Modelos de Lenguaje), pues las primeras que fueron desarrolladas tomaron grandes cantidades de texto (lenguaje escrito) para su entrenamiento. Originalmente, las redes entrenadas con texto sólo podían generar texto, las redes entrenadas con audio sólo podían generar audio y así. Pero actualmente existen redes “multimodales” que pueden ser entrenadas con más de un formato y, asimismo, generar contenido en más de un formato.

Estos contenidos generados, entonces, son simplemente una imitación de los patrones que los algoritmos reconocieron dentro de los datos de su entrenamiento.

Si bien el cubrimiento de prensa y el mercadeo alrededor de la inteligencia artificial repite constantemente que programas como ChatGPT o Copilot “aprenden”, “entienden el texto”, o “dicen nuevas cosas”, esto no es más que un impulso antropomorfizante sobre un proceso algorítmico. Las IA no entienden el contenido que producen, al menos no en el mismo sentido que un humano, que puede ser consciente de las varias partes de los procesos cognitivos y puede dilucidar significados y significantes. Las IA simplemente están repitiendo patrones de sus datos de entrenamiento, como un loro que puede pronunciar palabras humanas, pero desconoce su significado.

Este, por lo menos, es el argumento de un artículo académico de Emily M. Bender, Timnit Gebru, Angelina McMillan-Major y Margaret Mitchell llamado, justamente “Stochastic Parrots” (“estocástico” hace referencia a variables aleatorias). Un argumento que, si bien ha sido muy polémico y les costó a dos de las autoras sus trabajos en Google, ha probado ser, bajo el estado actual de las cosas, correcto.

Todos los casos reportados en los que una compañía es demandada porque un chatbot creado con inteligencia artificial dio información incorrecta, o en los que alguien termina tomando una decisión catastrófica por confiar plenamente en una IA vienen de lo mismo: de creer que la IA sabe de qué está hablando.

En realidad, cuando se le pregunta a una IA algo, o se le pide crear una imagen, esta IA no va a dar un resultado correcto, pues no ha sido programada para esto. No sabe, ni tiene cómo saber cuál es la información correcta. La IA va a dar un resultado que repite los patrones con los que fue entrenada. Los datos de los que salieron esos patrones no necesariamente son correctos, ni son información particularmente útil. Es más, en algunos casos esta información está viciada y produce resultados igualmente viciados. Es el caso, por ejemplo, de muchas aplicaciones de IA usadas en sistemas judiciales que parten de datos recabados de sistemas inherentemente discriminatorios y, por lo tanto repiten y amplifican esas discriminaciones (mi colega Luisa Fernanda Gómez y yo resumimos este problema en un artículo para Chequeado en 2020).

Pero la mayoría de usuarios de estas aplicaciones parecen estar convencidos de que no sólo las IA sí saben de qué están hablando, sino además de que, por ser tecnología avanzada saben aún más que un humano. Así es que muchas de los contenidos generados por IA, que no tienen asidero en la realidad, son tomados casi como dogmas irrefutables.

Continuando con las metáforas humanas, el campo de IA ha denominado estos errores factuales como “alucinaciones”. De nuevo, las metáforas son necesarias para entender el problema. Pero también les han sido útiles a los promotores de la IA. Decir que una IA “alucina” crea la impresión de que es una entidad con comprensión, pero con algunos problemas de percepción que pueden ser corregidos, así como un humano que alucina puede recibir tratamiento. Pero, actualmente, lo cierto es que estos errores son parte fundamental de cómo funcionan las IA generativas pues, como ya expliqué, no tienen manera de saber qué información es correcta o incorrecta.

He hecho énfasis en que lo que describo es el estado actual de las cosas porque, como bien afirmarían los promotores de la IA, es posible que con mejor tecnología, mejores datos y mejores entrenamientos, todo esto cambie. Quizás algún día la IA sí pueda diferenciar entre información correcta e incorrecta. Quizás pueda, realmente entender los contenidos que produce. O puede ser que el “boom” de la IA sea otra promesa sin cumplir de las empresas de Big Tech, como lo fueron el metaverso o los NFT. No puedo saber qué sucederá porque no puedo predecir el futuro. Pero sí les puedo contar que el camino hacia una IA que realmente cumpla lo que promete está plagado de obstáculos.

La caja negra que consume todo

La versión original de ChatGPT disponible para el público fue entrenada con una serie de datos, recopilados de internet hasta septiembre de 2021 que, si bien era enorme, era limitada. La versión actual puede buscar datos en internet. Es decir que tiene acceso a, teóricamente, una serie infinita de datos. Muchas otras IA generativas han adoptado o prometen un acceso similar para mejorar sus procesos. Pero los problemas persisten.

Por una parte, internet está plagado de información incorrecta, así es que nada garantiza que este mayor acceso mejore la calidad de los contenidos generados.

Por otra parte, para procesar datos prácticamente infinitos se necesita una cantidad de energía prácticamente infinita en un mundo que, sabemos, tiene unas fuentes de energía, por ahora, finitas.

Además, esta serie casi infinita de datos ha sido usada sin permiso de sus creadores, lo que está creando discusiones complejas sobre derechos de autor y sobre derechos laborales.

Finalmente, entre más avanza esta tecnología, más complejos se vuelven sus procesos. No sólo es cierto que cada vez los contenidos generados son más sofisticados (a pesar de que el problema de su veracidad o corrección permanece), sino que cada vez son más inescrutables las maneras en las son generados.

Es decir, sabemos que el proceso va así: entran datos, se usan para el entrenamiento y se producen contenidos. Pero el espacio entre el segundo y el tercer paso es una suerte de caja negra, un misterio que ni siquiera el programador de una aplicación de IA podría explicar. Lo que nos está llevando a un mundo en el que cada vez más contenidos son no sólo poco confiables sino que además no tienen una trazabilidad o una cadena de responsabilidad clara.

Y, entonces, ¿qué tan asustados deberíamos estar?

El ímpetu por usar más IA generativa no está sólo en ahorrar dinero. Entre más avanza esta tecnología, más crea la impresión de ser muy compleja, una suerte de “súperinteligencia” que podría ayudar a los humanos a agilizar sus tareas o, incluso, a hacer tareas que no podríamos hacer por nuestra cuenta (una impresión que ha resultado muy exitosa así, por ahora, no sea del todo cierta).

Esta no sería la primera vez en la historia que algo así sucede, por supuesto. Los computadores más básicos podían calcular operaciones aritméticas a velocidades que ningún humano podría soñar. Pero en este caso los promotores de la IA prometen que esta tecnología podría reemplazar prácticamente todas las actividades humanas, algo que se ve aún muy lejano.

Así que no creo que, por ahora, nos deberíamos preocupar de que la IA vaya a revolucionar fundamentalmente cómo funciona el mundo. Pero sí nos deberíamos preocupar por las intenciones de los empresarios de tecnología que buscan avanzar con el proyecto de la IAG a cualquier costo, humano o ambiental. Nos deberíamos preocupar por lo efectivo que ha sido el mercadeo alrededor de la IA, que parece haber convencido al público en general de que es capaz de hacer algo de lo que no es capaz. Y, sobre todo, nos deberíamos preocupar ahora por lo que sí puede hacer muy bien la IA: engañar.

En la primera edición del boletín Clave de Búsqueda, que lanzamos con mi colega José Luis Peñarredonda para discutir preguntas sobre investigar la desinformación (y que, a diferencia de este blog, sí estoy escribiendo rutinariamente), contamos cómo la mayoría de personas no sabe diferenciar deepfakes de audio de audios reales. La IA ha abaratado el costo de crear todo tipo de contenidos, incluso contenidos engañosos y manipuladores. Y, si bien para ojos expertos los resultados son obviamente de baja calidad, para legos no hay diferencia. Así que creo que el mayor miedo que deberíamos tener, ahora, sobre la IA, es lo fácil que será utilizada para mentir.

Esto tampoco es nuevo. Un argumento similar se podría haber hecho sobre los blogs hace 20 años, o sobre las redes sociales hace 10. Pero cada una de estas cosas aceleraron y abarataron la creación de contenidos (engañosos o no) y cada vez es más difícil, para nuestras mentes humanas, adaptarnos a estos cambios.

Además, las tecnologías no son inherentemente buenas o malas. Así que espero que también se desarrollen aplicaciones de IA positivas para la humanidad. Pero más de esto, quizás, en otro post.

Por: Pablo Medina Uribe