Conversando sobre IA desde las Ciencias Sociales: sesgos, polarización y datos

Conversando sobre IA desde las Ciencias Sociales: sesgos, polarización y datos

Antony Flores Mérida

Participación en la primera sesión del conversatorio IA desde las Ciencias Sociales organizado por la Facultad de Ciencias Políticas y Sociales de la UNAM (25 de abril de 2023)

¿Cómo podemos garantizar que los datos utilizados para entrenar los sistemas de IA sean representativos e imparciales? En tal sentido: ¿En qué medida la IA permea la actual polarización política/social? ¿Ahora predominarán las Fake News?

Se me han planteado dos preguntas que revisten implicaciones muy distintas, así que trataré de abordar cada una en la medida de lo que he aprendido de y junto a estas herramientas y lo que, a partir de esas experiencias, creo que puedo decir.

Sobre la primera pregunta, es importante referir a lo que me parece que podríamos llamar sesgos de diseño y que están presentes en los modelos generativos de IA tanto como lo han estado en otras herramientas en la historia reciente de las tecnologías digitales de comunicación interactiva (o lo que otros han llamado TICs). Los sesgos de diseño en la investigación conducen a resultados erróneos y en el caso de herramientas de este tipo, a comportamientos que pueden ser calificados como discriminatorios: sectores de usuarios cada vez menos representados, cuyos intereses no son ponderados por los algoritmos o prácticas discursivas que terminan invisibilizadas por aquello que las tecnologías premian y que no siempre es lo que las sociedades que las usan más requieren.

En todo caso, el hecho de que estos sesgos nos hayan acompañado en las últimas décadas de desarrollo digital no implica que sean irresolubles y haya que resignarse a ellos. Safiya Umoja Noble (2018) ha denunciado el sexismo y racismo algorítmico y visibilizar estos fenómenos ha permitido intervenirlos. Eso me hace creer que los sesgos que empezamos a identificar en las IA pueden, con tiempo y el trabajo de análisis necesario, corregirse.

Pero se me pregunta sobre dos aspectos: la representatividad y la imparcialidad. Con respecto a lo primero, tenemos que meditar cómo discutiremos sobre representatividad (¿en términos estadísticos o cualitativos?) ante una máquina que puede ingerir cantidades difíciles de imaginar de datos.

Tuve que preguntar al propio Chat-GPT a cuánto ascendia la información usada para su entrenamiento: el repositorio Common Crawl consiste en aproximadamente 300 terabytes. ¿Es esto mucho, poco, suficiente?

Se vuelve difícil imaginar cómo la máquina de IA podría ser capaz de reproducir una visión del mundo que no sea la dominante cuando gran parte de su desarrollo se está dando desde los propios polos dominantes

Pensemos en una persona que toma una fotografía cada segundo. El archivo de cada imagen pesa 3 megabytes, a esa persona le tomaría 10 mil años acumular 300 Terabytes.

Para llenar esa cantidad, Chat GPT usó distintos tipos de fuentes de datos: redes sociales como Twitter y Reddit, sitios de noticias como BBC y New York Times así como libros y revistas, pero también blogs y foros en los que cualquiera de nosotros pudo haber participado… y por supuesto, informes provenientes de gobiernos (Estados Unidos, Canadá, Francia, Inglaterra, Australia, China… etcétera).

Y modelos de este tipo siguen en entrenamiento y es muy probable que, en algún momento, este proceso de datificación de la realidad llegue a un nivel en el que no haya “prácticamente” (e insisto en el énfasis) nada que los modelos de IA no sepan. Por lo que todo dato imaginable estará “representado” (y añado de nuevo el énfasis) en los modelos generativos.

Sin embargo, como el modelo ingiere todo, cabe esperar que aquellos polos de producción simbólica dominantes introduzcan en los modelos el sesgo suficiente para que sean esas representaciones y valoraciones (normativas, estéticas, políticas) las que reciban mayor atención de los modelos, sean por tanto más reproducidas y, eventualmente, consumidas.

Lo que sugiero con lo anterior es que se vuelve difícil imaginar cómo la máquina de IA podría ser capaz de reproducir una visión del mundo que no sea la dominante cuando gran parte de su desarrollo se está dando desde los propios polos dominantes. Las ideas de la clase dominante son las ideas dominantes en cada época sugerían un tal Marx y un tal Engel hace mucho tiempo, y a mi parecer, estas nuevas herramientas no se alejan mucho de aquel postulado.

Entonces, el hecho de que todo dato se encuentre representado en los modelos generativos no nos garantiza que todos estemos representados en las respuestas que nos ofrecen. Por el contrario, estamos en un escenario en el que hay una alta probabilidad de que ocurra lo contrario y que sean las ideas dominantes las que, de nuevo, encuentren un nicho (reluciente y potente) de reproducción. ¿Es esto inevitable? Yo creo que no.

Pensemos en las siguientes imágenes.

Imágenes generadas con Dall-e en Bing para el prompt: una mujer saliendo de la pantalla de un ordenador en versión arte digital.

Cuando al modelo se le da la instrucción, ofrece rostros y composiciones físicas de mujeres blancas. Por ello, se hace necesario añadir en la proposición (como se hizo para la imagen de la izquierda) que la mujer que sale de la pantalla es de rasgos afroamericanos, pues de otro modo, Dall-e seguirá produciendo una mujer blanca una y otra vez.

El modelo, como se puede ver, sabe cómo representar a una mujer afroamericana, pero no lo hace por sí mismo, hay que indicárselo. ¿Por qué? ¿Por qué las representaciones resultados del mismo prompt no varían entre cuerpos negros, morenos, asiáticos, etc.? ¿Por qué deben ser siempre cuerpos y pieles blancas? Esto no quiere decir (como puede ser fácil afirmar) que Dall-E es racista, pero sí nos da elementos para señalar que su diseño tiene un sesgo que reproduce el racismo estructural de la sociedad que construyó este modelo generativo.

De ello cabe decir que, para que el modelo mejore en este sentido (como deberá hacerlo en otros), se hace necesario identificar estos sesgos de diseño. Y la manera de identificar los problemas de la máquina es aprendiendo a usarla, conociendo cómo se alimenta y poniéndola a prueba.

IA y polarización, ¿cómo plantear la relación entre sendos fenómenos?

Las siguientes preguntas que se me plantean se podrían englobar en el problema tanto social como de conocimiento que estriba en los fenómenos de desinformación y polarización política.

Para esto me gustaría mostrar solo unos cuantos datos.  Decidí hacer una descarga de publicaciones de Twitter que abarcó desde el 1 de diciembre de 2022 y concluyó el 31 de marzo pasado. Busqué tweets en español que usaran el término “chat gpt” en el texto. El resultado fueron casi 220 mil publicaciones pero, como se ve en la gráfica que se muestra a continuación, lo que vemos es una tendencia que se ha mantenido durante los últimos meses y que muestra el interés creciente en una de las muchas herramientas de IA disponibles al gran público.

Fuente: Elaboración propia con datos extraídos de Twitter. Consultable en el enlace.

Cuando a principios de febrero, Chat GPT alcanzó sus primeros 100 millones de usuarios, entramos en un punto de no retorno no para la tecnología sino para nosotros como usuarios en términos de adopción de la herramienta. En este sentido, me parece que la preocupación sobre los fenómenos de desinformación, si bien justificada entre algunos sectores de la opinión pública y la academia debido a no pocos ejemplos de manipulación de plataformas en la historia reciente, aunque está presente entre los usuarios de los modelos generativos, no es la principal.

En la parte inferior izquierda del tablero están representados poco más de 3,600 mensajes, una fracción muy pequeña de los casi 220 mil producidos en español en un periodo de cuatro meses y si bien algunos refieren a temas como desinformación, noticias falsas y posibles usos maliciosos de modelos como Chat GPT, la mayoría en realidad señalan “errores” de la máquina: la forma en que ”alucina” al momento de tratar de dar respuesta a una pregunta para la que no tiene información, la producción de autores, títulos y afirmaciones inexistentes en la literatura académica, la incapacidad (temporal, habría que decir) del modelo para ser infalible.

Los usuarios están poniendo a prueba la fiabilidad de la máquina y eso es no solo pertinente sino necesario. ¿Puede ser usado Chat GPT para producir noticias falsas? Por supuesto: es una herramienta sumamente potente que está disponible de forma relativamente accesible (su versión de pago está a la par de algunos servicios de video en streaming). ¿Puede esto exacervar los procesos de polarización que ya vemos en algunos países latinoamericanos? No cabe duda. Pero esto está más relacionado con los propios procesos políticos que en determinadas regiones del mundo se están viviendo que con las características propias de la máquina.

Es decir: sin desestimar los perjuicios que el uso nocivo de modelos generativos de inteligencia artificial pueden producir en determinados contextos sociales, el primer lugar de intervención para evitar estos daños a la salud de las democracias contemporáneas está en los propios contextos de acogida de la tecnología.

El uso de este tipo de tecnologías tiene el potencial de exacerbar las condiciones que se presentan en contextos de polarización pero, como ciudadanía usuaria de este tipo de tecnologías, debemos dirigir nuestros reclamos hacia las fuentes de la polarización y a los actores que se han beneficiado de los fenómenos de desinformación.

Quisiera sostener este argumento a partir de lo que hemos visto que ocurre con otras herramientas como las plataformas de redes sociodigitales: el estudio de los procesos de plataformización ha dado cuenta de cómo cierto tipo de lógicas empresariales, en ocasiones de cariz bastante perverso, inciden en otros espacios sociales como lo son gobiernos y vida cotidiana. Ejemplos hay varios: la negligencia de Facebook en el uso y abuso de nuestros datos ha tenido consecuencias en procesos democráticos de diversos países (Cambridge Analytica), ciertos mercados tradicionales han sido invadidos mediante agresivas e incluso violentas estrategias de cabildeo ante gobiernos en paralelo a prácticas de intrusión de datos y espionaje corporativo (Uber), y las plataformas más populares de red social han sido incapaces para dotar a sus usuarios de herramientas efectivas para combatir la propagación de información falsa y maliciosa, además de para identificar y prevenir distintas formas de violencia digital.

Pero todos estos ejemplos han ocurrido con la connivencia de los poderes establecidos. Los distintos actores políticos han hecho poco y mal trabajo tratando de prevenir el uso malicioso de las plataformas. Aunado a ello, los intentos de regulación muchas veces se dirigen hacia los usuarios, lo que se ha advertido puede atraer un contexto menos democrático en términos de libre expresión. Y es en este tipo de contexto que estamos empezan a adoptar y apropiar los modelos generativos de IA.

Imágenes producidas mediante modelos generativos

Los modelos generativos pueden y seguramente serán usados de forma maliciosa sistemáticamente y esto exige esfuerzos en varios sentidos. Por un lado, se nos plantea un nuevo problema para los procesos de alfabetización digital, como profesionales de la comunicación o académicos debemos proveer a nuestras comunidades de recursos y herramientas que les permitan mantenerse adecuadamente informados y suficientemente alertas para poder identificar flujos de desinformación. Por otra parte, este mismo contexto exige de los actores sociales involucrados una participación más decidida en la producción de contenidos informativos confiables para los grandes públicos. Los medios masivos de comunicación han fallado en ese sentido durante un largo tiempo. No solo han desestimado a sus audiencias sino que se han adaptado poco y mal al nuevo contexto comunicacional… de las últimas dos décadas se podría decir.

Es decir, el uso de este tipo de tecnologías tiene el potencial de exacerbar las condiciones que se presentan en contextos que han sido objeto de procesos de polarización, como lo es México. Pero por alarmante que sea esta posibilidad, como ciudadanía usuaria de este tipo de tecnologías, debemos dirigir nuestros reclamos hacia las fuentes de la polarización y a los actores que se han beneficiado de los fenómenos de desinformación.

Por optimista que pueda parecer, no creo que nos vayan a inundar las noticias falsas. Eso, si ha de ocurrir, falta por verse. Pero si eso ocurre, no será tanto a causa de las cualidades de estas herramientas tecnológicas como por el espírituo con que pueden ser usadas por actores sociales y políticos que sí podemos identificar.

Por último y para poder continuar el diálogo con ustedes, creo que es pertinente decir que en algunos sectores de la academia y los medios, hay una alarma e incluso animadversión hacia los modelos generativos como si estos fueran a acabar con la sociedad como la conocemos. En este sentido, me parece que algunas valoraciones son más que nada normativas antes que basadas en evidencia. Es decir, algunos analistas están poniendo el carro delante de los caballos al tratar de predecir qué ha de ocurrir con las IA.

Estamos en un proceso en el que solo podemos ver una forma temporal de este tipo de herramientas. Con toda seguridad, los modelos generativos cambiarán a formas que aún no nos imaginamos y con probabilidad lo harán muy rápidamente. Piénsese en las redes sociodigitales, en el páramo de actualizaciones desarticuladas que eran a finales de la primera década de este siglo y cómo a fuerza de apropiación colectiva y mutuas contaminaciones entre distintas tecnologías adquirieron la forma con que las conocemos hoy. Las IA (que han estado con nosotros más tiempo del que creemos a primera vista) están empezando su aceleración y en términos de construcción social de la tecnología, estamos tratando de revelar sus controversias como parte del proceso de adopación. La forma en que resolvamos estas inquietudes nos llevarán por un camino u otro. Nuestro deber, desde las Ciencias Sociales, es no perder detalle de este proceso y, creo, tratar de entenderlo para después explicarlo. A la sociedad y a nosotros mismos.

Referencias

Noble, S. U. (2018). Algorithms of oppression: How search engines reinforce racism. New York University Press.