Diseñar investigación sobre IA, reto y oportunidad en la comunicación

Diseñar investigación sobre IA, reto y oportunidad en la comunicación

Si la IA es el medio, la ciencia debe ser el mensaje

Diseñar investigación sobre IA, reto y oportunidad en la comunicación

  • Inicia el ciclo de mesas de discusión “Debates actuales en estudios de comunicación, cultura y sociedad” en el IIS-UNAM
  • Académicos de UAM y CIIDET participan en la sesión “Aproximaciones metodológicas contemporáneas a los estudios de comunicación”
Antony Flores Mérida

Escrito por

en

En tiempos de modelos generativos de inteligencia artificial, recordar la máxima de Marshal McLuhan cuando postulaba que “el medio es el mensaje” obliga a la reflexión crítica ante las posibilidades que las tecnologías emergentes nos plantean: “si la inteligencia artificial es el medio, ¿cuál es el mensaje” expuso César Rodríguez Cano, profesor investigador de la UAM-Cuajimalpa al participar el el ciclo “Debates actuales en estudios de comunicación, cultura y sociedad” en el Instituto de Investigaciones Sociales (IIS) de la UNAM.
El investigador de la Universidad Autónoma Metropolitana participó junto a la profesora investigadora del Tecnológico Nacional de México, Dra. Ileana Cruz-Sánchez, en la mesa titulada “Aproximaciones metodológicas contemporáneas a los estudios de comunicación: tradición, convención e innovación” en la que expusieron las discusiones, tensiones y hallazgos de sus agendas de investigación y formación en el terreno metodológico.
Durante el cierre de la discusión y cuestionados sobre los retos y oportunidades de aprender e investigar en el contexto de adopción de las tecnologías de inteligencia artificial generativa, Rodríguez Cano planteó que “si la inteligencia artificial es el medio, no dejemos que también sea el mensaje, (…) la ciencia tiene que ser el mensaje” por lo que instó a que desde los espacios de producción de conocimiento se produzcan dinámicas para ir planteando los límites y cuestionamientos que se deben plantear ante estos desarrollos tecnológicos y sus posibilidades para la investigación en distintos campos, entre los que se encuentran las Ciencias Sociales y las Humanidades
Ileana Cruz-Sánchez del campus CIIDET del Tecnológico Nacional de México señaló por su parte que es importante apropiar y transmitir el conocimiento sobre los modelos generativos “con inmensa humildad (…), aceptar que no lo sabes y vamos a aprender juntos, estudiantes y docentes” en un campo que plantea diversos retos por lo desconocido que aún es y por su propia condición de fenómeno en desarrollo.
Ante los fenómenos sociales y de comunicación emergentes en el actual momento, plantearon la necesidad de utilizar y proveer de densidad teórica a las categorías de análisis que usamos para aproximarnos a las prácticas mediadas por las tecnologías; “es importante que esta densificación provenga no de un rompimiento teórico con lo que ya se sabía, caeríamos en un error al pensar que los ‘nuevos’ fenómenos no pueden ser entendidos con categorías ‘viejas’” planteó Rodríguez Cano.
En ese sentido, Ileana Cruz-Sánchez consideró que puede ser “mucho más interesante ampliar los paraguas teóricos” existentes, poniendo como ejemplo el caso de la etnografía que, como aproximación metodológica y forma de investigación se desarrolla en espacios sociodigitales.
César Rodríguez Cano, autor del libro Hipermétodos, expuso sus reflexiones en torno a los retos metodológicos que plantean las irrupciones tecnológicas, especialmente los modelos generativos de IA, en la investigación de la comunicación. Por su parte, Ileana Cruz-Sánchez, quien ha realizado investigación en temas como videojuegos, habilidades STEM entre niñas y violencia digital, compartió algunos de sus hallazgos en estos rubros durante su participación en la sesión del ciclo de debates.
La primera sesión forma parte de un conjunto de cinco mesas organizadas por Antony Flores Mérida, becario posdoctoral en el Instituto de Investigaciones Sociales de la Universidad Nacional Autónoma de México. Otros temas a desarrollarse durante el ciclo serán la relación entre medios y poder en contextos de autoritarismo, los fenómenos de desinformación y la investigación en torno a periodismo y libertad de expresión contemporáneas.

A continuación puedes ver parte de la discusión en un video disponible en el Canal de YouTube de Comsocyc.

Artículos Relacionados

Artículos Relacionados

El economista Joseph Stiglitz advierte sobre la desigualdad en la era de la IA

El economista Joseph Stiglitz advierte sobre la desigualdad en la era de la IA

Joseph Stiglitz, economista ganador del premio Nobel, comparte su visión sobre el impacto de la inteligencia artificial en el mercado laboral y enfatiza la necesidad de políticas que aborden la creciente brecha social para adaptarse al cambio tecnológico

Comsocyc

La IA ya ha reemplazado trabajos físicos rutinarios y ahora amenaza con reducir la demanda de empleos blancos rutinarios. Imagen vía Dall-e (Bing)

La revolución de la IA ya está afectando el mercado laboral, reemplazando trabajos en escritura y generando incertidumbre sobre la demanda de empleo. El economista Joseph Stiglitz, ganador del premio Nobel, advierte que esta tendencia continuará, especialmente en trabajos rutinarios como la redacción y la edición.

En una entrevista realizada por Sophie Bushwick y publicada en Scientific American, el laureado economista señaló que, si bien las inteligencias artificiales son una poderosa herramienta para aumentar la productividad, aún no se puede confiar plenamente en ellas, pues la interacción humana seguirá siendo esencial para supervisar su calidad y evitar sesgos.

El principal reto identificado por Stiglitz es la regulación de estas tecnologías. Durante la entrevista señaló que si bien, algunos argumentan que la IA podría crear nuevos trabajos y compensar las pérdidas, hay razones para ser escépticos al respecto. Stiglitz prevé un cambio en la demanda de habilidades laborales, destacando que la gestión de la IA podría requerir habilidades en humanidades lingüísticas más que en matemáticas. A este respecto, el economista advirtió que si bien se crearán empleos en ciertas áreas, las pérdidas de puestos de trabajo superarán las ganancias.

Stiglitz destaca que la IA puede resultar en una demanda creciente de productos y servicios creados por humanos, ya que los trabajos generados por IA pueden carecer de creatividad y calidad. En este escenario, el trabajo humano se convertiría en un producto premium, valorado por su originalidad y creatividad.

Sin embargo, advierte que la disrupción laboral tendrá un impacto significativo en la desigualdad económica. La IA ya ha reemplazado trabajos físicos rutinarios y ahora amenaza con reducir la demanda de empleos blancos rutinarios. Esto podría aumentar la brecha entre los trabajadores, especialmente aquellos en sectores afectados por la automatización. Stiglitz subraya que el aumento de la desigualdad podría conducir a la desesperanza y problemas sociales en comunidades enteras.

Para abordar esta creciente desigualdad, Stiglitz señaló la importancia de contar con políticas laborales activas para capacitar o reentrenar a las personas en nuevas habilidades requeridas por la IA. También sugirió la posibilidad de reducir la jornada laboral a 30 horas semanales, lo que permitiría un mayor equilibrio entre trabajo y ocio.

El economista advierte que, en ausencia de políticas adecuadas, la IA podría empeorar la desigualdad y aumentar el poder de los empleadores sobre los trabajadores, lo que podría perjudicar aún más a los grupos marginados. Para mitigar estos efectos negativos, Stiglitz sostiene que el gobierno debe guiar la innovación hacia soluciones que impulsen la productividad y creen empleo, en lugar de destruirlo.

En última instancia, Stiglitz es optimista sobre el potencial de la IA para mejorar la productividad y el bienestar general, siempre y cuando se implementen políticas apropiadas para abordar los desafíos que conlleva. No obstante, advierte que el éxito de la transición a la era de la IA dependerá en gran medida de las decisiones políticas que se tomen en respuesta a sus efectos económicos y sociales. La equidad y la inclusión serán fundamentales para asegurar que la revolución de la IA beneficie a toda la sociedad.

xAI: nueva compañía de IA de Elon Musk busca «comprender la realidad»

xAI: nueva compañía de IA de Elon Musk busca «comprender la realidad»

El proyecto fue anunciado el 12 de julio y asegura que busca entender la naturaleza del universo

Comsocyc

La nueva compañía de inteligencia artificial (IA) de Elon Musk, xAI, se ha revelado con un nuevo sitio web que detalla su misión y equipo en https://x.ai/. Musk tuiteó que la intención de la compañía es «comprender la realidad», sin brindar más detalles o explicaciones, recupera el sitio The Verge.

«El objetivo de xAI es comprender la verdadera naturaleza del universo», según el sitio web. El equipo está encabezado por Elon Musk e incluye miembros que han trabajado en otras grandes empresas de IA, como OpenAI, Google Research, Microsoft Research y DeepMind (que recientemente se integró en Google).

Además de Musk, el sitio web enumera a Igor Babuschkin, Manuel Kroiss, Yuhuai (Tony) Wu, Christian Szegedy, Jimmy Ba, Toby Pohlen, Ross Nordeen, Kyle Kosic, Greg Yang, Guodong Zhang y Zihang Dai. El equipo de xAI cuenta actualmente con la asesoría de Dan Hendrycks, un investigador que lidera el Centro de Seguridad de la IA, una organización sin fines de lucro que tiene como objetivo «reducir los riesgos a gran escala asociados con la IA».

El equipo de @xAI organizará una discusión en Twitter Spaces el 14 de julio, donde los oyentes podrán «conocer al equipo y hacer preguntas», según indica el sitio web. No se ha especificado la hora exacta. Según el sitio web de xAI, la compañía es «independiente» de la empresa matriz de Musk, X Corp, «pero trabajará en estrecha colaboración con X (Twitter), Tesla y otras compañías». Recientemente, Musk impuso límites estrictos, aunque aparentemente temporales, a la lectura de Twitter, culpando este cambio a la extracción de datos realizada por startups de IA en busca de información para sus modelos de lenguaje de gran escala (LLMs, por sus siglas en inglés).

Tuvimos noticias de xAI por primera vez en abril, cuando los registros indicaron que Musk fundó la compañía en Nevada. En ese momento, Musk aparecía como director, con Jared Birchall, el director de la oficina familiar de Musk, como secretario. En ese momento se sabía poco sobre xAI, pero los informes sugerían que Musk buscaba financiamiento de SpaceX y Tesla para ponerla en marcha.

Musk ha sido parte de una importante organización de IA anteriormente, co-fundando OpenAI en 2015. Sin embargo, se alejó de ella en 2018 para evitar conflictos de interés con Tesla, que también realiza una gran cantidad de trabajo en este campo. Desde entonces, ha criticado abiertamente a OpenAI y reveló en una entrevista con Tucker Carlson que estaba trabajando en la creación de algo llamado «TruthGPT».

Yann LeCun: «La amenaza existencial de la inteligencia artificial es ridículamente exagerada»

Yann LeCun: «La amenaza existencial de la inteligencia artificial es ridículamente exagerada»

Las tecnologías de inteligencia artificial podrían conducir a un «renacimiento de la humanidad», señaló LeCun en declaraciones a la BBC

Yann LeCun, considerado uno de los

Yann LeCun, considerado uno de los «padrinos» de la IA. Foto vía Wikimedia

El pionero de la inteligencia artificial (IA), Yann LeCun, ha desestimado las preocupaciones sobre una amenaza existencial de la IA para la humanidad como algo «ridículo». Durante un evento centrado en la IA celebrado en París por Meta, donde ahora trabaja como científico jefe de IA , el profesor LeCun declaró a la BBC esta semana: «¿La IA tomará el control del mundo? No, esto es una proyección de la naturaleza humana en las máquinas».

Las declaraciones de LeCun –retomadas por DigitalTrends– contrastan con las de Geoffrey Hinton y Yoshua Bengio, con quienes recibió el Premio Turing en 2018 por avances en IA. Estos tres expertos son conocidos como «los padrinos de la IA». Hinton recientemente renunció a su cargo en Google para poder expresar libremente sus ideas sobre el desarrollo de la IA. En una reciente entrevista con CBS, al preguntársele sobre la posibilidad de que la IA «aniquile a la humanidad», Hinton respondió: «Eso no es inconcebible».

Por su parte, Bengio afirmó recientemente que aunque los sistemas de IA actuales están lejos de representar un riesgo existencial para la humanidad, es posible que las cosas se vuelvan «catastróficas» con versiones más avanzadas de la tecnología, señalando que existe «demasiada incertidumbre» sobre dónde podríamos estar con la IA en unos pocos años.

LeCun, sin embargo, parece estar más tranquilo respecto al rumbo que está tomando la IA, afirmando que los temores de que esta se apodere son exagerados. Si bien el profesor reconoció que la IA sin duda superará la inteligencia humana, afirmó que tomará años, e incluso décadas, alcanzar ese punto. Incluso en ese escenario, LeCun sostiene que la idea de que una IA superinteligente escape a nuestro control es «simplemente preposteramente ridícula», agregando que no es así como funciona nada en el mundo.

LeCun le dijo a la BBC que incluso un sistema de IA altamente avanzado «funcionaría en un centro de datos en algún lugar, con un interruptor de apagado. Y si te das cuenta de que no es seguro, simplemente no lo construyes».

El profesor considera que la IA, vista desde una perspectiva más positiva, conducirá a «un nuevo renacimiento para la humanidad», de manera similar a cómo internet o la imprenta transformaron la sociedad. Si bien la IA ha estado presente durante décadas, los avances recientes y rápidos en la tecnología la han puesto en primer plano, con herramientas poderosas como ChatGPT de OpenAI y los chatbots Bard de Google, que han ganado mucha publicidad por su impresionante capacidad para manejar datos y conversar de manera similar a los humanos.

Conversando sobre IA desde las Ciencias Sociales: sesgos, polarización y datos

Conversando sobre IA desde las Ciencias Sociales: sesgos, polarización y datos

Antony Flores Mérida

Participación en la primera sesión del conversatorio IA desde las Ciencias Sociales organizado por la Facultad de Ciencias Políticas y Sociales de la UNAM (25 de abril de 2023)

¿Cómo podemos garantizar que los datos utilizados para entrenar los sistemas de IA sean representativos e imparciales? En tal sentido: ¿En qué medida la IA permea la actual polarización política/social? ¿Ahora predominarán las Fake News?

Se me han planteado dos preguntas que revisten implicaciones muy distintas, así que trataré de abordar cada una en la medida de lo que he aprendido de y junto a estas herramientas y lo que, a partir de esas experiencias, creo que puedo decir.

Sobre la primera pregunta, es importante referir a lo que me parece que podríamos llamar sesgos de diseño y que están presentes en los modelos generativos de IA tanto como lo han estado en otras herramientas en la historia reciente de las tecnologías digitales de comunicación interactiva (o lo que otros han llamado TICs). Los sesgos de diseño en la investigación conducen a resultados erróneos y en el caso de herramientas de este tipo, a comportamientos que pueden ser calificados como discriminatorios: sectores de usuarios cada vez menos representados, cuyos intereses no son ponderados por los algoritmos o prácticas discursivas que terminan invisibilizadas por aquello que las tecnologías premian y que no siempre es lo que las sociedades que las usan más requieren.

En todo caso, el hecho de que estos sesgos nos hayan acompañado en las últimas décadas de desarrollo digital no implica que sean irresolubles y haya que resignarse a ellos. Safiya Umoja Noble (2018) ha denunciado el sexismo y racismo algorítmico y visibilizar estos fenómenos ha permitido intervenirlos. Eso me hace creer que los sesgos que empezamos a identificar en las IA pueden, con tiempo y el trabajo de análisis necesario, corregirse.

Pero se me pregunta sobre dos aspectos: la representatividad y la imparcialidad. Con respecto a lo primero, tenemos que meditar cómo discutiremos sobre representatividad (¿en términos estadísticos o cualitativos?) ante una máquina que puede ingerir cantidades difíciles de imaginar de datos.

Tuve que preguntar al propio Chat-GPT a cuánto ascendia la información usada para su entrenamiento: el repositorio Common Crawl consiste en aproximadamente 300 terabytes. ¿Es esto mucho, poco, suficiente?

Se vuelve difícil imaginar cómo la máquina de IA podría ser capaz de reproducir una visión del mundo que no sea la dominante cuando gran parte de su desarrollo se está dando desde los propios polos dominantes

Pensemos en una persona que toma una fotografía cada segundo. El archivo de cada imagen pesa 3 megabytes, a esa persona le tomaría 10 mil años acumular 300 Terabytes.

Para llenar esa cantidad, Chat GPT usó distintos tipos de fuentes de datos: redes sociales como Twitter y Reddit, sitios de noticias como BBC y New York Times así como libros y revistas, pero también blogs y foros en los que cualquiera de nosotros pudo haber participado… y por supuesto, informes provenientes de gobiernos (Estados Unidos, Canadá, Francia, Inglaterra, Australia, China… etcétera).

Y modelos de este tipo siguen en entrenamiento y es muy probable que, en algún momento, este proceso de datificación de la realidad llegue a un nivel en el que no haya “prácticamente” (e insisto en el énfasis) nada que los modelos de IA no sepan. Por lo que todo dato imaginable estará “representado” (y añado de nuevo el énfasis) en los modelos generativos.

Sin embargo, como el modelo ingiere todo, cabe esperar que aquellos polos de producción simbólica dominantes introduzcan en los modelos el sesgo suficiente para que sean esas representaciones y valoraciones (normativas, estéticas, políticas) las que reciban mayor atención de los modelos, sean por tanto más reproducidas y, eventualmente, consumidas.

Lo que sugiero con lo anterior es que se vuelve difícil imaginar cómo la máquina de IA podría ser capaz de reproducir una visión del mundo que no sea la dominante cuando gran parte de su desarrollo se está dando desde los propios polos dominantes. Las ideas de la clase dominante son las ideas dominantes en cada época sugerían un tal Marx y un tal Engel hace mucho tiempo, y a mi parecer, estas nuevas herramientas no se alejan mucho de aquel postulado.

Entonces, el hecho de que todo dato se encuentre representado en los modelos generativos no nos garantiza que todos estemos representados en las respuestas que nos ofrecen. Por el contrario, estamos en un escenario en el que hay una alta probabilidad de que ocurra lo contrario y que sean las ideas dominantes las que, de nuevo, encuentren un nicho (reluciente y potente) de reproducción. ¿Es esto inevitable? Yo creo que no.

Pensemos en las siguientes imágenes.

Imágenes generadas con Dall-e en Bing para el prompt: una mujer saliendo de la pantalla de un ordenador en versión arte digital.

Cuando al modelo se le da la instrucción, ofrece rostros y composiciones físicas de mujeres blancas. Por ello, se hace necesario añadir en la proposición (como se hizo para la imagen de la izquierda) que la mujer que sale de la pantalla es de rasgos afroamericanos, pues de otro modo, Dall-e seguirá produciendo una mujer blanca una y otra vez.

El modelo, como se puede ver, sabe cómo representar a una mujer afroamericana, pero no lo hace por sí mismo, hay que indicárselo. ¿Por qué? ¿Por qué las representaciones resultados del mismo prompt no varían entre cuerpos negros, morenos, asiáticos, etc.? ¿Por qué deben ser siempre cuerpos y pieles blancas? Esto no quiere decir (como puede ser fácil afirmar) que Dall-E es racista, pero sí nos da elementos para señalar que su diseño tiene un sesgo que reproduce el racismo estructural de la sociedad que construyó este modelo generativo.

De ello cabe decir que, para que el modelo mejore en este sentido (como deberá hacerlo en otros), se hace necesario identificar estos sesgos de diseño. Y la manera de identificar los problemas de la máquina es aprendiendo a usarla, conociendo cómo se alimenta y poniéndola a prueba.

IA y polarización, ¿cómo plantear la relación entre sendos fenómenos?

Las siguientes preguntas que se me plantean se podrían englobar en el problema tanto social como de conocimiento que estriba en los fenómenos de desinformación y polarización política.

Para esto me gustaría mostrar solo unos cuantos datos.  Decidí hacer una descarga de publicaciones de Twitter que abarcó desde el 1 de diciembre de 2022 y concluyó el 31 de marzo pasado. Busqué tweets en español que usaran el término “chat gpt” en el texto. El resultado fueron casi 220 mil publicaciones pero, como se ve en la gráfica que se muestra a continuación, lo que vemos es una tendencia que se ha mantenido durante los últimos meses y que muestra el interés creciente en una de las muchas herramientas de IA disponibles al gran público.

Fuente: Elaboración propia con datos extraídos de Twitter. Consultable en el enlace.

Cuando a principios de febrero, Chat GPT alcanzó sus primeros 100 millones de usuarios, entramos en un punto de no retorno no para la tecnología sino para nosotros como usuarios en términos de adopción de la herramienta. En este sentido, me parece que la preocupación sobre los fenómenos de desinformación, si bien justificada entre algunos sectores de la opinión pública y la academia debido a no pocos ejemplos de manipulación de plataformas en la historia reciente, aunque está presente entre los usuarios de los modelos generativos, no es la principal.

En la parte inferior izquierda del tablero están representados poco más de 3,600 mensajes, una fracción muy pequeña de los casi 220 mil producidos en español en un periodo de cuatro meses y si bien algunos refieren a temas como desinformación, noticias falsas y posibles usos maliciosos de modelos como Chat GPT, la mayoría en realidad señalan “errores” de la máquina: la forma en que ”alucina” al momento de tratar de dar respuesta a una pregunta para la que no tiene información, la producción de autores, títulos y afirmaciones inexistentes en la literatura académica, la incapacidad (temporal, habría que decir) del modelo para ser infalible.

Los usuarios están poniendo a prueba la fiabilidad de la máquina y eso es no solo pertinente sino necesario. ¿Puede ser usado Chat GPT para producir noticias falsas? Por supuesto: es una herramienta sumamente potente que está disponible de forma relativamente accesible (su versión de pago está a la par de algunos servicios de video en streaming). ¿Puede esto exacervar los procesos de polarización que ya vemos en algunos países latinoamericanos? No cabe duda. Pero esto está más relacionado con los propios procesos políticos que en determinadas regiones del mundo se están viviendo que con las características propias de la máquina.

Es decir: sin desestimar los perjuicios que el uso nocivo de modelos generativos de inteligencia artificial pueden producir en determinados contextos sociales, el primer lugar de intervención para evitar estos daños a la salud de las democracias contemporáneas está en los propios contextos de acogida de la tecnología.

El uso de este tipo de tecnologías tiene el potencial de exacerbar las condiciones que se presentan en contextos de polarización pero, como ciudadanía usuaria de este tipo de tecnologías, debemos dirigir nuestros reclamos hacia las fuentes de la polarización y a los actores que se han beneficiado de los fenómenos de desinformación.

Quisiera sostener este argumento a partir de lo que hemos visto que ocurre con otras herramientas como las plataformas de redes sociodigitales: el estudio de los procesos de plataformización ha dado cuenta de cómo cierto tipo de lógicas empresariales, en ocasiones de cariz bastante perverso, inciden en otros espacios sociales como lo son gobiernos y vida cotidiana. Ejemplos hay varios: la negligencia de Facebook en el uso y abuso de nuestros datos ha tenido consecuencias en procesos democráticos de diversos países (Cambridge Analytica), ciertos mercados tradicionales han sido invadidos mediante agresivas e incluso violentas estrategias de cabildeo ante gobiernos en paralelo a prácticas de intrusión de datos y espionaje corporativo (Uber), y las plataformas más populares de red social han sido incapaces para dotar a sus usuarios de herramientas efectivas para combatir la propagación de información falsa y maliciosa, además de para identificar y prevenir distintas formas de violencia digital.

Pero todos estos ejemplos han ocurrido con la connivencia de los poderes establecidos. Los distintos actores políticos han hecho poco y mal trabajo tratando de prevenir el uso malicioso de las plataformas. Aunado a ello, los intentos de regulación muchas veces se dirigen hacia los usuarios, lo que se ha advertido puede atraer un contexto menos democrático en términos de libre expresión. Y es en este tipo de contexto que estamos empezan a adoptar y apropiar los modelos generativos de IA.

Imágenes producidas mediante modelos generativos

Los modelos generativos pueden y seguramente serán usados de forma maliciosa sistemáticamente y esto exige esfuerzos en varios sentidos. Por un lado, se nos plantea un nuevo problema para los procesos de alfabetización digital, como profesionales de la comunicación o académicos debemos proveer a nuestras comunidades de recursos y herramientas que les permitan mantenerse adecuadamente informados y suficientemente alertas para poder identificar flujos de desinformación. Por otra parte, este mismo contexto exige de los actores sociales involucrados una participación más decidida en la producción de contenidos informativos confiables para los grandes públicos. Los medios masivos de comunicación han fallado en ese sentido durante un largo tiempo. No solo han desestimado a sus audiencias sino que se han adaptado poco y mal al nuevo contexto comunicacional… de las últimas dos décadas se podría decir.

Es decir, el uso de este tipo de tecnologías tiene el potencial de exacerbar las condiciones que se presentan en contextos que han sido objeto de procesos de polarización, como lo es México. Pero por alarmante que sea esta posibilidad, como ciudadanía usuaria de este tipo de tecnologías, debemos dirigir nuestros reclamos hacia las fuentes de la polarización y a los actores que se han beneficiado de los fenómenos de desinformación.

Por optimista que pueda parecer, no creo que nos vayan a inundar las noticias falsas. Eso, si ha de ocurrir, falta por verse. Pero si eso ocurre, no será tanto a causa de las cualidades de estas herramientas tecnológicas como por el espírituo con que pueden ser usadas por actores sociales y políticos que sí podemos identificar.

Por último y para poder continuar el diálogo con ustedes, creo que es pertinente decir que en algunos sectores de la academia y los medios, hay una alarma e incluso animadversión hacia los modelos generativos como si estos fueran a acabar con la sociedad como la conocemos. En este sentido, me parece que algunas valoraciones son más que nada normativas antes que basadas en evidencia. Es decir, algunos analistas están poniendo el carro delante de los caballos al tratar de predecir qué ha de ocurrir con las IA.

Estamos en un proceso en el que solo podemos ver una forma temporal de este tipo de herramientas. Con toda seguridad, los modelos generativos cambiarán a formas que aún no nos imaginamos y con probabilidad lo harán muy rápidamente. Piénsese en las redes sociodigitales, en el páramo de actualizaciones desarticuladas que eran a finales de la primera década de este siglo y cómo a fuerza de apropiación colectiva y mutuas contaminaciones entre distintas tecnologías adquirieron la forma con que las conocemos hoy. Las IA (que han estado con nosotros más tiempo del que creemos a primera vista) están empezando su aceleración y en términos de construcción social de la tecnología, estamos tratando de revelar sus controversias como parte del proceso de adopación. La forma en que resolvamos estas inquietudes nos llevarán por un camino u otro. Nuestro deber, desde las Ciencias Sociales, es no perder detalle de este proceso y, creo, tratar de entenderlo para después explicarlo. A la sociedad y a nosotros mismos.

Referencias

Noble, S. U. (2018). Algorithms of oppression: How search engines reinforce racism. New York University Press.