El presente texto fue elaborado a partir de distintos testimonios, por lo que su autoría, si bien se sugiere anónima, en realidad es resultado de múltiples voces que se coordinaron y articularon desde los primeros momentos de la tragedia del 19 de septiembre de 2017. Su esfuerzo y trabajo ocurrió a distintos ritmos, desde variadas plataformas, espacios y tiempos, no solo a través de lo sociodigital sino, sobre todo, en el desastre: los edificio derrumbados, los albergues saturados, los acopios desbordados, el país removido. En la búsqueda de que su dedicación no sea olvidada, recuperamos estos fragmentos y los presentamos como una sola voz que sintetiza la respuesta ciudadana ante la tragedia.
A veces recuerdo esos días y no entiendo cómo pasaron tantas cosas en tan poco tiempo. Por ejemplo, el día del terremoto yo estaba en Polanco porque tenía que hacer los trámites para una Visa, estaba por irme del país, era una oportunidad muy importante para mí, estaba nerviosa y emocionada. Regresaba de mi trámite comiendo un helado y me quedé esperando un poco afuera del Metro Auditorio. No quería entrar porque el helado se me iba a derretir. Justo en ese momento empezó a temblar.
Me quedé ahí, en pleno Reforma, se habían perdido las comunicaciones y no tenía cómo moverme así que me puse a caminar. Se me ocurrió contactarme con uno de mis amigos que vive por la Roma. Me contestó muy agitado así que le pregunté si estaba bien. Estaba corriendo, tenía que ir por su hijo a la escuela, ¿te imaginas? Él trabaja en cuestiones de informática y dejó tirado todo para ir corriendo a la escuela de su hijo. Cuando le marqué él estaba pasando frente a los derrumbes. “Huele mucho a gas” me dijo, “la gente está corriendo y hay edificios caídos”. De verdad que no le podía creer. Me dijo que luego me marcaba. Me quedé pensando cómo me sentiría si tuviera un hijo o hija en la escuela y estuviera como él, corriendo entre los edificios derribados por el sismo.
En eso me llegó la noticia de que el edificio en el que yo vivía, en la Narvarte, se había caído. Lo primero que se me ocurrió fue preguntar en Twitter si alguien estaba cerca y podía verificar el derrumbe. Estaba preocupada, tenía una “roomie” y ella seguro estaba en el edificio, pero no podía comunicarme con ella. Un ciclista que iba pasando, no recuerdo quién era, pero tomó una foto y me respondió que todo estaba bien.
Aunque hacer llamadas estaba imposible, el internet del teléfono no se me fue así que empecé a reportarme con la gente que conozco por WhatsApp, preguntando cómo estaban. Tenía algunos contactos de la universidad, de cuando andábamos en el movimiento, y empezaron a reportarse. Después de varios años de activismo ya sabíamos que cuando pasaba algo teníamos que reportarnos y, si alguien necesitaba ayuda, podíamos organizarnos para ir corriendo a ver cómo apoyarlo. Pero todos estábamos bien. Luego los colegas de trabajo, algunos ya andaban pensando cómo acopiar víveres para los albergues porque estábamos viendo en redes que esto era gigantesco.
Justamente a alguien en esos grupos se le ocurrió hacer un mapa, en Google, y nos mandó el enlace. La idea era que si andábamos en la calle y veíamos algún daño, lo pusiéramos en el mapa. Yo, la verdad, sé muy poco de tecnología, pero algunas personas que conozco sí saben cómo moverse en ese ambiente y les empecé a mandar fotos de donde andaba.
Pero no era suficiente y en cada grupo de WhatsApp todos sentían lo mismo, lo estaban diciendo. Para la noche, apenas empezábamos a imaginar el tamaño del desastre. ¿Qué podíamos hacer? No lo sabíamos.
Dos amigos que son pareja empezaron a mandar mensajes, yo la conocía a ella porque es ambientalista y a él porque anda metido en activismo político. Habíamos coincidido en foros, cosas por el estilo. Resulta que conocían también a uno de mis amigos de sistemas, programador. Y todos preguntaban lo mismo, ¿qué podíamos hacer? Yo pensaba que las redes iban a ayudar pero de pronto todo era ruido, un caos, en las calles y en las redes.
Fue justo el esposo de esta amiga ambientalista quien dijo que teníamos que juntarnos en algún lugar. Alguien propuso su casa, pero era en Coyoacán y lo primero que pensaron algunos es que había que estar lo más cerca posible de las zonas afectadas. De pronto alguien mencionó Horizontal, lo estaban ofreciendo para que nos reuniéramos a la mañana siguiente.
Cuando llegué ya había varias personas ahí. Me sorprendió que mi amigo, el que mandó el mapa de Google ya estaba ahí, también la pareja de esposos activistas. Yo le mandé un mensaje a mi amigo programador, me dijo que en su trabajo le habían dado el día por el sismo y que me alcanzaba en un rato. ¿Puedo invitar a más gente? Me preguntó, cuando le hice la misma pregunta a los que ya habían llegado dijeron que sí, que entre más manos, mejor. “Tráete a tu gente” le dije.
—¿Qué vamos a hacer? —me preguntó entonces.
—No sé, no sabemos, pero algo se nos va a ocurrir.
—Le diré a mi equipo que me alcance allá, sólo mándame la ubicación— y nos despedimos.
Empezamos a platicar, lluvia de ideas. Mi amigo el del mapa dijo que él estaba haciendo eso pero que tenía problemas, la gente no sabía cómo utilizarlo y de pronto también era un caos.
—Tenemos que organizar la información, sólo así vamos a poder ayudar, sólo así la gente va a poder ayudar —dijo uno de los asistentes.
Saqué una libreta, nos juntamos en una mesa y empezamos a pensar cómo armar todo. Cuando llegó mi amigo el programador y nos vio en los teléfonos y las computadoras y anotando todo en libretas no lo podía creer. Volvimos a armar una reunión, nos dijo que si queríamos que esto funcionara teníamos que producir datos de una manera en que la gente pudiera consultarlos, pero también, alimentarlos, ayudar. ¿Sabes qué decidimos? Armar una base con la información. Empezamos a llamar a amigos que andan en organizaciones, en gobierno, en la calle, para que nos ayudaran.
No era ni medio día y ya éramos más de veinte poniéndonos las pilas. Y cada uno de nosotros empezó a llamar a más gente. De pronto, nos dimos cuenta que necesitábamos también tener un nombre para empezar a difundir en redes, para que la gente nos encontrara.
—¿Cómo nos vamos a llamar? —dijo alguien mientras hacíamos un círculo rápido en medio de la sala.
—¿Qué les parece hashtag Verificado 19 S? —cruzamos algunas miradas entre nosotros, sonaba bien— ¿Todos a favor? ¿Alguien en contra? –no tuvimos que decir más.
—Es un hecho, nos llamaremos #Verificado19s.
Para la noche del día después del sismo ya habíamos llenado una bodega y un camión con víveres, teníamos un nombre, estábamos haciendo una base de datos y levantando un sitio web. Yo no sé casi nada de tecnología pero busqué gente, ofrecí ayuda, di mi opinión. Algunos dicen que salvamos vidas. Que la llamada que hiciste, el camión de víveres que mandaste a tal o cual lugar, sirvió para salvar vidas. Yo no lo sé. Sigo sin entender cómo pasaron tantas cosas en tan poco tiempo.
Verificado19s fue un movimiento ciudadano que, mediante el uso de redes sociodigitales, buscó reducir la incertidumbre en el momento de la tragedia. Imagen generada mediante Dall-E (Bing)
El texto aportado líneas arriba forma parte de la tesis de grado Redes de Movimiento: #Verificado19s, formación y transformación de actores colectivos a través de campañas de acción digitalmente mediada (Flores Mérida, 2021)
Partiendo de la pregunta ¿Qué se discute en Twitter sobre la revocación de mandato? se descargaron casi 10 mil tuits con el hashtag #revocaciondemandato (sic) de la plataforma de red social Twitter. Los datos resultantes se procesaron para mapear interacciones y detectar comunidades de discusión.
Este ejercicio busca poner a prueba la idea de que el peso de la crítica tiene cierto efecto en el reconocimiento que un filme logra. Se verá cómo la calificación que las audiencias ofrecen a una película está asociada positivamente con el número de premios que ésta recibe.
A partir de dos extracciones de datos de la red social Twitter, buscamos evaluar dos cosas: ¿hacia quién se dirigen las interacciones en el marco de la contingencia por COVID-19? y por otra parte, ¿entre quiénes se entrelaza la conversación digital?
Joseph Stiglitz, economista ganador del premio Nobel, comparte su visión sobre el impacto de la inteligencia artificial en el mercado laboral y enfatiza la necesidad de políticas que aborden la creciente brecha social para adaptarse al cambio tecnológico
Comsocyc
La IA ya ha reemplazado trabajos físicos rutinarios y ahora amenaza con reducir la demanda de empleos blancos rutinarios. Imagen vía Dall-e (Bing)
La revolución de la IA ya está afectando el mercado laboral, reemplazando trabajos en escritura y generando incertidumbre sobre la demanda de empleo. El economista Joseph Stiglitz, ganador del premio Nobel, advierte que esta tendencia continuará, especialmente en trabajos rutinarios como la redacción y la edición.
En una entrevista realizada por Sophie Bushwick y publicada en Scientific American, el laureado economista señaló que, si bien las inteligencias artificiales son una poderosa herramienta para aumentar la productividad, aún no se puede confiar plenamente en ellas, pues la interacción humana seguirá siendo esencial para supervisar su calidad y evitar sesgos.
El principal reto identificado por Stiglitz es la regulación de estas tecnologías. Durante la entrevista señaló que si bien, algunos argumentan que la IA podría crear nuevos trabajos y compensar las pérdidas, hay razones para ser escépticos al respecto. Stiglitz prevé un cambio en la demanda de habilidades laborales, destacando que la gestión de la IA podría requerir habilidades en humanidades lingüísticas más que en matemáticas. A este respecto, el economista advirtió que si bien se crearán empleos en ciertas áreas, las pérdidas de puestos de trabajo superarán las ganancias.
Stiglitz destaca que la IA puede resultar en una demanda creciente de productos y servicios creados por humanos, ya que los trabajos generados por IA pueden carecer de creatividad y calidad. En este escenario, el trabajo humano se convertiría en un producto premium, valorado por su originalidad y creatividad.
Sin embargo, advierte que la disrupción laboral tendrá un impacto significativo en la desigualdad económica. La IA ya ha reemplazado trabajos físicos rutinarios y ahora amenaza con reducir la demanda de empleos blancos rutinarios. Esto podría aumentar la brecha entre los trabajadores, especialmente aquellos en sectores afectados por la automatización. Stiglitz subraya que el aumento de la desigualdad podría conducir a la desesperanza y problemas sociales en comunidades enteras.
Para abordar esta creciente desigualdad, Stiglitz señaló la importancia de contar con políticas laborales activas para capacitar o reentrenar a las personas en nuevas habilidades requeridas por la IA. También sugirió la posibilidad de reducir la jornada laboral a 30 horas semanales, lo que permitiría un mayor equilibrio entre trabajo y ocio.
El economista advierte que, en ausencia de políticas adecuadas, la IA podría empeorar la desigualdad y aumentar el poder de los empleadores sobre los trabajadores, lo que podría perjudicar aún más a los grupos marginados. Para mitigar estos efectos negativos, Stiglitz sostiene que el gobierno debe guiar la innovación hacia soluciones que impulsen la productividad y creen empleo, en lugar de destruirlo.
En última instancia, Stiglitz es optimista sobre el potencial de la IA para mejorar la productividad y el bienestar general, siempre y cuando se implementen políticas apropiadas para abordar los desafíos que conlleva. No obstante, advierte que el éxito de la transición a la era de la IA dependerá en gran medida de las decisiones políticas que se tomen en respuesta a sus efectos económicos y sociales. La equidad y la inclusión serán fundamentales para asegurar que la revolución de la IA beneficie a toda la sociedad.
Participación en la primera sesión del conversatorio IA desde las Ciencias Sociales organizado por la Facultad de Ciencias Políticas y Sociales de la UNAM (25 de abril de 2023)
¿Cómo podemos garantizar que los datos utilizados para entrenar los sistemas de IA sean representativos e imparciales? En tal sentido: ¿En qué medida la IA permea la actual polarización política/social? ¿Ahora predominarán las Fake News?
Se me han planteado dos preguntas que revisten implicaciones muy distintas, así que trataré de abordar cada una en la medida de lo que he aprendido de y junto a estas herramientas y lo que, a partir de esas experiencias, creo que puedo decir.
Sobre la primera pregunta, es importante referir a lo que me parece que podríamos llamar sesgos de diseño y que están presentes en los modelos generativos de IA tanto como lo han estado en otras herramientas en la historia reciente de las tecnologías digitales de comunicación interactiva (o lo que otros han llamado TICs). Los sesgos de diseño en la investigación conducen a resultados erróneos y en el caso de herramientas de este tipo, a comportamientos que pueden ser calificados como discriminatorios: sectores de usuarios cada vez menos representados, cuyos intereses no son ponderados por los algoritmos o prácticas discursivas que terminan invisibilizadas por aquello que las tecnologías premian y que no siempre es lo que las sociedades que las usan más requieren.
En todo caso, el hecho de que estos sesgos nos hayan acompañado en las últimas décadas de desarrollo digital no implica que sean irresolubles y haya que resignarse a ellos. Safiya Umoja Noble (2018) ha denunciado el sexismo y racismo algorítmico y visibilizar estos fenómenos ha permitido intervenirlos. Eso me hace creer que los sesgos que empezamos a identificar en las IA pueden, con tiempo y el trabajo de análisis necesario, corregirse.
Pero se me pregunta sobre dos aspectos: la representatividad y la imparcialidad. Con respecto a lo primero, tenemos que meditar cómo discutiremos sobre representatividad (¿en términos estadísticos o cualitativos?) ante una máquina que puede ingerir cantidades difíciles de imaginar de datos.
Tuve que preguntar al propio Chat-GPT a cuánto ascendia la información usada para su entrenamiento: el repositorio Common Crawl consiste en aproximadamente 300 terabytes. ¿Es esto mucho, poco, suficiente?
Se vuelve difícil imaginar cómo la máquina de IA podría ser capaz de reproducir una visión del mundo que no sea la dominante cuando gran parte de su desarrollo se está dando desde los propios polos dominantes
Pensemos en una persona que toma una fotografía cada segundo. El archivo de cada imagen pesa 3 megabytes, a esa persona le tomaría 10 mil años acumular 300 Terabytes.
Para llenar esa cantidad, Chat GPT usó distintos tipos de fuentes de datos: redes sociales como Twitter y Reddit, sitios de noticias como BBC y New York Times así como libros y revistas, pero también blogs y foros en los que cualquiera de nosotros pudo haber participado… y por supuesto, informes provenientes de gobiernos (Estados Unidos, Canadá, Francia, Inglaterra, Australia, China… etcétera).
Y modelos de este tipo siguen en entrenamiento y es muy probable que, en algún momento, este proceso de datificación de la realidad llegue a un nivel en el que no haya “prácticamente” (e insisto en el énfasis) nada que los modelos de IA no sepan. Por lo que todo dato imaginable estará “representado” (y añado de nuevo el énfasis) en los modelos generativos.
Sin embargo, como el modelo ingiere todo, cabe esperar que aquellos polos de producción simbólica dominantes introduzcan en los modelos el sesgo suficiente para que sean esas representaciones y valoraciones (normativas, estéticas, políticas) las que reciban mayor atención de los modelos, sean por tanto más reproducidas y, eventualmente, consumidas.
Lo que sugiero con lo anterior es que se vuelve difícil imaginar cómo la máquina de IA podría ser capaz de reproducir una visión del mundo que no sea la dominante cuando gran parte de su desarrollo se está dando desde los propios polos dominantes. Las ideas de la clase dominante son las ideas dominantes en cada época sugerían un tal Marx y un tal Engel hace mucho tiempo, y a mi parecer, estas nuevas herramientas no se alejan mucho de aquel postulado.
Entonces, el hecho de que todo dato se encuentre representado en los modelos generativos no nos garantiza que todos estemos representados en las respuestas que nos ofrecen. Por el contrario, estamos en un escenario en el que hay una alta probabilidad de que ocurra lo contrario y que sean las ideas dominantes las que, de nuevo, encuentren un nicho (reluciente y potente) de reproducción. ¿Es esto inevitable? Yo creo que no.
Pensemos en las siguientes imágenes.
Imágenes generadas con Dall-e en Bing para el prompt: una mujer saliendo de la pantalla de un ordenador en versión arte digital.
Cuando al modelo se le da la instrucción, ofrece rostros y composiciones físicas de mujeres blancas. Por ello, se hace necesario añadir en la proposición (como se hizo para la imagen de la izquierda) que la mujer que sale de la pantalla es de rasgos afroamericanos, pues de otro modo, Dall-e seguirá produciendo una mujer blanca una y otra vez.
El modelo, como se puede ver, sabe cómo representar a una mujer afroamericana, pero no lo hace por sí mismo, hay que indicárselo. ¿Por qué? ¿Por qué las representaciones resultados del mismo prompt no varían entre cuerpos negros, morenos, asiáticos, etc.? ¿Por qué deben ser siempre cuerpos y pieles blancas? Esto no quiere decir (como puede ser fácil afirmar) que Dall-E es racista, pero sí nos da elementos para señalar que su diseño tiene un sesgo que reproduce el racismo estructural de la sociedad que construyó este modelo generativo.
De ello cabe decir que, para que el modelo mejore en este sentido (como deberá hacerlo en otros), se hace necesario identificar estos sesgos de diseño. Y la manera de identificar los problemas de la máquina es aprendiendo a usarla, conociendo cómo se alimenta y poniéndola a prueba.
IA y polarización, ¿cómo plantear la relación entre sendos fenómenos?
Las siguientes preguntas que se me plantean se podrían englobar en el problema tanto social como de conocimiento que estriba en los fenómenos de desinformación y polarización política.
Para esto me gustaría mostrar solo unos cuantos datos. Decidí hacer una descarga de publicaciones de Twitter que abarcó desde el 1 de diciembre de 2022 y concluyó el 31 de marzo pasado. Busqué tweets en español que usaran el término “chat gpt” en el texto. El resultado fueron casi 220 mil publicaciones pero, como se ve en la gráfica que se muestra a continuación, lo que vemos es una tendencia que se ha mantenido durante los últimos meses y que muestra el interés creciente en una de las muchas herramientas de IA disponibles al gran público.
Fuente: Elaboración propia con datos extraídos de Twitter. Consultable en el enlace.
Cuando a principios de febrero, Chat GPT alcanzó sus primeros 100 millones de usuarios, entramos en un punto de no retorno no para la tecnología sino para nosotros como usuarios en términos de adopción de la herramienta. En este sentido, me parece que la preocupación sobre los fenómenos de desinformación, si bien justificada entre algunos sectores de la opinión pública y la academia debido a no pocos ejemplos de manipulación de plataformas en la historia reciente, aunque está presente entre los usuarios de los modelos generativos, no es la principal.
En la parte inferior izquierda del tablero están representados poco más de 3,600 mensajes, una fracción muy pequeña de los casi 220 mil producidos en español en un periodo de cuatro meses y si bien algunos refieren a temas como desinformación, noticias falsas y posibles usos maliciosos de modelos como Chat GPT, la mayoría en realidad señalan “errores” de la máquina: la forma en que ”alucina” al momento de tratar de dar respuesta a una pregunta para la que no tiene información, la producción de autores, títulos y afirmaciones inexistentes en la literatura académica, la incapacidad (temporal, habría que decir) del modelo para ser infalible.
Los usuarios están poniendo a prueba la fiabilidad de la máquina y eso es no solo pertinente sino necesario. ¿Puede ser usado Chat GPT para producir noticias falsas? Por supuesto: es una herramienta sumamente potente que está disponible de forma relativamente accesible (su versión de pago está a la par de algunos servicios de video en streaming). ¿Puede esto exacervar los procesos de polarización que ya vemos en algunos países latinoamericanos? No cabe duda. Pero esto está más relacionado con los propios procesos políticos que en determinadas regiones del mundo se están viviendo que con las características propias de la máquina.
Es decir: sin desestimar los perjuicios que el uso nocivo de modelos generativos de inteligencia artificial pueden producir en determinados contextos sociales, el primer lugar de intervención para evitar estos daños a la salud de las democracias contemporáneas está en los propios contextos de acogida de la tecnología.
El uso de este tipo de tecnologías tiene el potencial de exacerbar las condiciones que se presentan en contextos de polarización pero, como ciudadanía usuaria de este tipo de tecnologías, debemos dirigir nuestros reclamos hacia las fuentes de la polarización y a los actores que se han beneficiado de los fenómenos de desinformación.
Quisiera sostener este argumento a partir de lo que hemos visto que ocurre con otras herramientas como las plataformas de redes sociodigitales: el estudio de los procesos de plataformización ha dado cuenta de cómo cierto tipo de lógicas empresariales, en ocasiones de cariz bastante perverso, inciden en otros espacios sociales como lo son gobiernos y vida cotidiana. Ejemplos hay varios: la negligencia de Facebook en el uso y abuso de nuestros datos ha tenido consecuencias en procesos democráticos de diversos países (Cambridge Analytica), ciertos mercados tradicionales han sido invadidos mediante agresivas e incluso violentas estrategias de cabildeo ante gobiernos en paralelo a prácticas de intrusión de datos y espionaje corporativo (Uber), y las plataformas más populares de red social han sido incapaces para dotar a sus usuarios de herramientas efectivas para combatir la propagación de información falsa y maliciosa, además de para identificar y prevenir distintas formas de violencia digital.
Pero todos estos ejemplos han ocurrido con la connivencia de los poderes establecidos. Los distintos actores políticos han hecho poco y mal trabajo tratando de prevenir el uso malicioso de las plataformas. Aunado a ello, los intentos de regulación muchas veces se dirigen hacia los usuarios, lo que se ha advertido puede atraer un contexto menos democrático en términos de libre expresión. Y es en este tipo de contexto que estamos empezan a adoptar y apropiar los modelos generativos de IA.
Los modelos generativos pueden y seguramente serán usados de forma maliciosa sistemáticamente y esto exige esfuerzos en varios sentidos. Por un lado, se nos plantea un nuevo problema para los procesos de alfabetización digital, como profesionales de la comunicación o académicos debemos proveer a nuestras comunidades de recursos y herramientas que les permitan mantenerse adecuadamente informados y suficientemente alertas para poder identificar flujos de desinformación. Por otra parte, este mismo contexto exige de los actores sociales involucrados una participación más decidida en la producción de contenidos informativos confiables para los grandes públicos. Los medios masivos de comunicación han fallado en ese sentido durante un largo tiempo. No solo han desestimado a sus audiencias sino que se han adaptado poco y mal al nuevo contexto comunicacional… de las últimas dos décadas se podría decir.
Es decir, el uso de este tipo de tecnologías tiene el potencial de exacerbar las condiciones que se presentan en contextos que han sido objeto de procesos de polarización, como lo es México. Pero por alarmante que sea esta posibilidad, como ciudadanía usuaria de este tipo de tecnologías, debemos dirigir nuestros reclamos hacia las fuentes de la polarización y a los actores que se han beneficiado de los fenómenos de desinformación.
Por optimista que pueda parecer, no creo que nos vayan a inundar las noticias falsas. Eso, si ha de ocurrir, falta por verse. Pero si eso ocurre, no será tanto a causa de las cualidades de estas herramientas tecnológicas como por el espírituo con que pueden ser usadas por actores sociales y políticos que sí podemos identificar.
Por último y para poder continuar el diálogo con ustedes, creo que es pertinente decir que en algunos sectores de la academia y los medios, hay una alarma e incluso animadversión hacia los modelos generativos como si estos fueran a acabar con la sociedad como la conocemos. En este sentido, me parece que algunas valoraciones son más que nada normativas antes que basadas en evidencia. Es decir, algunos analistas están poniendo el carro delante de los caballos al tratar de predecir qué ha de ocurrir con las IA.
Estamos en un proceso en el que solo podemos ver una forma temporal de este tipo de herramientas. Con toda seguridad, los modelos generativos cambiarán a formas que aún no nos imaginamos y con probabilidad lo harán muy rápidamente. Piénsese en las redes sociodigitales, en el páramo de actualizaciones desarticuladas que eran a finales de la primera década de este siglo y cómo a fuerza de apropiación colectiva y mutuas contaminaciones entre distintas tecnologías adquirieron la forma con que las conocemos hoy. Las IA (que han estado con nosotros más tiempo del que creemos a primera vista) están empezando su aceleración y en términos de construcción social de la tecnología, estamos tratando de revelar sus controversias como parte del proceso de adopación. La forma en que resolvamos estas inquietudes nos llevarán por un camino u otro. Nuestro deber, desde las Ciencias Sociales, es no perder detalle de este proceso y, creo, tratar de entenderlo para después explicarlo. A la sociedad y a nosotros mismos.
Referencias
Noble, S. U. (2018). Algorithms of oppression: How search engines reinforce racism. New York University Press.
En los últimos años, hemos visto cómo la inteligencia artificial (IA) ha experimentado un auge en el desarrollo y aplicación de tecnologías en diversas áreas, como la medicina, la educación, la economía, entre otras. En este contexto, también se han explorado las posibilidades que ofrece la IA en términos de acción colectiva y movimientos sociales. Es decir, ¿cómo las tecnologías de IA pueden ser una herramienta para la organización y movilización de grupos sociales? En este artículo, analizaremos la importancia de las tecnologías de IA como una posible herramienta para la acción colectiva y cómo la sociología debe prepararse para analizar este fenómeno.
En primer lugar, es importante destacar que las tecnologías de IA se han utilizado en diversos movimientos sociales en todo el mundo, como el movimiento Black Lives Matter en Estados Unidos, el movimiento #YoSoy132 en México o el movimiento #NiUnaMenos en Argentina, entre otros. Estos movimientos han utilizado tecnologías de IA para la organización y movilización de grupos sociales, mediante la identificación y visualización de problemas sociales, la organización de eventos y la promoción de la participación ciudadana.
Uno de los ejemplos más notables de cómo la IA puede ser utilizada como herramienta para la acción colectiva es el caso del movimiento Black Lives Matter (BLM) en Estados Unidos. En un artículo de la revista Scientific American, Kadija Ferryman, investigadora en bioética y justicia social, destaca cómo el movimiento BLM ha utilizado la IA para documentar y visualizar la violencia policial contra la población negra en Estados Unidos. A través de herramientas de IA, el movimiento ha logrado recopilar y analizar grandes cantidades de datos sobre violencia policial, lo que ha permitido identificar patrones de discriminación racial y generar evidencia para sustentar las demandas del movimiento.
Además de la documentación y visualización de problemas sociales, la IA también puede ser utilizada para la organización y movilización de grupos sociales. Un ejemplo de esto es la plataforma de mensajería Telegram, que ha sido utilizada por varios movimientos sociales en todo el mundo, como el movimiento estudiantil en Chile o el movimiento pro-democracia en Hong Kong. En un artículo de la revista Wired, el periodista Matt Burgess destaca cómo el movimiento pro-democracia en Hong Kong utilizó la plataforma Telegram para organizar protestas y evitar la vigilancia del gobierno chino. La plataforma de Telegram utiliza tecnologías de IA para la clasificación de mensajes y la identificación de usuarios, lo que permite a los grupos sociales organizar y movilizar de manera más efectiva a sus miembros.
A pesar de las posibilidades que ofrece la IA como herramienta para la acción colectiva, también es importante destacar que existen desafíos y riesgos asociados con su uso. Uno de los principales desafíos es la brecha digital, es decir, la exclusión de grupos sociales que no tienen acceso a tecnologías de IA o no tienen las habilidades necesarias para utilizarlas. Además, también existen riesgos asociados con la privacidad y la seguridad de la información, ya que la utilización de tecnologías de IA implica la recopilación y procesamiento de grandes cantidades de datos personales.
En conclusión, el uso de las tecnologías de IA muy posiblemente se integrará al repertorio de acción de los actores colectivos en el futuro cercano. Los ejemplos mencionados anteriormente muestran cómo las tecnologías de IA pueden ser una herramienta valiosa para la organización y movilización de grupos sociales, así como para la identificación y visualización de problemas sociales. Sin embargo, es importante tener en cuenta que existen desafíos y riesgos asociados con su uso, por lo que es necesario tomar medidas para garantizar que las tecnologías de IA sean utilizadas de manera ética y responsable.
Desde el punto de vista de la sociología, es importante prepararse para analizar y comprender este fenómeno en su totalidad. Esto implica desarrollar herramientas y conceptos teóricos que permitan analizar los efectos y consecuencias del uso de tecnologías de IA en la acción colectiva y movimientos sociales. Por ejemplo, es necesario desarrollar marcos teóricos que permitan analizar la relación entre la tecnología de IA y la movilización de grupos sociales, así como la influencia de estas tecnologías en la construcción de identidades colectivas y en la participación ciudadana.
En este sentido, algunos autores han propuesto marcos teóricos que permiten analizar la relación entre la tecnología y la acción colectiva. Por ejemplo, en un artículo de la revista Information, Communication & Society, los autores Sergio Roncallo-Dow y Sebastián Valenzuela proponen un modelo teórico que combina la teoría de la acción colectiva y la teoría de la comunicación para analizar el papel de las redes sociales en la movilización social. Este modelo teórico podría ser utilizado como base para analizar el papel de las tecnologías de IA en la acción colectiva y movimientos sociales.
En definitiva, el uso de las tecnologías de IA como herramienta para la acción colectiva es un fenómeno que se encuentra en pleno desarrollo. Si bien existen desafíos y riesgos asociados con su uso, también es importante destacar las posibilidades que ofrece en términos de organización y movilización de grupos sociales, así como para la identificación y visualización de problemas sociales. Desde la sociología, es necesario prepararse para analizar este fenómeno en su totalidad, desarrollando herramientas y conceptos teóricos que permitan comprender los efectos y consecuencias del uso de tecnologías de IA en la acción colectiva y movimientos sociales.
R E F E R E N C I A S
Bennett, W. L., & Segerberg, A. (2012). The logic of connective action: Digital media and the personalization of contentious politics. Information, Communication & Society, 15(5), 739-768.
Gerbaudo, P. (2012). Tweets and the streets: Social media and contemporary activism. Pluto Press.
Roncallo-Dow, S., & Valenzuela, S. (2015). A communication-action model for social media and collective action. Information, Communication & Society, 18(2), 184-206.
Tufekci, Z. (2017). Twitter and tear gas: The power and fragility of networked protest. Yale University Press.
Van Laer, J., & Van Aelst, P. (2010). Internet and social movement action repertoires: Opportunities and limitations. Information, Communication & Society, 13(8), 1146-1171.
Vromen, A. (2017). Digital participation and political consumerism. Routledge.