Introducción al sesgo de las máquinas – Cómo funcionan los algoritmos para controlar y filtrar la información que vemos en nuestras noticias, y qué podemos hacer para recuperar el control de nuestras noticias.
Después de esta lección, serás capaz de:
La inteligencia artificial y sus algoritmos son términos familiares para todos nosotros, pero sus aplicaciones y funciones pueden eludir una comprensión clara. Nos enfrentamos a ellos con regularidad, si no a diario, y con mucha más frecuencia de lo que creemos. Si bien es cierto que los algoritmos agilizan numerosas operaciones en diversos ámbitos, es crucial reconocer que estas herramientas, aunque potentes, no son perfectas y, en ocasiones, pueden perpetuar la discriminación de forma inadvertida.
Los algoritmos de las redes sociales son complejos conjuntos de reglas informáticas y modelos matemáticos diseñados para clasificar y priorizar las publicaciones, imágenes, vídeos y otros tipos de contenido que se muestran en las noticias de los usuarios.
Cada clic, cada «me gusta», cada «compartir» da forma a nuestras noticias y, por extensión, a nuestra visión del mundo. Comprender este mecanismo es el primer paso hacia un uso más consciente y equilibrado de las redes sociales.
Este complejo y dinámico conjunto de algoritmos influye no sólo en el contenido que vemos, sino también en la forma en que percibimos el mundo.
Una “burbuja de filtros” es la realidad personalizada creada por algoritmos que nos ofrece el feed de noticias. Eli PARISER popularizó esta noción en su libro: “The Filter Bubble: How the New Personalised Web Is Changing What We Read and How We Think”.
Según PARISER, los usuarios se encuentran a menudo expuestos a un flujo restringido de información que refuerza sus opiniones existentes y les aísla de opiniones contradictorias o perspectivas diferentes.
Al filtrar la información y presentarnos una realidad personalizada, tienen el poder de reforzar las creencias existentes y moldear las opiniones y comportamientos sociales.
Como resultado, los usuarios a menudo se ven expuestos a un flujo restringido de información que refuerza sus opiniones existentes y les aísla de opiniones contradictorias o perspectivas diferentes. Esto puede limitar la comprensión y los conocimientos de los usuarios sobre diversos temas, crear cámaras de eco y contribuir potencialmente a la polarización de las opiniones sobre cuestiones importantes.
Ejemplos cotidianos de la vida real que muestran cómo los algoritmos han influido en las tendencias y los debates de las redes sociales.
Si ves un vídeo en el que se critican determinadas prácticas culturales o religiosas de un país extranjero, el algoritmo te recomendará otros vídeos en los que se critica al mismo país u otros vídeos en los que se retratan prácticas culturales similares de forma estereotipada… ¡Caes de lleno en el pensamiento uniforme!
En Facebook, los algoritmos de noticias pueden amplificar ciertas noticias. Como resultado, por ejemplo, historias particularmente insignificantes pueden convertirse en virales, mientras que otras, quizás importantes, pierden visibilidad. Ejemplo: En 2021, el vídeo de David Allen bailando la canción «Stay» de Kid Laroi y Justin Bieber recibió 43,9 millones de “me gusta” y más de 313 millones de visitas en TikTok..
Hashtags en Twitter. Por ejemplo, el hashtag #MeToo ha desencadenado un amplio debate mundial sobre el acoso sexual y las agresiones sexuales, gracias en gran parte al algoritmo de Twitter que ha favorecido los tuits que utilizan este hashtag por su popularidad y relevancia.
En Instagram, los algoritmos tienden a favorecer el contenido de las personas influyentes con un gran número de seguidores y una alta participación, lo que puede afectar a las tendencias de la moda y a la sociedad en su conjunto y orientar a los consumidores hacia determinados productos.
Algorithms can sometimes contribute to the rapid spread of disinformation, as content that elicits strong reactions is often more widely disseminated. For example, conspiracy theories and misinformation regarding COVID-19 have spread rapidly across multiple platforms,
Se ha debatido sobre el uso indebido de algoritmos en la difusión de contenidos políticos polarizantes y en la posible influencia en las elecciones. Por ejemplo, la Agencia de Investigación de Internet (IRA) de Rusia utilizó anuncios dirigidos en las redes sociales para suprimir los votos negros a favor de Hillary Clinton y ayudar así a Donald Trump en 2016.
Estrategias para recuperar el control de tu News Feed:
Por ejemplo, puedes elegir seguir o silenciar determinadas cuentas, o cambiar cómo se ordenan los contenidos.
con otros tipos de contenidos.
No confíes únicamente en tus noticias.
su lista de contactos puede ayudar a reducirlos.
Alejarte de las redes sociales puede ayudarte a resetear tus algoritmos y darte una nueva perspectiva. Haz una dieta digital.
Aplicaciones como Feedly o Flipboard te permiten crear tu propio feed de noticias seleccionando fuentes y temas específicos. Esto te da más control sobre el contenido que ves, independientemente de los algoritmos de las redes sociales.
➜ Si adoptas estos reflejos, podrás controlar mejor el contenido que aparece en tu News Feed, haciéndolo más relevante e interesante para ti.
➜ Sin embargo, controlar directamente los algoritmos de las redes sociales no es posible para los usuarios, ya que estos algoritmos son propiedad y están gestionados por las propias empresas de redes sociales. No olvides nunca que detrás de una máquina siempre hay un espíritu humano (o incluso un imperio económico muy poderoso) y que la neutralidad no existe.
➜ Aunque estas herramientas y estrategias no permiten controlar directamente los algoritmos, sí ofrecen gestionar lo que se ve en las redes sociales, para tener una experiencia en línea más personalizada y controlada.
Cifras clave/Artículo: las 30 marcas más poderosas en las redes sociales en 2023 https://www.fastcompany.com/90849097/most-innovative-companies-social-media-2023
Tools: aquí hay extensiones del navegador, como F.B. Purity para Facebook, que permiten a los usuarios personalizar su experiencia en las redes sociales. Estas extensiones pueden ofrecer opciones para filtrar determinados tipos de contenido, organizar las noticias de forma diferente o bloquear anuncios.
Libros y estudios
– Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy by Cathy O’Neil, Ed. Crown September 2016 (Este libro examina cómo los algoritmos, bajo la apariencia de objetividad, pueden reforzar la desigualdad y los prejuicios).
– Algorithms of Oppression: How Search Engines Reinforce Racism by Safiya Umoja Noble, Ed. NYU Press 2018 (Noble explora cómo los algoritmos de búsqueda, especialmente los utilizados por grandes empresas como Google, pueden perpetuar estereotipos racistas y sexistas).
– The Filter Bubble: How the New Personalised Web Is Changing What We Read and How We Think by Eli Pariser, Ed. New York, Penguin Press, 2011 (Pariser analiza cómo los algoritmos de personalización en Internet crean «burbujas de filtros» que limitan nuestra exposición a información y perspectivas diversas).
– Automating Inequality: How High-Tech Tools Profile, Police, and Punish the Poor by Virginia Eubanks. Ed. St. Martin’s Press, New York, 2018 (Este libro se centra en cómo se utilizan los algoritmos para gestionar los servicios sociales, a menudo en detrimento de las poblaciones más vulnerables).
– Data and Goliath: The Hidden Battles to Collect Your Data and Control Your World by Bruce Schneier. Ed. W.W. Norton & Company, 2015 (Schneier explora las enormes cantidades de datos que se recopilan sobre nosotros en línea y cómo se utilizan, a menudo de forma opaca).
Financiado por la Unión Europea. No obstante, los puntos de vista y opiniones expresados son exclusivamente los del autor o autores y no reflejan necesariamente los de la Unión Europea ni los de la Agencia Ejecutiva en el Ámbito Educativo y Cultural Europeo (EACEA). Ni la Unión Europea ni la EACEA pueden ser consideradas responsables de las mismas. Número de proyecto: 2022-2-IE01-KA220-YOU-000099163