Einführung in die maschinelle Verzerrung – Wie Algorithmen funktionieren, um die Informationen zu kontrollieren und zu filtern, die wir in unseren Newsfeeds sehen, und was wir tun können, um die Kontrolle über unsere Newsfeeds zurückzugewinnen.
Nach dieser Lektion werden Sie in der Lage sein:
Künstliche Intelligenz und ihre Algorithmen sind Begriffe, die uns allen vertraut sind, doch ihre Anwendungen und Funktionen entziehen sich oft einem klaren Verständnis. Wir begegnen ihnen regelmäßig, wenn nicht sogar täglich und weitaus häufiger, als uns vielleicht bewusst ist. Obwohl Algorithmen in der Tat zahlreiche Vorgänge in verschiedenen Bereichen rationalisieren, muss man sich darüber im Klaren sein, dass diese Werkzeuge zwar leistungsfähig, aber nicht fehlerfrei sind und manchmal unbeabsichtigt zu Diskriminierungen führen können.
Ihre Social-Feed-Algorithmen sind komplexe Sätze von Computerregeln und mathematischen Modellen, die entwickelt wurden, um Beiträge, Bilder, Videos und andere Arten von Inhalten für die Anzeige im News Feed eines Nutzers zu ordnen und zu priorisieren.
Jeder Klick, jedes Like, jeder Share prägt unseren Newsfeed – und damit auch unsere Sicht auf die Welt. Diesen Mechanismus zu verstehen, ist der erste Schritt zu einem bewussteren und ausgewogeneren Umgang mit sozialen Netzwerken!
Diese komplexen und dynamischen Algorithmen beeinflussen nicht nur die Inhalte, die wir sehen, sondern auch die Art und Weise, wie wir die Welt wahrnehmen.
Eine “Filterblase” ist die von Algorithmen geschaffene personalisierte Realität, die uns der Newsfeed bietet. Eli PARISER hat diesen Begriff in seinem Buch “The Filter Bubble: How the New Personalised Web Is Changing What We Read and How We Think” populär gemacht.
Nach Ansicht von PARISER sehen sich die Nutzer häufig einem begrenzten Informationsfluss ausgesetzt, der ihre bestehenden Meinungen bestätigt und sie von gegensätzlichen Meinungen oder anderen Perspektiven isoliert.
Indem sie Informationen filtern und uns eine personalisierte Realität präsentieren, haben sie die Macht, bestehende Überzeugungen zu verstärken und soziale Meinungen und Verhaltensweisen zu formen!
Infolgedessen sehen sich die Nutzer oft einem eingeschränkten Informationsfluss ausgesetzt, der ihre bestehenden Meinungen verstärkt und sie von gegensätzlichen Meinungen oder anderen Perspektiven isoliert. Dies kann das Verständnis und das Wissen der Nutzer zu verschiedenen Themen einschränken, Echokammern schaffen und potenziell zur Polarisierung der Meinungen zu wichtigen Themen beitragen.
Beispiele aus dem Alltag, die zeigen, wie Algorithmen Trends und Diskussionen in den sozialen Medien beeinflusst haben.
Wenn Sie sich ein Video ansehen, in dem bestimmte kulturelle oder religiöse Praktiken in einem fremden Land kritisiert werden, empfiehlt Ihnen der Algorithmus andere Videos, in denen dasselbe Land kritisiert wird, oder andere Videos, in denen ähnliche kulturelle Praktiken in stereotyper Weise dargestellt werden… Sie fallen direkt in das Einheitsdenken!
Auf Facebook können die Algorithmen des News Feed bestimmte Nachrichten verstärken. So können zum Beispiel besonders unbedeutende Meldungen viral gehen, während andere, vielleicht wichtige Meldungen weniger sichtbar werden. Beispiel: Im Jahr 2021 erhielt das Video von David Allen, der zu dem Song “Stay” von Kid Laroi und Justin Bieber tanzt, 43,9 Millionen Likes und über 313 Millionen Aufrufe auf TikTok.
Hashtags auf Twitter. So hat beispielsweise der Hashtag #MeToo eine breite weltweite Diskussion über sexuelle Belästigung und sexuelle Übergriffe ausgelöst, was zu einem großen Teil dem Twitter-Algorithmus zu verdanken ist, der Tweets mit diesem Hashtag aufgrund ihrer Popularität und Relevanz bevorzugt hat.
Auf Instagram neigen Algorithmen dazu, Inhalte von Influencern mit einer großen Anzahl von Followern und hohem Engagement zu bevorzugen, was Modetrends und die Gesellschaft als Ganzes beeinflussen und die Verbraucher in Richtung bestimmter Produkte lenken kann!
Algorithmen können manchmal zur schnellen Verbreitung von Desinformationen beitragen, da Inhalte, die starke Reaktionen hervorrufen, oft weiter verbreitet werden. So haben sich zum Beispiel Verschwörungstheorien und Fehlinformationen über COVID-19 schnell über mehrere Plattformen verbreitet,
Es gab Diskussionen über den Missbrauch von Algorithmen bei der Verbreitung polarisierender politischer Inhalte und die mögliche Beeinflussung von Wahlen. So hat beispielsweise die russische Internet Research Agency (IRA) gezielte Werbung in sozialen Medien eingesetzt, um schwarze Stimmen für Hillary Clinton zu unterdrücken und Donald Trump 2016 zu helfen.
Strategien, um die Kontrolle über Ihren News Feed zurückzugewinnen:
Sie können zum Beispiel bestimmten Konten folgen oder sie stumm schalten oder die Sortierung der Inhalte ändern.
mit anderen Arten von Inhalten.
Verlassen Sie sich nicht nur auf Ihren Newsfeed.
Ihrer Kontaktliste kann helfen, die Liste einzugrenzen.
Wenn Sie sich von den sozialen Medien zurückziehen, können Sie Ihre Algorithmen neu einstellen und eine neue Perspektive gewinnen. Machen Sie eine digitale Diät.
Mit Apps wie Feedly oder Flipboard können Sie Ihren eigenen Nachrichten-Feed erstellen, indem Sie bestimmte Quellen und Themen auswählen. So haben Sie mehr Kontrolle über die Inhalte, die Sie sehen, unabhängig von den Algorithmen der sozialen Medien.
➜Wenn Sie sich diese Reflexe zu eigen machen, können Sie die Inhalte, die in Ihrem News Feed erscheinen, besser kontrollieren und sie für Sie relevanter und interessanter machen.
➜Eine direkte Kontrolle der Algorithmen der sozialen Medien ist für die Nutzer jedoch nicht möglich, da diese Algorithmen den Unternehmen der sozialen Medien selbst gehören und von ihnen verwaltet werden. Vergessen Sie nie, dass hinter einer Maschine immer ein menschlicher Geist (oder sogar ein sehr mächtiges Wirtschaftsimperium) steht und dass es keine Neutralität gibt.
➜ Diese Tools und Strategien ermöglichen es Ihnen zwar nicht, die Algorithmen direkt zu kontrollieren, aber sie bieten Ihnen die Möglichkeit, das, was Sie in den sozialen Medien sehen, zu steuern, um ein personalisiertes und kontrolliertes Online-Erlebnis zu haben.
Kennzahlen/Artikel: Die 30 stärksten Marken in den sozialen Medien im Jahr 2023 https://www.fastcompany.com/90849097/most-innovative-companies-social-media-2023
Tools: Hier handelt es sich um Browsererweiterungen, wie z. B. F.B. Purity for Facebook, die es den Nutzern ermöglichen, ihre Erfahrungen mit sozialen Medien zu personalisieren. Diese Erweiterungen können Optionen anbieten, um bestimmte Arten von Inhalten zu filtern, Newsfeeds anders zu organisieren oder Werbung zu blockieren.
Bücher und Studien
– Waffen der mathematischen Zerstörung: How Big Data Increases Inequality and Threatens Democracy von Cathy O’Neil, Ed. Crown September 2016 (In diesem Buch wird untersucht, wie Algorithmen unter dem Deckmantel der Objektivität Ungleichheit und Voreingenommenheit verstärken können).
– Algorithmen der Unterdrückung: How Search Engines Reinforce Racism von Safiya Umoja Noble, Ed. NYU Press 2018 (Noble untersucht, wie Suchalgorithmen, insbesondere die von großen Unternehmen wie Google verwendeten, rassistische und sexistische Stereotypen aufrechterhalten können).
– The Filter Bubble: How the New Personalised Web Is Changing What We Read and How We Think von Eli Pariser, Ed. New York, Penguin Press, 2011 (Pariser erörtert, wie Personalisierungsalgorithmen im Internet “Filterblasen” schaffen, die unseren Zugang zu vielfältigen Informationen und Perspektiven einschränken).
– Automatisierung der Ungleichheit: Wie High-Tech-Tools die Armen profilieren, überwachen und bestrafen von Virginia Eubanks. Ed. St. Martin’s Press, New York, 2018 (Dieses Buch befasst sich damit, wie Algorithmen zur Verwaltung von Sozialleistungen eingesetzt werden, oft zum Nachteil der schwächsten Bevölkerungsgruppen).
– Daten und Goliath: Die verborgenen Kämpfe um das Sammeln Ihrer Daten und die Kontrolle Ihrer Welt von Bruce Schneier. Ed. W.W. Norton & Company, 2015 (Schneier untersucht die riesigen Mengen an Daten, die online über uns gesammelt werden, und wie sie – oft auf undurchsichtige Weise – verwendet werden).
Von der Europäischen Union finanziert. Die geäußerten Ansichten und Meinungen entsprechen jedoch ausschließlich denen des Autors bzw. der Autoren und spiegeln nicht zwingend die der Europäischen Union oder der Europäischen Exekutivagentur für Bildung und Kultur (EACEA) wider. Weder die Europäische Union noch die EACEA können dafür verantwortlich gemacht werden. Projekt Nummer: 2022-2-IE01-KA220-YOU-000099163