Algorithmus-Expertin „Wir müssen Algorithmen hinterfragen“
Empfehlungssysteme erleichtern unser Leben – aber sie bergen auch viele Risiken. Expertin Anna-Katharina Meßmer erklärt uns im Interview, wie wir uns im Internet orientieren können.
Ja, da gibt es einen Unterschied. Algorithmen sind einfach gesagt mathematische Berechnungen. Sie geben beispielsweise vor, wie ein Computer zu einer bestimmten Lösung kommen soll. Empfehlungssysteme sind eine von vielen Möglichkeiten, diese mathematischen Berechnungen einzusetzen. Empfehlungssysteme werden, wie der Name sagt, angewendet, um Nutzerinnen und Nutzern Inhalte zu empfehlen, zum Beispiel bei Online-Versandhändlern. Wenn ich mir etwa eine Hose ansehen, schlägt mir das System ähnliche Hosen vor, die mir auch gefallen könnten.
Ich beschäftige mich hauptsächlich mit der Frage, wie sich Empfehlungssysteme auf unser Leben und auf unsere Gesellschaft auswirken. Dabei gucke ich mir vor allem Empfehlungssysteme von Suchmaschinen und Sozialen Medien an. Diese Systeme sind immer dann im Einsatz, wenn Inhalte für uns sortiert werden: zum Beispiel, weil ich etwas suche und die Inhalte dann anhand dieser Suchanfrage geordnet werden. Oder auch, wenn mir auf einer Plattform etwas Neues vorgeschlagen wird, das ich selbst noch nicht kenne, aber interessant finden könnte.
Mich interessiert, wie die Empfehlungssysteme von Facebook, TikTok oder Google mein Leben, das Leben von anderen Menschen, aber auch unsere Gesellschaft verändern.
Da gibt es eine ganze Reihe von Gefahren. Es gibt eine europäische Verordnung zur Regulierung von Plattformarbeit und dort werden vier Gruppen von Risiken beschrieben, die im Zusammenhang mit Algorithmen entstehen.
In die erste Kategorie gehören Risiken wie die Verbreitung von illegalen Inhalten, also zum Beispiel von Fotos oder Videos von sexuellem Missbrauch. Dass es solche kriminellen Inhalte gibt, hat nichts mit Algorithmen zu tun, aber sie können durch Empfehlungssysteme viel schneller verbreitet werden.
In die zweite Gruppe gehören die Risiken, die unsere Menschenrechte gefährden können. Beispielsweise könnte die Meinungsfreiheit eingeschränkt werden, weil bestimmte Inhalte, die ich poste, von Algorithmen aussortiert und nicht angezeigt werden.
In der dritten Kategorie werden Risiken zusammengefasst, die auf irgendeine Art unsere Demokratie gefährden könnten, zum Beispiel durch die Verbreitung von Desinformation.
Und viertens gibt es die Gefahren, die in Zusammenhang mit Gesundheit und psychischer Gesundheit stehen. Diese Gefahren sind in letzter Zeit in Bezug auf TikTok und junge Menschen viel diskutiert worden: Wenn etwa die Verbreitung von bestimmten Schönheitsidealen dafür sorgt, dass Mädchen Probleme mit ihrem Körperselbstbild haben.
In der Forschung gibt es tatsächlich widersprüchliche Ergebnisse und es ist deshalb schwierig, zu dieser Thematik eindeutige Aussagen zu machen. Wichtig ist zunächst auch, dass wir uns Folgendes klarmachen: Eine Filterblase hat erst einmal überhaupt nichts mit Technik zu tun. Man könnte sagen, dass jedes soziale Milieu eine Filterblase ist. Filterblasen spielen also auch ganz ohne Internet eine Rolle in unserem Alltag. Denn wir suchen uns bewusst und unbewusst immer wieder ein Umfeld aus, in dem die Menschen und Meinungen zu unseren Ansichten passen – online und offline.
Warum der Ton im Netz manchmal so aggressiv wird, hängt wohl damit zusammen, dass hier Menschen aus unterschiedlichen Milieus aufeinanderprallen. Das legt die aktuelle Forschung nahe. Verstärkt wird dieser Effekt durch sogenannte Hate-Followings: Im Internet neigen viele von uns dazu, Accounts von Menschen zu folgen, die wir eigentlich nicht leiden können, die also eher nicht in unsere Filterblase passen.
Ob der Filterblasen-Effekt nun belegt werden kann oder nicht: Für mich ist vor allem wichtig, dass wir hinterfragen, wie Algorithmen unsere menschlichen und sozialen Verhaltensweisen beeinflussen, ausnutzen und damit auch negative Aspekte dieser Verhaltensweisen verstärken.
Elon Musk ist dafür bekannt, vollmundige Ankündigungen zu machen, die er später zurückzieht. Deswegen müssen wir abwarten, was passiert.
Dann kommt es darauf an, was Twitter genau veröffentlichen wird. Wie eingangs erwähnt, sind Algorithmen mathematische Berechnungen. Wenn Twitter also nur eine mathematische Formel veröffentlicht, hilft mir das nicht weiter. Bei Machine-Learning-Systemen ist die mathematische Formel gar nicht so entscheidend, sondern viel wichtiger ist, mit welchen Daten diese Systeme trainiert werden.
Transparenz ist also nicht gleich Transparenz. Und außerdem: Bei einer Plattform wie Twitter greifen häufig viele verschiedene Algorithmen ineinander. Wenn ein Algorithmus von vielen offengelegt wird, verstehe ich deshalb noch nicht, wie die Plattform funktioniert.
Ja, Algorithmen sind auch unheimlich hilfreich. Man muss sich vorstellen, dass wir ohne Algorithmen heutzutage gar nicht mehr in der Lage wären, die vielen Informationsschnipsel, die im Netz unterwegs sind, zu sortieren.
Ein Beispiel: Wenn ich ein Youtube-Video für eine Stickanleitung suche und dafür ganz Youtube mit all seinen Informationen auf eigene Faust durchforsten müsste, wäre ich vielleicht jahrelang beschäftigt. Wenn ich aber in das Suchfeld „Stickanleitung für Blumensticken“ eingeben kann, wirft Youtube mir direkt verschiedene passende Videos aus.
Außerdem ist es auch schön, dass uns Empfehlungsalgorithmen auf neue Ideen bringen können. Man denke an Musik-Streaming-Dienste: Auf Grundlage der Musik, die ich höre, wird mir neue Musik vorgeschlagen, die mir vielleicht gefällt.
Algorithmen erleichtern also auch unseren Alltag und trotzdem muss man immer kritisch hingucken. Dabei geht es nicht nur darum, was Algorithmen im Ergebnis hervorbringen, sondern auch wie sie arbeiten, also anhand welcher Merkmale der Algorithmus Inhalte sortiert.
Wir Bürgerinnen und Bürger müssen verstehen, dass Algorithmen eine Vorauswahl für uns treffen. Und die Mechanismen hinter der Vorauswahl hängen von den Zielen der jeweiligen Unternehmen ab. Das heißt auch, dass die Algorithmen nicht immer auf Zuverlässigkeit, Information oder Qualität ausgerichtet sind.
Um ein konkretes Beispiel zu nennen: Wenn ich auf TikTok bestimmte Videos angezeigt bekomme, werden sie mir deshalb angezeigt, weil sie von anderen Nutzern besonders häufig angeklickt wurden. Das heißt aber nicht, dass die Inhalte des Videos, richtig sind. Denn Wahrheitsgehalt ist kein Kriterium, nach dem diese Plattform auswählt. Es ist wichtig, das im Hinterkopf zu behalten, gerade dann, wenn es um wichtige Informationen zum Beispiel im Zusammenhang mit Wahlen oder unserer Gesundheit geht. Bei solchen Themen empfehle ich, sich drei Fragen zu stellen:
1. Welcher Absender steckt hinter dem Inhalt, den ich mir ansehe?
2. Mit welchen Mitteln wird gearbeitet, um mir den Inhalt näherzubringen: Ist der Inhalt vielleicht besonders kontrovers? Geht es vor allem um eine Meinung oder werden Zahlen und Belege herangezogen? Kann ich weiterführende Links anklicken?
3. Kann ich Belege für das Gesagte auch an anderer Stelle finden? Um das zu überprüfen, kann ich mithilfe einer Suchmaschine nachgucken, ob mir auch andere Quellen etwas Ähnliches erzählen.
Diese Kriterien zu kontrollieren, ist immer dann wichtig, wenn die Informationen zuverlässig und belastbar sein sollen. Die meisten Erwachsenen tun das leider nicht immer. Hier haben wir also noch einiges zu tun. Wir müssen Kindern und Jugendlichen unbedingt so früh wie möglich beibringen, Sachverhalte zu hinterfragen und zu überprüfen.
Anna-Katharina Meßmer
Anna-Katharina Meßmer ist 1983 geboren und kommt aus Bayern. Nach der Schule hat sie Soziologie in München studiert und anschließend promoviert. Von 2008 bis 2009 hat Meßmer für den SPD-Parteivorstand und Gesine Schwan (SPD) gearbeitet. Bei der Stiftung Neue Verantwortung arbeitet sie seit 2019. Dort ist sie Projektleiterin für die Auditierung von Empfehlungssystemen.