Wie Algorithmen das Nutzerverhalten im Internet bestimmen

Recherche in der Filterblase

Wer kennt das Phänomen nicht: einmal im Internet nach einem neuen Tablet recherchiert und schon werden ständig Tablet-Angebote eingeblendet. Doch dies ist nur der lästige Teil eines weitaus größeren, problematischeren Vorgangs. Studierende der FH Münster haben untersucht, wie Algorithmen das Nutzerverhalten im Internet bestimmen. Das bedeutet, Vorlieben und Interessen der Nutzer*innen werden erkannt und bestimmen zukünftig, was empfohlen wird, aber auch was nicht vorgeschlagen wird.

Studierende der FH Münster untersuchen, wie Algorithmen das Nutzerverhalten im Internet bestimmen

Jan-Eric Müller (l.) und Jonas Wieskamp studieren Wirtschaftsingenieurwesen an der FH Münster. Sie haben untersucht, wie Algorithmen das Nutzerverhalten im Internet steuern. (Foto: FH Münster/Frederik Tebbe)

Das Internet vergisst nicht, sagt man, und es merkt sich allerlei. Zum Beispiel, wonach man darin sucht. Wer online recherchiert, gerät früher oder später in eine sogenannte Filterblase. Das bedeutet, dass etwa ein Videoportal wie YouTube durch einen speziellen Algorithmus mit der Zeit die Interessen und Vorlieben der Nutzerinnen und Nutzer erkennt und auf dieser Grundlage Clips empfiehlt, die den Inhalten der bereits gesehenen entsprechen. Wer sich zum Beispiel für eine bestimmte Art Musik oder Film interessiert, bekommt mehr davon zugespielt. Wie ein Google-Account in so eine Filterblase hineingerät, haben die Wirtschaftsingenieurwesen-Studenten Jan-Eric Müller und Jonas Wieskamp im Rahmen des Seminars „Technik und Gesellschaft“ von Dr. Petra Michel-Fabian an der FH Münster untersucht – und das Phänomen schließlich in einem YouTube-Video erklärt und eingeordnet.

„Den Begriff ,Filterblase‘ hatten wir schon vorher gehört, und natürlich stecken wir auch selbst in einer. Aber wir wollten herausfinden, wie das eigentlich genau funktioniert“, erklärt Müller. Das Seminar hat sich der Frage gewidmet, wie Wirtschaftsingenieurinnen und -ingenieure gesellschaftliche Verantwortung übernehmen. Dazu sollten die Studierenden in einer Projektarbeit technische und gesellschaftsrelevante Aspekte miteinander verknüpfen. Wie sie ihre Arbeit gestalten wollen, war ihnen freigestellt. „Manche haben auch eine Broschüre oder einen Zeitungsartikel erstellt“, sagt Wieskamp. „Es ging um kreative Arbeit statt einer klassischen Klausur.“

Die beiden Masterstudenten haben am konkreten Beispiel untersucht, wie durch den Algorithmus Verschwörungsdenken im Netz verbreitet wird. Denn wer zu einer bestimmten politischen Richtung neigt und demgemäß nach Inhalten auf YouTube sucht, bekommt mehr und mehr Videoempfehlungen aus entsprechenden Quellen. „Da bilden sich mit der Zeit sogenannte Echokammern“, erklärt Wieskamp: virtuelle Räume, in denen die eigenen Ansichten widerhallen, in deren Kommentarspalten man auf Gleichgesinnte trifft und ähnliche Videos empfohlen bekommt, die die eigene Meinung bestätigen und verstärken. „Das ist schon interessant zu sehen, wie sich da dann die eigenen Ansichten verhärten“, findet Müller.

Für ihr Video haben die beiden ein neues Nutzerprofil erstellt und damit Inhalte angeklickt, abonniert und positiv bewertet, in denen zum Beispiel die Maßnahmen der Bundesregierung zur Eindämmung der Corona-Pandemie kritisiert werden oder eine Verschwörung dahinter vermutet wird. „Es hat erst sehr lang gedauert, bis wir in dieser Blase waren“, so Müller. Zu Beginn des Experiments wurden ihnen bei der Suche noch Beiträge und Reportagen öffentlich-rechtlicher Medien bezüglich des Coronavirus vorgeschlagen. „Als wir aber nach einschlägigen Themen und Personen gesucht haben, hat es besser geklappt. Natürlich haben wir den Algorithmus dabei ganz bewusst gesteuert und mit Infos gefüttert.“ Und so wurden den beiden mit der Zeit viele Videos mit verschwörungstheoretischem Inhalt bezüglich der Pandemie empfohlen.

In ihrem Video erklären die Studenten, wie der Algorithmus arbeitet und warum es ihn gibt. Neben Suchmaschinen und Videoplattformen kommt er auch in Online-Shops zum Einsatz, um Kundinnen und Kunden Produkte zu empfehlen. Dem Prinzip der Filterblase stehen die beiden nach ihrem Feldversuch nun zwiespältig gegenüber. „Der Algorithmus präzisiert und sortiert die große Informationsmenge im Internet“, findet Wieskamp. „Du bekommst die Treffer, nach denen du auch suchst“, sagt Müller. Andererseits sehen es die beiden kritisch, dass das System intransparent ist – nach welchen Kriterien genau gefiltert wird, sei nicht klar, und es gebe keine Möglichkeit, manuelle Korrekturen zu machen, falls doch Inhalte zugespielt werden, die man gar nicht sehen möchte.

Die Arbeit am Video haben die angehenden Wirtschaftsingenieure untereinander aufgeteilt. Während sich Wieskamp um den theoretischen Teil kümmerte und sich über Filterblasen informierte, übernahm Müller die technische Seite und forschte zu den Algorithmen. Müller wiederum moderierte das Video, Wieskamp filmte und machte den Schnitt. „Wir haben viel ausprobiert und uns häufig getroffen und sind währenddessen in die Arbeit hineingewachsen“, sind sich die beiden einig. „Es war super, dass die Arbeit in dem Seminar so bewusst offengehalten wurde und wir uns ausprobieren konnten.“ Das Video ist neben den Ergebnissen weiterer Seminararbeiten unter fhms.eu/techn-gesellschaft abrufbar.

Pressestelle FH Münster/Bettina Wohlers