Untersuchung verwendeter Third- und First-Party Daten der algorithmischen Empfehlungen von Videos auf YouTube anhand der YouTube Startseite

YouTube ist ein Videoportal, das in über 100 Ländern vertreten ist und mit über zwei Milliarden eingeloggten monatlichen Nutzern (YouTube 2021b) zu einer der größten Plattformen des Internets gehört (Statista 2020). Die Themenvielfalt der hochgeladenen Videos ist hoch und reicht von Pranks über Erklärvideos bis hin zu Verschwörungstheorien. Der Großteil der Videos dient der Unterhaltung, so bietet z.B. der Reiter „Trends“ auf der YouTube Homepage vier Themenfilter: Musik, Gaming, Filme, News (YouTube 2021c). Die News nutzen 26% der erwachsenen US-Amerikaner als Quelle für Nachrichten, dabei folgen 67% dieser Nutzer gelegentlich den Empfehlungen von YouTube (Pew Research Center 2020).

Wie diese Empfehlungen funktionieren ist nur teilweise durch YouTube offengelegt (Covington et al. 2016; Davidson et al. 2010; YouTube 2021a), sodass YouTube Empfehlungen eine Black Box darstellen. Um diese transparenter zu machen, gibt es Initiativen wie z.B. AlgoTransparency (AlgoTransparency 2020) oder TheirTube (TheirTube 2021). Mehr Transparenz lässt sich z.B. durch Reverse Engineering erreichen bei dem der Input des Algorithmus unter Beobachtung des Outputs variiert wird. Geht mit der Variation des Inputs eine Veränderung des Outputs einher lässt dies Schlüsse auf die Funktionsweise des Algorithmus zu (Diakopoulos 2014).

Von einem transparenteren Algorithmus profitieren einerseits die Nutzer, um nachzuvollziehen wie Inhalte der eigenen Startseite zustande kommen. Andererseits die Ersteller von Inhalten, die interessiert sind wie ihre Inhalte sichtbarer werden (Bishop 2019; Bucher 2012; Zhou et al. 2010) . Zudem kann mehr Transparenz die Untersuchung der „filter bubble“ (Nguyen et al. 2014; Pariser 2012) und „echo chambers“ (Sunstein 2009), sowie die Theorie „The Long Tail“ (Anderson 2008) unterstützen . Dieser Long Tail könnte zu einer „cyberbalcanization“ (van Alstyne und Brynjolfsson 2005) führen.

Auf YouTube ist ein Long Tail z.B. in Form radikaler Gruppierung zu beobachten (Kaiser und Rauchfleisch 2020). Ob die Filterblase durch algorithmische Empfehlungen ein Problem darstellt ist umstritten (Haim et al. 2018; Möller et al. 2018). Dennoch könnten Filterblasen und Echokammern in politischen Bereichen entstehen (Garrett 2009), da Menschen eher Inhalte konsumieren die ihre Meinung bestätigten. So konnte eine Studie von (O’Callaghan et al. 2015) zeigen, dass YouTube Algorithmen eine rechts-extreme Blase fördern. Zudem empfiehlt YouTube Videos mit Fehlinformationen, d.h. Informationen die im Kontrast zum wissenschaftlichen Konsens stehen (Allgaier 2019). So enthielten etwa ein Drittel der meistgeschauten englischsprachigen Videos über COVID-19 Falschinformationen (Li et al. 2020).

YouTube Empfehlungen haben eine Relevanz aufgrund der Größe der Plattform und sowie der zuvor genannten Problematiken, sodass es eine Motivation gibt, Untersuchungen der algorithmischen Empfehlungen YouTubes vorzunehmen, wie z.B. anhand der verwendeten Daten