Zurück

Social Bots

ÖFIT-Trendschau

 

Öffentliche Informationstechnologie in der digitalisierten Gesellschaft

Trendthema 44:

Social Bots

Stand: Juli 2017



 
Herausgeber:
Mike Weber
Kompetenzzentrum Öffentliche IT
Fraunhofer-Institut FOKUS
Kaiserin-Augusta-Allee 31, D-10589 Berlin
Telefon: +49 30 3463 - 7173
Telefax: + 49 30 3463 - 99 - 7173
info@oeffentliche-it.de
www.oeffentliche-it.de
www.fokus.fraunhofer.de


Autorinnen und Autoren der Gesamtausgabe:
Mike Weber, Stephan Gauch, Faruch Amini, Tristan Kaiser, Jens Tiemann, Carsten Schmoll, Lutz Henckel, Gabriele Goldacker, Petra Hoepner, Nadja Menz, Maximilian Schmidt, Michael Stemmer, Florian Weigand, Christian Welzel, Jonas Pattberg, Nicole Opiela, Florian Friederici, Jan Gottschick, Jan Dennis Gumz, Resa Mohabbat Kar, Jens Fromm


Autorinnen und Autoren einzelner Trendthemen:
Michael Rothe, Oliver Schmidt

ISBN: 978-3-9816025-2-4

Juli 2017

Autorinnen/Autoren:
Jan Dennis Gumz und Resa Mohabbat Kar

Bibliographische Angabe:
Jan Dennis Gumz und Resa Mohabbat Kar 2017, Social Bots, In: Mike Weber, Hg., 2016: ÖFIT-Trendschau: Öffentliche Informationstechnologie in der digitalisierten Gesellschaft. Berlin: Kompetenzzentrum Öffentliche IT, http://www.oeffentliche-it.de/-/social-bots


Dieses Werk ist lizenziert unter einer Creative Commons Namensnennung 3.0 Deutschland Lizenz (CC BY 3.0 DE) http://creativecommons.org/licenses/by/3.0 de/legalcode. Bedingung für die Nutzung des Werkes ist die Angabe der Namen der Autoren und Herausgeber.

Social Bots

 

Spätestens mit ihrem massiven Einsatz im US-amerikanischen Präsidentschaftswahlkampf sind Social Bots als automatisierte Online-Kommunikationsakteure Gegenstand kontroverser Diskussionen geworden. Dabei gehen die Möglichkeiten der sozial interagierenden Bots weit über die Beeinflussung von politischen Meinungsbildungsprozessen hinaus. So hat sich der Handel mit künstlichen Nutzern sozialer Netzwerke und der zugehörigen Software mittlerweile zu einer lukrativen Branche entwickelt. Angesichts absehbarer technischer Fortschritte stellt sich die Frage nach den mittel- und langfristigen Auswirkungen auf Kommunikationsbeziehungen im öffentlichen Raum.

Bots imitieren menschliches Verhalten immer überzeugender

Bots sind von Menschen geschriebene Computerprogramme, die je nach Zielsetzung z. B. eigenständig Daten sammeln, Informationen verbreiten, mit anderen Nutzern kommunizieren und interagieren können. Ein bekanntes Beispiel für Bots sind Chatbots. Chatbots als textbasierte Dialogsysteme, die auf Erkennungsmuster und vorgefertigte Datenbanken mit Antworten zurückgreifen, werden schon seit den 1960er Jahren programmiert (siehe Denkende Maschinen). Gegenwärtig eingesetzte Programme haben jedoch inzwischen einen solchen Reifegrad erlangt, dass sie eine als natürlich empfundene Interaktion erlauben (siehe Mensch-Maschine-Interaktion). Entsprechend werden Chatbots von Unternehmen und einzelnen Verwaltungen bereits zur Kundenbetreuung eingesetzt.
Social Bots automatisieren soziale Interaktionen mit Menschen und anderen Bots in sozialen Netzwerken sowie in geringerem Maß auch auf Videoportalen und in Leserkommentarbereichen. Einfache Social Bots überwachen den Informationsfluss auf Plattformen, um dann bei Schlüsselbegriffen vorgefertigte Beiträge zu versenden. Bots, die überzeugend menschliches Verhalten mimen, sind in der Regel komplexer. Durch Fortschritte in Bereichen wie Computerlinguistik und Machine Learning können sie Textkörper analysieren und durch Rückgriff auf Websites und Datenbanken eigene Inhalte generieren. So können sie auf aktuelle Geschehnisse verweisen und lassen sich immer schlechter als Bots identifizieren. Die Imitation menschlichen Verhaltens wird dabei auch durch die Berücksichtigung von Tageszeiten und variablen Antwortzeiten unterstützt. Überzeugende Social Bots verfügen außerdem über ausführliche, realistisch erscheinende Nutzerprofile. Das erschwert ihre Enttarnung als Software umso mehr.

Begriffliche Verortung

Netzwerkartige Verortung des Themenfeldes

Netzwerkartige Verortung des Themenfeldes

Gesellschaftliche und wissenschaftliche Verortung

Gesellschaftliche und wissenschaftliche Verortung

Mittel zur Manipulation von Online-Diskursen

Social Bots sind zu einem Geschäftsfeld geworden. Überzeugende Nutzerprofile lassen sich mithilfe online verfügbarer Generatoren erstellen, es können aber auch fertige Konten samt der Steuerungssoftware gekauft oder gemietet werden. Der Einsatz von Social Bots erfordert somit keine umfangreichen Programmierkenntnisse, was zur weitläufigen Verfügbarkeit von Social Bots beiträgt. Erleichtert wird der Betrieb von Social Bots durch die Bereitstellung von offenen Programmierschnittstellen (API) seitens der Plattformbetreiber. Die massenhafte Erstellung von Nutzerprofilen und der Betrieb der Social Bots werden durch unterschiedlich hohe Hürden, beispielsweise Captchas, erschwert.
Ist ein Netz von Social Bots einmal aktiv, kann es zur gezielten Verbreitung von Informationen eingesetzt werden – mit entsprechenden Möglichkeiten zur Desinformation, Täuschung und Manipulation von Meinungsbildungsprozessen. Die menschlichen Akteure hinter solchen Einsätzen können nicht nur andere Netzwerkpartner gezielt ansprechen. Dank der Vielzahl der automatisiert arbeitenden Nutzerkonten können Beiträge in nahezu beliebig hoher Anzahl veröffentlicht und unterstützt werden, wodurch abweichende Beiträge anderer Nutzer verdrängt werden und die von den Betreibern der Netze erwünschte Meinung scheinbar die Oberhand im Online-Diskurs gewinnt. Da Big-Data-Analysen sozialer Netzwerke in Wirtschaft, Medien und Politik zunehmend Beachtung finden, werden selbstverstärkende Feedbackschleifen möglich: Medien greifen die beeinflussten Meinungsbilder der Sozialen Medien auf und beeinflussen dadurch die weitere Meinungsbildung und politische Entscheidungen.

Wirtschaftlicher Schaden

Langfristig werden hier beträchtliche Risiken durch die Verbreitung von Hate Speech, Fake News und Extrempositionen gesehen, die zu gesellschaftlicher Polarisierung, Radikalisierung und Fragmentierung beitragen können. In jedem Fall geht damit ein Vertrauensverlust in digital vermittelte Kommunikation einher. Netze von Social Bots können dazu beitragen, Popularität vorzutäuschen oder Werbung zu verbreiten und werden eingesetzt, um Börsenkurse zu beeinflussen, Werbeeinahmen ungerechtfertigt zu steigern und Malware zu verbreiten.
Der Einsatz von Social Bots berührt nicht nur gesellschaftspolitische Fragen, sondern auch wirtschaftliche Interessen. So haben die Betreiber werbefinanzierter sozialer Netzwerke ein gesteigertes Interesse daran, die Anzahl der auf ihren Plattformen aktiven Social Bots zu verringern. Social Bots zählen nicht zur Zielgruppe der Werbetreibenden. Wenn menschliche Nutzer als Reaktion auf eine hohe Bot-Aktivität seltener aktiv sind, wird dieser Effekt noch weiter verstärkt.

Die Enttarnung von Bots wird schwieriger

Eine Möglichkeit, Social Bots beizukommen, besteht darin, schon die Erstellung ihrer Nutzerkonten zu verhindern. Dies kann zum Beispiel durch strengere Registrierungsverfahren realisiert werden. Allerdings entwickeln Anbieter von Social Bots Möglichkeiten, solche Registrierungsverfahren zu umgehen oder zu automatisieren. Zudem können aufwändigere Registrierungsverfahren die Nutzerfreundlichkeit verschlechtern. Um aktive Social Bots aufzuspüren und ihre Nutzerkonten zu entfernen, gibt es verschiedene Ansätze. Auf individueller Basis können dazu beispielsweise kontextabhängige Fragen an mutmaßliche Bots gestellt werden. Eine passende Beantwortung solcher Fragen bereitet Maschinen oft noch Probleme, allerdings gibt es keine Garantie, auch eine Antwort zu erhalten. Eine weitere Möglichkeit zur Enttarnung von Bots ist die Mustererkennung. Dazu werden Bot-typische Eigenschaften und Verhaltensmuster identifiziert (zum Beispiel durch Machine Learning), um dann nach Nutzern zu suchen, die diese Muster aufweisen. Typisch für Bots ist etwa eine durchweg hohe tägliche Beitragsanzahl. Die Identifikation menschlicher Nutzer mit Bot-typischen Eigenschaften stellt dabei eine große Herausforderung dar, die noch zu meistern ist. Während es auf dem Gebiet der Bot-Erkennung Fortschritte gibt, werden die Bots gleichzeitig immer überzeugender. Hier ist ein Wettlauf zwischen stetig präziser werdender Analyse und immer besserer Imitation menschlicher Interaktion im vollen Gange.
Bei allen Risiken und Herausforderungen dürfen die vielfältigen Potenziale und Anwendungsmöglichkeiten der zu Grunde liegende Bot-Technologie nicht unberücksichtigt bleiben. In der Medien- und Verlagsbranche erlauben die Algorithmen das automatisierte Verfassen von Beiträgen und die Übernahme lästiger Routineaufgaben. Der Einsatz von Bots für die Kommunikation und Interaktion mit Bürger*innen kann ein Baustein zur Modernisierung von Regierungs- und Verwaltungshandeln sein, solange die Bürger*innen klar darauf hingewiesen werden, dass sie nicht mit einem menschlichen Partner kommunizieren. Auch kann automatisierte Kommunikation zur Förderung von gesellschaftlich wünschenswerten Verhaltensweisen (siehe Stupsen) oder zur Information der Öffentlichkeit beitragen. Durch die Integration der Technologien in smarte Assistenten und neue Interfaces werden Bots zum täglichen Begleiter. Und wenn einige Bots dann zur Verbreitung von Falschinformationen und Hate Speech beitragen, könnte der gezielte Einsatz von Love Bots die charmanteste Antwort darauf sein.

Themenkonjunkturen

Suchanfragen für »Social Bots« und Zugriffe auf Wikipedia-Artikel für »Bot«

Suchanfragen für »Social Bots« und Zugriffe auf Wikipedia-Artikel für »Bot«

Wissenschaftliche Publikationen und Patentanmeldungen

Wissenschaftliche Publikationen und Patentanmeldungen

Folgenabschätzung

Möglichkeiten

  • Automatisierung von kommunikativen Routinetätigkeiten
  • Effiziente Verbreitung von Informationen
  • Reflexionspunkt für den kritischeren Umgang mit (sozialen) Medien
  • Verbesserung von Mensch-Maschine-Interfaces und smarter Assistenten

Wagnisse

  • Manipulation von Meinungsbildungsprozessen
  • Rückzug aus digitalen, öffentlichen Diskursräumen
  • Vertrauensverlust und Störung von öffentlicher Kommunikation
  • Gefährdung von Datensicherheit und Datenschutz
  • Entstehung von Bot-freien Walled Gardens (siehe Werbeblocker)
  • Vorauseilende Zensur durch Plattformbetreiber
  • Wirtschaftlicher Schaden

Handlungsräume

Eindämmung von schädlichen Social Bots

Plattformbetreiber sind gefragt, Nutzerkonten von nicht kenntlich gemachten, überführten Social Bots konsequent zu löschen. Dazu sollte Hinweisen menschlicher Nutzer, die sich bestenfalls als solche authentifiziert haben, auf mögliche Social Bots nachgegangen werden.

Medienkompetenz stärken

Bürger*innen sollte bewusst sein, dass Bots existieren, die überzeugend menschliches Verhalten mimen. Sie sollten zudem dazu in der Lage sein, diese selbstständig zu enttarnen. Durch Bots verbreitete Falschinformationen lassen sich oft auch noch bei vielfacher Wiederholung als solche erkennen. Entsprechend bedeutsam ist die Stärkung der Medienkompetenz und der kritischen Reflexion.

Politische Ereignisse für die Forschung nutzen

Bisher fehlt es an empirischen Belegen, dass Social Bots tatsächlich Entscheidungen beeinflussen. Politische Ereignisse wie eine Bundestagswahl bieten Kristallisationspunkte für derartige Analysen. Sowohl sozial-empirische Wirkungsmechanismen als auch informationstechnische Aspekte können daran mustergültig untersucht werden.

Bots richtig einsetzen

Für Organisationen und Behörden können Chatbots als geduldige Zuhörer und Erklärer einen weiteren Kommunikationskanal nach Außen darstellen, Effizienz- und Reichweitenpotenziale freisetzen und bei der Verbreitung wichtiger, kritischer Informationen behilflich sein. Diese Chancen gilt es auch für den öffentlichen Sektor zu nutzen.