Diskussion um grüne Vorschläge zur Regulierung von „Social Bots“

Hass und Hetze gegen Flüchtlinge und Muslime, Rassismus, Sexismus, Homophobie und Antisemitismus durchschwemmen Foren, soziale Netzwerke, Blogs und Kommentarspalten. Dies hat Konsequenzen im Handeln und führt zu mehr Gewalt. Das Netz befördert diese Dynamik und wirkt wie ein Brandbeschleuniger. Klick-Logiken kennen keine Menschenwürde. Gesellschaftliche Meinungsbildung kann durch gezielte Falschinformationen, durch (auch geheimdienstliche) IT-Angriffe und Hacking, aber auch den Einsatz von - auch durch intransparenten „Social Bots“ viral verbreitete - Falschmeldungen manipuliert werden. Die grüne Bundestagsfraktion hat gerade einen Beschluss „Verantwortung, Freiheit und Recht im Netz“ gefasst. Nach Vorlage unserers Papiers und einem Äußerung unserer Fraktionsvorsitzenden Katrin Göring-Eckardt, in dem sie grüne Vorschläge einer gesetzlichen Regulierung ankündigt, ist die Diskussion um die Regulierung von Social Bots derzeit durchaus virulent. Die Diskussion begrüßen wir.

Hass und Hetze drohen alltäglich zu werden. Hemmschwellen brechen weg. Vorurteile werden geschürt und Feindbilder bedient. Menschen werden beleidigt und bedroht. Hass und Hetze gegen Flüchtlinge und Muslime, Rassismus, Sexismus, Homophobie und Antisemitismus durchschwemmen Foren, soziale Netzwerke, Blogs und Kommentarspalten.

Die Anschläge auf Flüchtlingseinrichtungen, Beleidigungen gegenüber Mitarbeitern von gemeinnützigen Vereinen oder Kirchen und politisch Engagierten machen erneut deutlich: Hass und Hetze haben Konsequenzen im Handeln und führen zu mehr Gewalt. Das Netz befördert diese Dynamik und wirkt wie ein Brandbeschleuniger. Klick-Logiken kennen keine Menschenwürde.

Das Jahr 2016 hat deutlich gezeigt: Gesellschaftliche Meinungsbildung kann durch gezielte Falschinformationen, durch (auch geheimdienstliche) IT-Angriffe und Hacking, aber auch den Einsatz von – auch durch intransparenten „Social Bots“ viral verbreitete – Falschmeldungen erfolgreich manipuliert werden.

Schon lange weisen wir als Grüne auf diese Problematik hin und fordern die Bundesregierung auf, endlich zu handeln. das hat sie verpasst. Gemeinsam haben wir als Grüne Bundestagsfraktion daher den Beschluss „Verantwortung, Freiheit und Recht im Netz“ (pdf) gefasst. Hier findet Ihr einen Bericht von heise zu unserem Papier und Forderungen.

Nach Vorlage unserers Papiers und einem Äußerung unserer Fraktionsvorsitzenden Katrin Göring-Eckardt, in dem sie grüne Vorschläge einer gesetzlichen Regulierung ankündigt, ist die Diskussion um die Regulierung von Social Bots derzeit durchaus virulent. Die Diskussion begrüßen wir. Gleichzeitig ist es uns wichtig, unserer Standpunkt noch einmal klarzustellen.

Über Diskursverschiebungen im Netz diskutieren wir nicht erst seit gestern. Als Grüne Fraktion haben wir uns auf den Weg gemacht und mit unserem Papier von Weimar erste Vorschläge zur Frage gemacht, wie mögliche, rechtsstaatliche Antworten aussehen könnten. Dabei haben wir uns sehr bemüht, zu differenzieren. Denn genau hieran mangelte es bislang häufig.

So haben wir, anders als andere, zunächst in unserem Papier klargestellt, dass wir der Meinung sind, dass Bots nicht per se schlecht, sondern durchaus auch sehr sinnvoll sein können. Wir haben insgesamt versucht darzulegen, dass es, gerade in einem Feld, in dem verschiedenen Grundrechte berührt sind, durchaus eines sensiblen Vorgehens bedarf und der ständige Ruf nach immer neuen Strafverschärfungen und Co. aus unserer Sicht an den eigentlichen Problemlagen vorbei geht.

Unser Ziel war es also, möglichst passgenaue Antworten auf unterschiedliche Phänomene zu geben, die zwar getrennt betrachtet werden müssen, aber doch zusammenhängen. Das Thema IT-Sicherheit wird in diesem Kontext zum Beispiel aus unserer Sicht bislang überhaupt nicht angemessen diskutiert, ist aber schwerlich zu trennen, wenn es um intransparente Manipulationsversuche öffentlicher Diskurse im Vorfeld von Wahlen geht.

Gerade diese Differenziertheit und begriffliche Klarheit haben wir bei anderen vermisst, die verschiedene Phänomen in einen Topf werfen und Antworten bieten, die in pluralistischen Demokratien einfach keine Antworten sein können, siehe beispielsweise die Diskussion um die Schaffung eines staatlichen „Wahrheitsministeriums“. Wir haben uns also bemüht, auf Fehlentwicklungen hinzuweisen, erste regulatorische Vorschläge zu machen – ohne über das Ziel hinauszuschießen.

Parallel haben wir die Bundesregierung, das tun wir aber schon seit Sommer dieses Jahres, aufgefordert, sich auch Gedanken zu diesen Fragen zu machen, was sie bislang nicht tat oder die Diskussionen, teils seit Jahren (z.B. bei der Bekämpfung von klar strafbaren Inhalten im Netz) eben noch immer nicht vorankommen. Außerdem haben wir im Parlament mehrere Anhörungen zu dem Thema initiiert, um die Debatte fachlich voranzubringen. Sie werden diese Woche stattfinden.

Zu einer möglichen Regulierung von Bots konkret:

Wir sind der Ansicht, dass man das durchaus angehen könnte, verankert bspw. im Telemediengesetz (TMG). Die konkrete Umsetzung prüfen wir aber gerade noch. Denkbar wäre aber beispielsweise aus heutiger Perspektive auch, gerade vor dem Hintergrund des immer näher rückenden Wahlkampfes, die Parteien gesetzlich zu verpflichten, Bots nur dann einzusetzen, wenn sie entsprechend gekennzeichnet sind. Das war ja der Ausgangspunkt der Diskussion und wohl auch durchsetzbar.

Hier sind wir de Meinung, dass die – übrigens von uns angestoßenen – Selbstverpflichtungen der Parteien eben nicht ausreichen, siehe hierzu beispielsweise die – um es vorsichtig auszudrücken – durchaus wankelmutige Haltung der AfD in der jüngsten Vergangenheit. Das steht übrigens auch in unserem Weimarer Beschluss.hier nochmal die entsprechende Passage:

Den Einsatz von „Social Bots“ rechtlich regeln Technik kann immer ambivalent eingesetzt werden – und wird dies auch häufig. Social Bots sind hierfür ein gutes Beispiel. Es gibt sinnvolle Anwendungen: Sie können dazu beitragen, sich tausendfach wiederholende Abläufe zu automatisieren und Menschen zu entlasten. Sie können dabei helfen, Wählerinnen und Wähler auf gesuchte Passagen in Wahlprogrammen hinzuweisen, Hilfesuchende auf Fundstellen für Rat und Tat aufmerksam zu machen oder Haterinnen und Hater automatisiert auf geltende Diskussionsregeln hinweisen. Genauso können Social Bots aber dort, wo sie entsprechend programmiert und missbräuchlich eingesetzt werden, demokratische Diskurse vergiften. Sie täuschen vermeintliche Mehrheitsverhältnisse vor, die real nicht bestehen, und beeinflussen verdeckt demokratische Entscheidungsprozesse, ohne dass dies für die EmpfängerInnen der Bot-Botschaften erkennbar wäre. Den Einsatz von Social Bots per se zu verbieten, wie es in den vergangenen Wochen wiederholt gefordert wurde, würde allerdings der skizzierten Ambivalenz nicht gerecht werden. Klar ist aber: Selbstverpflichtungen allein reichen auch hier nicht aus. Zur effektiven Verhinderung der intransparenten Beeinflussung demokratischer Willensbildungsprozesse brauchen wir eine rechtlich implementierte Verpflichtung zur Offenlegung des Bot-Charakters von Botschaften. Wir sprechen uns für die gesetzliche Festlegung einer derartigen Transparenz- und einer Anzeigepflicht für den Einsatz von Social Bots aus.

Unserer Vorschläge, da geben wir uns keiner Illusion hin, werden sicher nicht alle Probleme dieser Welt lösen, sie wären aber eventuell ein Anfang. Wie gesagt, wir haben uns auf den Weg gemacht, sagen nicht, dass unsere bisherigen Vorschläge in Stein gemeißelt oder gar der Weisheit letzter Schluss sind. Aber: Man muss natürlich immer auch die Frage stellen, ob einem die derzeit diskutierten Alternativen, v.a. die Klarnamenpflicht für alle, die ja zum Beispiel gestern erst wieder bei der CDU von prominenter und meinungsmächtiger Seite gefordert wurde, die Schaffung eines staatlichen „Wahrheitsministeriums“, das Drängen von Facebook in die Rolle eines Zensors über „wahr“ und unwahr“, die weitere Eskalation des „Cyberwars“ durch proaktive Angriffe, immer neue Straftatbestände etc. pp. tatsächlich zielführend oder einem gar lieber sind und was man all diesen Forderungen der letzten Wochen eigentlich selbst entgegensetzt. Wir freuen uns auf die weitere Diskussion!

2 Comments

  1. Eric Sanger

    Hallo Konstantin, ich hoffe ihr lernt etwas aus den Anhörungen. Zum Beispiel von Markus Reuter: „Über die Wirkungen und Effekte von Fake News und Social Bots auf die politische Meinungs- und Willensbildung gibt es bislang weder in den USA noch in Deutschland ausreichende und ergiebige Studien, weswegen eine Regulierung zum jetzigen Zeitpunkt ohne eine empirische Grundlage passieren würde.“ Und warum überlasst ihr es Katrin Göring-Eckardt, damit öffentlich zu gehen, anstatt jemanden in der Fraktion, der sich mit dem Thema auskennt?

  2. KonstantinNotz (Post author)

    Lieber Eric,

    besten Dank für Deine Nachricht! Aus Anhörungen lernt man immer, dafür sind sie ja da! Mit Markus stehen wir zu all diesen Fragen in einem intensiven Kontakt. Ganz so wie Markus sehen wir es übrigens nicht: Richtig ist, die Empirie könnte besser sein, deswegen fordern wir ja in unserem aktuellen Beschluss von Weimar, der oben verlinkt ist, genau das, nämlich eine Verbesserung der Forschung in dem Bereich. Es ist aber auch nicht so, dass es bislang keinerlei Empirie gäbe. Unser Vorschlag der Kennzeichnung, den auch Katrin Göring-Eckardt aufgegriffen hat, steht übrigens auch in unserem Beschluss und während der Anhörung wurde er von mehreren Sachverständigen durchaus positiv aufgenommen.

    Beste Grüße
    JoernPL für die Redaktion

Comments are closed.