Soziale Netzwerke - Die unheimliche Manipulation durch Robot-Herden

Begonnen von Rappelkistenrebell, 09:50:57 Di. 15.Dezember 2015

⏪ vorheriges - nächstes ⏩

Rappelkistenrebell

Newsartikel. Feindselige Kommentare bei Facebook und Twitter stammen oft nicht von Menschen – sondern von Socialbots. Sie manipulieren Wahlen, Kampagnen und Börsen.

Soziale Netzwerke -  Die unheimliche Manipulation durch Robot-Herden


Das haben manche immer schon geahnt: Für die USA ,,und den militärisch-industriellen Komplex" lohne es sich, ,,einen Krieg mit Russland in Europa anzuzetteln". Das war ebenso auf Facebook zu lesen wie ,,Ich habe für jeden Flüchtling eine Kugel". Viele solche Äußerungen sind in sozialen Netzwerken zu finden. Wenn Facebook, Twitter und Co. als Spiegelbild der Gesellschaft gelten, dann besteht diese aus lauter Spinnern und Hetzern.

Für die ansteigende Flut an Verschwörungstheorien und Hasskommentaren im Netz kann es aber auch eine ganz andere Erklärung geben: Sie stammen gar nicht von echten Menschen. Soziale Roboter, sogenannte Social Bots, verfassen die Texte automatisch. Gesteuert werden sie von bestimmten Interessengruppen oder Unternehmen, oder auch von der Terrororganisation IS.

Das Unheimliche daran: Die Maschinen reagieren mit ihren Kommentaren und Parolen auf aktuelle Ereignisse und greifen aktiv in Debatten ein, indem sie die Texte in Foren und auf den bekanntesten sozialen Plattformen veröffentlichen.
10.000 Twitter-Accounts für 350 Dollar

Ganz sicher ist sich Simon Hegelich bei dem Tweet ,,Putin plant Krieg gegen die Ukraine noch diesen Monat!" Der sei höchstwahrscheinlich maschinenproduziert, sagt der 39-jährige Dozent an der Universität Siegen. Hegelich und weitere Forscher wollen in dem Projekt Social Media Forensic (SoMeFo) herausfinden, wie verbreitet das Phänomen ist und wie man Kommentare im Netz als Beiträge entlarven kann, die ein Computer, ein Social Bot verfasst hat. Als dringend notwendig stuft auch das Bundesministerium für Bildung und Forschung so eine Analyse ein und fördert deshalb das Projekt.

Die Social Bots sind zu einem wachsenden Ärgernis geworden: ,,Die Anzahl an Bots, die in sozialen Netzwerken aktiv sind, nimmt definitiv zu. Zumal das technisch leicht zu realisieren ist und der Einsatz nicht viel kostet: 10.000 gefälschte Twitter-Accounts gibt es schon für 350 Dollar", sagt Hegelich.

Und das Programm dahinter ist flexibel einsetzbar: ,,Eines der großen Probleme von Social Bots ist deren Skalierbarkeit. Ist ein Bot für einen Account entwickelt, lässt er sich – mit wenigen Anpassungen – auch für weitere Accounts einsetzen."
Social Bots machen auch Fehler

Wozu solche Bots in der Lage sind, kann Hegelich am Beispiel einer Software zeigen, die vermutlich ukrainische Ultranationalisten einsetzen: Höchstwahrscheinlich lassen sich ihnen 15.000 Twitter-Profile zuschreiben – die bis zu 60.000 Tweets pro Tag absetzen.

Und die Programme gehen dabei sehr geschickt vor: ,,Social Bots verhalten sich wie menschliche Nutzer: Sie bekommen mit, wenn ihr Thema bei Twitter gerade hochkocht, und schreiben Texte, die sich darauf beziehen. Die Software kann mit eigenen Kommentaren auch direkt auf Tweets anderer Nutzer antworten, denen sie folgt. Denn auch dazu sind Bots in der Lage: Sie werden automatisch Follower bestimmter Nutzer", sagt Politikwissenschaftler Hegelich.

Sprachlich sind die Texte von akzeptabler Qualität, sie machen nicht mehr oder weniger Fehler als menschliche Nutzer, die sich in sozialen Netzwerken äußern. Um möglichst seriös zu klingen, kopieren sie zum Teil ganze Sätze aus Lexika oder von Webseiten wissenschaftlicher Institute.

Auch sonst wissen Social Bots ihr Maschinenwesen gut zu verbergen, wie Hegelich anhand der ukrainischen Twitter-Software festgestellt hat: ,,Die meiste Zeit setzt die Software Tweets mit Sportnews und Links auf illegale Download-Websites ab – das soll ihre Glaubwürdigkeit erhöhen, dass dahinter echte Menschen stecken. Nur ab und an streut der Bot Tweets mit politischen Aussagen ein."
Metadaten können Social Bots entlarven

Die Wissenschaftler um Projektleiter Hegelich, dessen Forschungskolleg der Universität Siegen mit Forschern des Leibniz-Instituts für Sozialwissenschaften GESIS und der Cologne Business School kooperiert, entwickeln derzeit komplexe Algorithmen, um hinter die Maske der angeblich echten Twitterer und Facebook-Nutzer zu sehen. Zum einen analysieren sie die sogenannten Metadaten.

Daran ist in einigen Fällen zu sehen, dass die Tweets gar nicht vom russischen Facebook-Pendant VK kommen, wie es vorgegaukelt wird, sondern von einem Server, auf dem sich keine echten Menschen anmelden müssen. ,,Wir entwickeln außerdem gerade einen Algorithmus, der anhand des Profilbilds erkennt, ob es sich um einen menschlichen Nutzer oder einen Social Bot handelt. Die Trefferquote liegt bereits bei über 80 Prozent", sagt Hegelich.

Tatsächlich haben Betreiber der Bots ein Problem: Für ihre Tausende oder gar Zehntausende gefälschten Twitter-Profile fehlen ihnen ausreichend Fotos realer Menschen. Daher greifen sie auf Comicbilder zurück oder auf Aufnahmen, die sie sich automatisch aus dem Internet zusammensuchen. Das aber kann die Analyse-Software der Wissenschaftler leicht nachvollziehen.

Eine weitere Methode des Entlarvens ist das Datamining, bei dem große Datenbestände mithilfe statistischer Methoden untersucht werden. Ein Ergebnis: Menschliche Twitterer sind vor allem unter der Woche aktiv, Bots – zumindest die schlecht programmierten – sind am Wochenende ebenso rege.
Social-Bot-Betreiber passen Tarnung ständig an

Doch die Social-Bot-Betreiber steuern gegen: Sie lassen ihre Maschinen ebenfalls vermehrt montags bis freitags Kommentare absetzen, und künftig werden sie wohl auch echt aussehende Fotos per Software erschaffen. Oder existierende Bilder werden derart verfremdet, dass keine Software mehr auf ein Original schließen kann. Außerdem greifen die Bot-Betreiber massenhaft auf Datensätze tatsächlich lebender Menschen zu, um sich in deren Namen als Nutzer anzumelden. Die Datensätze gibt es für wenig Geld im Netz zu kaufen.

Ein anderes Beispiel für das Hase-und-Igel-Spiel: Twitter hat Bots daran identifizieren können, dass sie deutlich mehr Nutzern folgen als andere ihnen. Daraufhin haben die Betreiber die Software so umprogrammiert, dass sich die Bots gegenseitig folgen. Danach war das Verhältnis ausgewogen, Twitter fiel die Maskerade nicht mehr auf.

Solche Tricksereien machen den sozialen Netzwerken zu schaffen, schließlich sollen sich die Mitglieder sowie die Unternehmen, die auf den Plattformen werben, darauf verlassen dürfen, dass sie es mit echten Menschen zu tun haben. Daher sperren sie verdächtige Profile und schicken Anfragen, die nur ein Mensch beantworten kann. Erst wenn das geschehen ist, wird die Blockade aufgehoben.

Doch selbst darauf haben sich die Social-Bot-Betreiber eingestellt: Sie haben echte Menschen angestellt, die diese Nachfragen beantworten können. Nach der Entsperrung übernimmt wieder die Software. Hier ist nicht mehr der Computer das Werkzeug, hier wird der Mensch zum Handlanger der Maschine.
Social Bots verzerren Stimmungsbild

Wozu der Irrsinn? In einigen Fällen steckt nüchternes Geschäftsinteresse dahinter. Manche Betreiber wollen durch gezielte Falschinformationen Konkurrenten diskreditieren. Dass schon Börsenkurse durch Twitter-Bots manipuliert worden sind, ,,ist wahrscheinlich, aber kaum nachzuweisen", sagt Hegelich. Der IS will mit seinen Tweets Kämpfer rekrutieren und dürfte dazu die Social-Bot-Technik massiv einsetzen.

Von vielen Tausend Bots ist die Rede. Die 5.500 Twitter-Accounts des IS, die die Hackergruppe Anonymous schon attackiert hat, machen da lediglich einen Bruchteil aus. Und auch das ist möglich: Während eines Wahlkampfs in Mexiko, so Hegelich, hätten ,,ganz offensichtlich" einige Kandidaten Bots eingesetzt, um Mitbewerbern zu schaden.

Dass Ähnliches schon jetzt oder in Zukunft auch in Deutschland vorkommt, ist wahrscheinlich, konkrete Beispiele aber benennt Hegelich nicht. Für Soziologen und Politikwissenschaftler bringt der massive Einsatz der Manipulationstechnik ein weiteres Problem: ,,Je mehr Social Bots aktiv sind, desto unsicherer sind unsere Erkenntnisse darüber, welche Themen und Meinungen in sozialen Netzwerken eine bedeutende Rolle spielen. Wir wissen dann nicht, ob sich die Menschen zum Beispiel grundsätzlich vermehrt negativ über Flüchtlinge äußern – oder ob das von einer Software stammt", sagt Hegelich.

Das könne für Meinungsbildung durchaus entscheidend sein. ,,Würden die Bots nur anderen Bots folgen, könnte man das als ein Hintergrundrauschen des Webs abtun. Doch zu den Followern gehören auch ganz reale Menschen, die die vom Computer erstellten Texte an ihre Kontakte weiterleiten. Die wiederum schenken den Inhalten großes Vertrauen, da sie ja von einem Bekannten stammen", gibt Hegelich zu bedenken. ,,Dadurch könnte es sein, dass ganze Peergroups, also Bezugsgruppen ähnlichen Alters, von einer Meinung infiziert werden." Einer Meinung, die allerdings kein Mensch formuliert hat, sondern eine Maschine.


Quelle


http://www.welt.de/wirtschaft/webwelt/article149665357/Die-unheimliche-Manipulation-durch-Robot-Herden.html

Gegen System und Kapital!


www.jungewelt.de

dagobert

"Ich glaube, daß man nichts vom Krieg mehr wüßte,
wenn wer ihn will, ihn auch am meisten spürt."
Udo Jürgens (Ich glaube, 1968)

Rudolf Rocker


schwarzrot

Zitat von: dagobert am 15:53:38 Di. 15.Dezember 2015
Gruselig.
Ja, vor allem auch totaler schwachsinn!  ;D

Gehen wir doch mal etwas analytisch vor.
Dazu muss man erstmal grundsätzlich wissen, dass die entzifferung und generierung(!) von menschlicher sprache, für computer ähnlich schwer ist, wie wenn ein roboter sich in einer für menschen gebauten umgebung bewegen will.
Wie sowas normalerweise ausgeht, kann man an diesem vid sehen:

http://www.youtube.com/watch?v=NeFkrwagYfc#
Oder versucht doch einfach mal wieder den automatischen übersetzer z.b. von google.  :D

Und dabei handelt sich es um die creme-de-la-creme der universitäten und millardenschweren firmen, also nicht um eine software & man/brainpower, die es mal eben um die ecke gibt.

Einen weiteren hinweis findet man über den hintergrund des obigen artikels, wenn man sich mal ansieht, über wen berichtet wird:


Zitat von: Rappelkistenrebell am 09:50:57 Di. 15.Dezember 2015
Die Wissenschaftler um Projektleiter Hegelich, dessen Forschungskolleg der Universität Siegen mit Forschern des Leibniz-Instituts für Sozialwissenschaften GESIS und der Cologne Business School kooperiert, entwickeln derzeit komplexe Algorithmen
Es geht hier also um mitteleinwerbung für ein projekt. Auch ist dozent (Ph. dr.) Hegelich nicht mal informatiker, oder besser computerlinguist, sondern sozialwissenschaftler. Und als Experten hat er dann genies der 'Cologne Business School' an bord.
(die vermutlich prima darin sind, um irgend jemanden, was-auch-immer zu verkaufen, oder glauben zu lassen und dafür sein geld abzuknöpfen)  ;D

Einen zweiten hinweis erhält man über den wahrheitsgehalt des artikels, wenn man mal detailiert schaut, was denn wirklich als fakt genannt, oder wie oft mit journslistischen tricks gearbeitet wird:
Zitat
Daran ist in einigen Fällen zu sehen, dass die Tweets gar nicht vom russischen Facebook-Pendant VK kommen
...
Menschliche Twitterer sind vor allem unter der Woche aktiv, Bots – zumindest die schlecht programmierten – sind am Wochenende ebenso rege.
...
und künftig werden sie wohl auch echt aussehende Fotos per Software erschaffen
...
Wozu der Irrsinn? In einigen Fällen steckt nüchternes Geschäftsinteresse dahinter. Manche Betreiber wollen durch gezielte Falschinformationen Konkurrenten diskreditieren
...
Der IS will mit seinen Tweets Kämpfer rekrutieren und dürfte dazu die Social-Bot-Technik massiv einsetzen.

Von vielen Tausend Bots ist die Rede. Die 5.500 Twitter-Accounts des IS, die die Hackergruppe Anonymous schon attackiert hat, machen da lediglich einen Bruchteil aus. Und auch das ist möglich: Während eines Wahlkampfs in Mexiko, so Hegelich, hätten ,,ganz offensichtlich" einige Kandidaten Bots eingesetzt, um Mitbewerbern zu schaden.

Dass Ähnliches schon jetzt oder in Zukunft auch in Deutschland vorkommt, ist wahrscheinlich, konkrete Beispiele aber benennt Hegelich nicht. Für Soziologen und Politikwissenschaftler bringt der massive Einsatz der Manipulationstechnik ein weiteres Problem: ,,Je mehr Social Bots aktiv sind, desto unsicherer sind unsere Erkenntnisse darüber, welche Themen und Meinungen in sozialen Netzwerken eine bedeutende Rolle spielen. Wir wissen dann nicht, ob sich die Menschen zum Beispiel grundsätzlich vermehrt negativ über Flüchtlinge äußern – oder ob das von einer Software stammt", sagt Hegelich.

Das könne für Meinungsbildung durchaus entscheidend sein.
...
Die wiederum schenken den Inhalten großes Vertrauen, da sie ja von einem Bekannten stammen", gibt Hegelich zu bedenken. ,,Dadurch könnte es sein, dass ganze Peergroups, also Bezugsgruppen ähnlichen Alters, von einer Meinung infiziert werden." Einer Meinung, die allerdings kein Mensch formuliert hat, sondern eine Maschine.

Als nächsten hinweis auf den wahrheitsgehalt, haben wir dann die quelle:
Zitat
Quelle
http://www.welt.de/wirtschaft/webwelt/article149665357/Die-unheimliche-Manipulation-durch-Robot-Herden.html
Und datürlich sammelt diese springer-quelle alles begierig, was sich gegen (neuland) 'das internet'(TM) und speziell die meingungsfindung in diesem medium richtet. Das wäre doch zu schön, wenn nicht die haufenweisen kommentare im netz, die friede springer nicht genehm sind, in wirklichkeit von (feindlichen) bots stammen würden?

Dabei ist die wahrheit 'wahrscheinlich' viel einfacher: Der 'IS', sowie die ukrainischen faschobrigaden, aber auch Putin, haben genügen fussvolk, das an ihre weltsicht glaubt und das neben der jeweiligen hauptbeschäftigung genügend freie zeit hat, um die im netz zu verbringen (sofern es dort eins gibt).
Vielleicht gibt es zusätzlich ein paar botscripte, die nach diesen (von menschen) generierten inhalten suchen und diese mit künstlichen accounts vervielfältigt.
Dazu muss man nicht mal besonders programmieren können, um sowas hinzubekommen. Das wäre aber auch kalter kaffee, keinen bericht wert.

Also, ganz so 'gruselig' ist das dann bei licht betrachtet nicht. aber das taugt dann ja nicht für einen dicken artikel oder jede menge forschungsmittel.  ;)

Zu guter letzt, wer lust hat sich mit dem thema mal wirklich etwas näher zu befassen, hier gibts einen einstieg:
https://de.wikipedia.org/wiki/Turing-Test
"In der bürgerlichen Gesellschaft kriegen manche Gruppen dick in die Fresse. Damit aber nicht genug, man wirft ihnen auch noch vor, dass ihr Gesicht hässlich sei." aus: Mizu no Oto

Wieder aktuell: Bertolt Brecht

Onkel Tom

Danke schwarzrot  ;)

Das rot gefärbte besagt ja sehr deutlich, wie sich der ganze Satz in sich im Widerspruch auflöst.

Bots mit "künstlicher Sprachintiligenz" wären mir auch neu und das jemand auf Knete, Öffentlichkeit
zu solch einem Forschungsprojekt die Welle macht kann ich auch eher nachvollziehen.

In Zeiten wie heute wünschen sich bestimmt viele die Waffe Bot mit künstlicher Sprachintelligenz,
doch das Ausmaß deren Folgen ?

Auf Foren, die auf Kontakte von Usern untereinander aus sind, kusieren "halbautomatische" Konzepte,
wie maschinell auf E-Mails geantwortet werden kann, doch die sind leicht zu testen und wie Du schon
sagtest, kann mann das an der grusiligen Sprache erkennen.

Intelligennte Bots würden das Internet töten, aber das ist Zukunftsmusik  :rolleyes:
Lass Dich nicht verhartzen !

schwarzrot

Zitat von: Onkel Tom am 19:53:47 Di. 15.Dezember 2015
Intelligennte Bots würden das Internet töten, aber das ist Zukunftsmusik  :rolleyes:

Nicht notwendiger weise. Vermutlich würden sie eher die vorstellung verändern was menschlich ist.

http://www.youtube.com/watch?v=uBqiQ_Faj4Y


http://www.youtube.com/watch?v=zWuw7tWbrlw
"In der bürgerlichen Gesellschaft kriegen manche Gruppen dick in die Fresse. Damit aber nicht genug, man wirft ihnen auch noch vor, dass ihr Gesicht hässlich sei." aus: Mizu no Oto

Wieder aktuell: Bertolt Brecht

dr.gscheidle

Sehr geehrte Damen und Herren,

auch ich lehne Soziale-Internetz-Roboter zutiefst ab! Diese sind weder intelligent, noch wirklich brauchbar. Natürlich sind sie billig, da sie keine unangemessenen Löhne verlangen, aber wie sollen diese denn auf Widerspruch kontern oder Gegenargumente widerlegen?

Da lobe ich mir doch meine echten, menschlichen Pro-Stuttgart-21-Lohnschreiber, für deren Koordination mir die redliche Deutschen Bahn AG den Auftrag erteilt hat. Es handelt sich hierbei um redliche und sogar fleißige Leute, deren Meinung (insbesondere zu Stuttgart 21!) sehr redlich ist, was ich selbstverständlich überprüft habe! Besonders gut finde ich, dass ich sie selbst nicht bezahlen muss - für deren Bezahlung trägt ein redliches Konsortium aus der redlichen Deutschen Bahn AG, der löblichen Tunnelbohrmaschinen-Hersteller-Firma Herrenknecht, einigen freundlichen Bankiers und etlichen fleißigen Immobilienfirmen Sorge. Ich selbst kassiere lediglich ein bescheidenes Honorar für deren Schulung und Koordination.

Und ich kann Ihnen versichern, dass diese Leute intelligent und redlich sind:
* Der freundliche Herr Scheff-Heizer, den ich insbesondere auf das Drehscheibe-online-Forum ansetze, fegt mit seinen hervorragend recherchierten und komplexen Ausführungen selbst den klügsten Stuttgart-21-Gegner (den es definitionsgemäß nicht gibt - wer klug ist, erkennt die riesigen Vorteile dieses spottbilligen Konjunktur-Ankurbelungs-Projektes!) an die Wand!
* Herr Ersatzsignal versteht es hervorragend, durch das Miesmachen von Stuttgart-21-Gegnern ohne auf deren sogenannte "Argumente" einzugehen, diesen Querulanten die Lust am Schreiben in Forum zu nehmen.
* Insbesondere muss ich jedoch hier meinen Lohnschreiber-Gruppenleiter, den hochredlichen Herrn Paul Peter erwähnen: Nicht nur, dass wir längst auch privat befreundet sind, denn ein redlicherer Mensch ist mir fast noch nicht begegnet (Herr Peter kennt z.B. diese diabolische sogenannte "Sechs"-Sache gar nicht, womit er diese natürlich auch nie praktizieren wird - wie absolut redlich!), nein: Sein Beißreflex bei einem auch nur geringen Kontakt mit Stuttgart-21-Gegnern (oder auch nur Leuten, die skeptisch in Bezug auf Stuttgart-21 sind) hat ihn zu einem Vorbild für jeden Lohnschreiber gemacht! Gerne hetzt er seinen braven Kampfhund in Anti-Stuttgart-21-Demonstrationen, und er versteht es auch hervorragend, in jedem zweiten Satz seiner Beiträge eine unterschwellige Beleidigung gegenüber unredlichen Stuttgart-21-Gegnern, den garstigen Bevormundungs-Bündnisgrünen oder gar der diabolischen Stasi-SED/Die Linke unterzubringen! Wie Sie sehen: ein äußerst kompetenter und redlicher Lohnschreiber - nicht umsonst habe ich ihn in die Gruppenleiter-Position gehievt (und jeder Lohnschreiber, der gegenüber Stuttgart-21-Gegnern unangemessenerweise  Respekt oder Manieren zeigt, wird selbstverständlich für eine Woche bei Herrn Peter zur Nachschulung geschickt!).

All das kann ein Roboter überhaupt nicht leisten - aus diesem Grund setze ich ausschließlich auf redliche und effektive menschliche Lohnschreiber, damit das kapazitätsverdreifachende Umweltschutzprojekt "Stuttgart 21" endlich positiv in der Bevölkerung wahrgenommen wird.

Mit freundlichen Grüßen

Dr. Diethelm Gscheidle
(Verkehrswissenschaftler & Dipl.-Musikexperte)
Ich bin ein löblicher Mensch - daher sind meine Beiträge redlich und anglizismenfrei.

CubanNecktie

Ich zweifel auch daran, dass jetzt schon solche intelligenten Bots gibt  ;) - nicht einmal die google-übersetzung, mit dem googlebot funktioniert gut, ließt sich genauso Stulle wie mein Sprachüberstzungstool, dass ich mir für 300DM 1994 gekauft habe - war damals n Fehlkauf. In 20 Jahren, können wir erneut drüber reden. 
Vorstellungsgespräch bei einer Leihbude?
ZAF Fragebogen
Passwort: chefduzen.de

Onkel Tom

Dr. Gescheidle,
Ja, da haben Sie völlig Recht, das Bots bei solchen Aufwand, wie es bei Stuttgard-21 - Profiteuren
erforderlich ist nicht mithalten kann.
Wie soll ein Programmierer vor dem Ereigniss wissen, das ein Stuttgard-21 - Gegner durch ein
Wasserwerferstrahl sein Augenlicht verliert ?

Aber ob das so redlich ist, was deine Kollegen so treiben ?
Lass Dich nicht verhartzen !

Similar topics (10)

  • Chefduzen Spendenbutton