Der Angriff der Polit-Bots

Die Machen­schaf­ten der Fir­ma «Cam­brig­de Ana­ly­ti­ca» bele­gen, dass demo­kra­ti­sche Ent­schei­dungs­pro­zes­se in naher Zukunft einem digi­ta­len Gross­an­griff auf die Mei­nungs­bil­dung aus­ge­setzt sein wer­den. Auch in der Schweiz sind bereits Fir­men am Start, wel­che die öffent­li­che Mei­nung «ganz legal» mani­pu­lie­ren wol­len. Die Fir­ma «Enig­ma1» legt in der Han­dels­zei­tung ihre Ambi­tio­nen offen auf den Tisch. Mit Bots2 und KI3 — so die voll­mun­di­gen Ankün­di­gun­gen — soll die Mei­nung einer «emp­fäng­li­chen» Schicht zu Guns­ten der Kund­schaft beein­flusst wer­den. Ein gekauf­tes Abstim­mungs- oder Wahl­re­sul­tat kann dem­nach her­bei­ge­führt werden.

Die Men­schen wer­den sti­mu­liert und ange­regt zur Über­nah­me einer Fremd­mei­nung und zum Ent­schluss, die­se an der Urne kundzutun.

Die Klas­se der «Emp­fäng­li­chen» lässt sich unmit­tel­bar auf die Unent­schlos­se­nen, die Unin­for­mier­ten, die Wan­kel­mü­ti­gen und die Poli­tik-Abs­ti­nen­ten ein­gren­zen. Die­se Grup­pie­rung ist in der Schweiz pro­mi­nent ver­tre­ten. Wenn es gelin­gen soll­te, die­sen Per­so­nen­kreis mit auf die Per­sön­lich­keit ange­pass­ten Bot­schaf­ten zu über­zeu­gen und für eine Sei­te zu mobi­li­sie­ren, kön­nen knap­pe Abstim­mun­gen — oder auch Wah­len — im Sin­ne der Kun­den gewon­nen wer­den. Die­se beweg­ba­re Mas­se lässt sich logi­scher­wei­se emo­tio­nal und welt­an­schau­lich zu Mei­nun­gen bewe­gen, die sie sich nicht sel­ber gebil­det hat. Sie wer­den sti­mu­liert und ange­regt zur Über­nah­me einer Fremd­mei­nung und zum Ent­schluss, die­se an der Urne kundzutun.

Die­se Bots ler­nen und war­ten gedul­dig auf den geeig­ne­ten Zeit­punkt zuzuschlagen.

Das ist der simp­le Busi­ness-Plan sol­cher Mei­nungs­ma­cher. Das Werk­zeug für die­se Beein­flus­sung sind Bots, Maschi­nen, die sich als Men­schen tar­nen. Hier beginnt die Täu­schung, die Vor­spie­ge­lung fal­scher Tat­sa­chen, und hier beginnt die bedenk­li­che Mani­pu­la­ti­on der Demo­kra­tie. Sehr wahr­schein­lich haben sich schon etli­che «fal­sche Freun­de» in den Kreis unse­rer Fol­lower und Freun­de auf Twit­ter, Face­book und Goog­le+ ein­ge­schli­chen. Die­se Bots ler­nen und war­ten gedul­dig auf den geeig­ne­ten Zeit­punkt zuzu­schla­gen. Maschi­nen, die dar­auf trai­niert sind, psy­cho­lo­gi­sche Mus­ter von Social-Media-Teil­neh­me­rin­nen zu erken­nen, begin­nen auf Kom­man­do, mit mass­ge­schnei­der­ten Bot­schaf­ten auf deren Mei­nung­bil­dung ein­zu­wir­ken. Der Erfolg oder Miss­erfolg sol­cher men­ta­len Implan­ta­te lässt sich ahand von Klicks, Likes, Favs oder Ret­weets mes­sen und korrigieren.

Bot face - Gesicht eines Bots
Is it a man, a machi­ne or the bicy­cle repair man?

Demo­kra­tie lebt von leben­di­gen Debat­ten, dem Aus­tausch von Argu­men­ten zwi­schen Men­schen. Jetzt aber begin­nen Maschi­nen, Mei­nun­gen zu gene­rie­ren und demo­kra­ti­sche Pro­zes­se zu unter­wan­dern. Das ist eine gefähr­li­che Ten­denz, wel­cher so früh wie mög­lich Ein­halt gebo­ten wer­den muss. Vier mög­li­che Ansät­ze schei­nen geeig­net, der maschi­nel­len Beein­flus­sung der Demo­kra­tie entgegenzuwirken.

  • Ers­tens: Der Gesetz­ge­ber regu­liert den Ein­satz von poli­ti­schen Bots. Poli­ti­sche Aus­sa­gen von Bots müs­sen als poli­ti­sche Wer­bung gekenn­zeich­net wer­den. Den Ein­satz von poli­ti­schen Bots ganz zu ver­bie­ten, ist die sau­bers­te Lösung.
  • Zwei­tens: Die Anbie­ter von Social-Media-Platt­for­men unter­sa­gen den Ein­satz von Bots. Maschi­nen las­sen sich heu­te noch sehr effi­zi­ent von Men­schen unterscheiden.
  • Drit­tens: Eine Armee von Gegen-Bots führt poli­ti­sche Bots in die Irre. Das ist der Hacker-Ansatz à la «Seek & Des­troy». Der Unter­hal­tungs­wert eines sol­chen Bot-Krie­ges wäre nicht zu unterschätzen.
  • Vier­tens: Die Men­schen müs­sen Bot-Pro­fi­le erken­nen ler­nen. Die­se zeich­nen sich durch ein nied­ri­ges Akti­vi­täts-Niveau, wenig Fol­lower und ein unper­sön­li­ches Pro­fil ohne mensch­li­ches Pro­fil­bild aus. The­ma­tisch tre­ten sie ein­tö­nig, aber in der Sache ent­schlos­sen und fun­diert in Erschei­nung. Die Aus­sa­gen wei­chen nicht von mensch­li­chen Äus­se­run­gen ab, da sie von Men­schen ver­fasst wur­den. Soll­te sich der Ver­dacht erhär­ten, auf einen Bot gestos­sen zu sein, ist es rat­sam, die­sen in ein Gespräch zu ver­wi­ckeln. Die Ant­wort wird aus­blei­ben oder unsin­nig sein.

Auch wenn die Wirk­sam­keit die­ser maschi­nel­len Mas­sen­ma­ni­pu­la­ti­on noch nicht wis­sen­schaft­lich nach­ge­wie­sen ist, hat sie doch das Poten­zi­al, demo­kra­ti­sche Ent­schei­dun­gen mass­geb­lich zu ver­fäl­schen. Der Gesetz­ge­ber soll­te sich die­ser Pro­ble­ma­tik so schnell wie mög­lich anneh­men, bevor der Scha­den ange­rich­tet ist. Par­tei­en und Grup­pie­run­gen, die sich sol­cher unde­mo­kra­ti­scher Metho­den bedie­nen, soll­ten fer­ner abge­straft und an den Pran­ger gestellt wer­den. Fir­men, die sol­che Mani­pu­la­ti­ons-Metho­den anbie­ten, müs­sen dahin­ge­hend regu­liert wer­den, dass sich das Geschäfts­mo­dell kaum mehr lohnt.

Wir ste­hen am Anfang einer bedenk­li­chen Ent­wick­lung, die jetzt noch kon­trol­liert wer­den kann. Die Bots und KIs wer­den sehr schnell sehr viel intel­li­gen­ter. Des­halb soll­ten wir han­deln, solan­ge es noch nicht zu spät ist.

 

 

VN:F [1.9.22_1171]
Rating: 0.0/6 (0 votes cast)
image_pdfimage_print

CC BY-NC 4.0 Der Angriff der Polit-Bots von Domi­nic Zschok­ke ist lizen­ziert unter Crea­ti­ve Com­mons Namens­nen­nung-Nicht­Kom­mer­zi­ell 4.0 inter­na­tio­nal.

Kommentar hinterlassen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

*