ALGORITHM WATCH — Beobachtungsplattform für digitale „Entscheider“

Aus der Rubrik LAND IN SICHT der Aus­ga­be DGITALISIERUNG 2/17

Egal ob selbst­fah­ren­de Autos, per­so­na­li­sier­te Online­n­ach­rich­ten oder auto­ma­ti­sier­ter Hoch­fre­quenz­han­del an der Bör­se – wenn Maschi­nen ent­schei­den, basiert dies auf Algo­rith­men. Obwohl dem Wort ein fast mys­ti­scher Klang anhaf­tet, ist ein Algo­rith­mus nichts wei­ter als eine genaue Hand­lungs­an­wei­sung, um ein Pro­blem zu lösen. In der Grund­schu­le begeg­nen wir Algo­rith­men wie der schrift­li­chen Sub­trak­ti­on. Im All­tag hel­fen sie uns in Form von Bedie­nungs­an­lei­tun­gen, um Auf­ga­ben wie den Auf­bau von Ikea-Rega­len zu bewäl­ti­gen. Auf die glei­che Wei­se bestim­men Algo­rith­men, dass ein selbst­fah­ren­des Auto bei einem Hin­der­nis aus­weicht, wel­che Nach­richt weit oben im News­feed erscheint oder wel­che Aktie inner­halb von Mil­li­se­kun­den gekauft und wie­der ver­kauft wird.

Was aber, wenn ein selbst­fah­ren­des Auto jeman­den tötet? Wenn spe­zi­fi­sch abge­stimm­te Bot­schaf­ten im News­feed Men­schen dazu bewe­gen, extre­me poli­ti­sche Par­tei­en zu wäh­len oder wenn Hoch­fre­quenz­han­del zu insta­bi­len Märk­ten führt? Maschi­nel­les Ent­schei­den auf der Basis von Algo­rith­men  ndet in immer mehr Berei­chen Anwen­dung. Die gesell­schaft­li­che Debat­te dar­über, wie damit umzu­ge­hen ist, wenn die ursprüng­li­chen Pro­blem­lö­ser selbst Pro­ble­me ver­ur­sa­chen, kommt jedoch nur lang­sam hin­ter­her.

Algo­rithm Watch möch­te das ändern. Eine Phi­lo­so­phin, eine Natur­wis­sen­schaft­le­rin und zwei Jour­na­lis­ten grün­de­ten die­se Platt­form im Mai 2016 auf der re:publica:. In ihrem Mani­fest heißt es, algo­rith­mi­sche Ent­schei­dungs­pro­zes­se sei­en nie­mals neu­tral und müss­ten nach­voll­zieh­bar sein, damit sie demo­kra­ti­scher Kon­trol­le unter­wor­fen wer­den kön­nen. Von Algo­rith­men unter­stütz­te Ent­schei­dun­gen sol­len aber nicht ver­teu­felt wer­den. Es geht den vier Grün­dern viel­mehr dar­um, dass Bür­ger­rech­te geach­tet wer­den. So beschäf­ti­gen sie sich unter ande­rem mit Pre­dic­tive Poli­cing, bei dem die Poli­zei mit­hil­fe von Algo­rith­men ver­sucht, aus gro­ßen Daten­men­gen vor­her­zu­sa­gen, wo zukünf­ti­ge Ver­bre­chen wie Ein­brü­che pas­sie­ren. Auf­grund der kom­ple­xen und tech­ni­schen Natur algo­rith­mi­scher Ent­schei­dungs­pro­zes­se will Algo­rithm Watch ihre Aus­wir­kun­gen nicht nur beob­ach­ten, son­dern auch für eine brei­te Öffent­lich­keit erläu­tern. Sie wol­len Exper­ten zusam­men­brin­gen und mit­ge­stal­ten, wenn es dar­um geht, geeig­ne­te Auf­sichts­or­ga­ni­sa­tio­nen zu ent­wer­fen.

Mehr dazu unter: algorithmwatch.org

Wie wür­den Sie einem Kind erklä­ren, was ein Algo­rith­mus ist?
In Situa­tio­nen, in denen man selbst gera­de kei­ne Zeit oder kei­ne Lust hat, eine Ent­schei­dung zu tref­fen, kann man die­se an jemand ande­ren abge­ben, von dem man denkt, dass er oder sie eine gute Ent­schei­dung tref­fen wird. Die­ser jemand schreibt die Ent­schei­dung dann auf einen Zet­tel und tut sie in eine Kon­ser­ven­do­se. Wenn ich nun die Dose auf­ma­che, dann kommt die Ent­schei­dung her­aus – wie bei einem Algo­rith­mus.

Wann sind Maschi­nen die bes­se­ren Ent­schei­der?
Zunächst ein­mal ent­schei­den Maschi­nen nicht, da sie kei­ne Absich­ten haben. Nur Men­schen kön­nen han­deln und Ent­schei­dun­gen tref­fen. Men­schen han­deln aber nicht immer kon­se­quent. Ein Rich­ter ent­schei­det etwa vor dem Essen anders als nach dem Essen. Bei unse­ren Ent­schei­dun­gen spie­len Sym­pa­thien eine Rol­le und manch­mal ein­fach nur das Wet­ter. Algo­rith­men hin­ge­gen sind kon­se­quent – und das kann ein Vor­teil sein.

Ihr Name deu­tet auf eine Nicht­re­gie­rungs­or­ga­ni­sa­ti­on (NGO) hin. Ist das die Rol­le, in der Sie sich sehen?
Ja, prin­zi­pi­ell schon. Bei man­chen „Watch“-Organisationen ent­steht jedoch der Ein­druck, dass sie dem Objekt der Beob­ach­tung gegen­über eher skep­ti­sch ein­ge­stellt sind. Das ist bei uns nicht der Fall. Wir sehen im Gebrauch von Algo­rith­men einen Mehr­wert für die Gesellschft. Des­halb sehen wir uns in einer ähn­li­chen Rol­le wie die Orga­ni­sa­ti­on Food­watch, die auch nicht prin­zi­pi­ell etwas gegen Essen hat.

War­um haben Sie sich kri­ti­sch zum Vor­schlag für eine EU-Char­ta digi­ta­ler Grund­rech­te geäu­ßert, die unter ande­rem von Mar­tin Schulz, Sascha Lobo und Juli Zeh initi­iert wur­de?
Unser Haupt­kri­tik­punkt ist, dass es Men­schen­rech­te unab­hän­gig vom Medi­um gibt. Sie vom Medi­um abhän­gig zu machen, wie die EU-Char­ta digi­ta­ler Grund­rech­te es sug­ge­riert, bedeu­tet, dass die Grund­rech­te, die wir jetzt haben, online nicht mehr gel­ten. Das scheint mir sowohl aus ethi­schen als auch aus juris­ti­schen Grün­den frag­wür­dig.

wbernhardt