[perspektive:] Österreichische Polizei nutzt Gesichtserkennung, um AntifaschistInnen zu verfolgen

Ende Juni hatten FeministInnen, kurdische AktivistInnen und andere AntifaschistInnen in Wien eine Frauendemo gegen Angriffe der faschistischen Grauen Wölfe verteidigt. Nun nutzt die österreichisch Polizei Gesichtserkennungssoftware und Bilder aus den Social Media, um AntifaschistInnen zu identifizieren.

Der digi­ta­le Bild­ab­gleich ist nun stan­dard­mä­ßi­ges Instru­ment der öster­rei­chi­schen Poli­zei. Das Innen­mi­nis­te­ri­um bestä­tig­te, dass er bereits zum Ein­satz kam, um Gesich­ter von Anti­fa­schis­tIn­nen zu iden­ti­fi­zie­ren.

Ende Juni hat­ten Graue Wöl­fe, eine tür­ki­sche faschis­ti­sche Struk­tur, in Wien eine Frau­en­de­mons­tra­ti­on ange­grif­fen. Gemein­sam mit kur­di­schen Akti­ven und ande­ren Anti­fa­schis­tIn­nen ver­tei­dig­ten die Frau­en ihre Demons­tra­ti­on eben­so wie das Ernst-Kirch­we­ger-Haus. In die­sem lin­ken Zen­trum ist auch ein kur­di­scher Ver­ein ansäs­sig, den die Grau­en Wöl­fe eben­falls angrif­fen. Hier kam es zu Sach­be­schä­di­gun­gen und Kör­per­ver­let­zun­gen.

Ergebnisse müssen vom Verfassungsschutz bestätigt werden

Ins­ge­samt gab es nach den Aus­ein­an­der­set­zun­gen, die sich über meh­re­re Tage zogen, 106 Anzei­gen. 59 davon rich­ten sich gegen Unbe­kannt. Ers­te Ergeb­nis­se der Gesichts­er­ken­nung muss der Ver­fas­sungs­schutz nun noch bestä­ti­gen.

Um auf­ge­nom­me­ne Gesich­ter abzu­glei­chen, greift die öster­rei­chi­sche Poli­zei nicht nur auf eige­ne Daten­ban­ken zurück. Auch Bil­der auf sozia­len Medi­en haben die Ermitt­le­rIn­nen her­an­ge­zo­gen, um Anti­fa­schis­tIn­nen zu iden­ti­fi­zie­ren.

Ob es dafür eine Rechts­grund­la­ge gibt, ist umstrit­ten. Das Innen­mi­nis­te­ri­um beruft sich auf das Sicher­heits­po­li­zei­ge­setz, ande­re sehen kei­ne Rechts­grund­la­ge ange­sichts der kon­kre­ten Vor­wür­fe.

Genaue Funktionsweise unbekannt

Wie genau der Bild­ab­gleich funk­tio­niert, dar­über macht das Innen­mi­nis­te­ri­um kei­ne Aus­sa­ge. Dies sei Betriebs­ge­heim­nis der Her­stel­ler. Jedoch ist von Ver­su­chen mit Gesichts­er­ken­nungs­soft­ware bekannt, dass die­se Ras­sis­mus repro­du­zie­ren.

Das liegt dar­an, dass sie auf Grund­la­ge von Daten funk­tio­nie­ren, die ein ras­sis­ti­sches Sys­tem – etwa auch die Poli­zei – erhebt und sam­melt. Im Algo­rith­mus kann die­ser Ras­sis­mus sich mit­tels Künst­li­cher Intel­li­genz (KI) ver­selbst­stän­di­gen, selbst bestär­ken und durch die schein­ba­re Objek­ti­vi­tät von Algo­rith­men eine neue Gefahr für Men­schen wer­den, die von Ras­sis­mus bedroht sind.

Der Bei­trag Öster­rei­chi­sche Poli­zei nutzt Gesichts­er­ken­nung, um Anti­fa­schis­tIn­nen zu ver­fol­gen erschien zuerst auf Per­spek­ti­ve.

Read More