#46 Videoüberwachung und Gesichtserkennung mit KI auf öffentlichen Plätzen

Shownotes

Der Podcast rund um das Thema Datenschutz und IT. Mit Dr. Klaus Meffert und Stephan Plesnik.

46 Videoüberwachung und Gesichtserkennung mit KI auf öffentlichen Plätzen


Ein Skandal in Sachsen und Berlin war Anlass für diese Folge. Dort wurden Gesichtsdaten von Personen in intransparenter Weise verwendet. Es ging um die Gesichtserkennung auf öffentlichen Plätzen und das Training einer KI hierfür. Auch auf Rückfragen gab es keine Klarstellung. Wir diskutieren kontrovers, ob Gesichtserkennung mit KI gut für unser Land ist oder ob zu sehr in die Privatsphäre von Bürgern eingegriffen wird.
Dies und einiges mehr in der aktuellen Episode von Datenschutz Deluxe.

Feedback geben? Fragen stellen? Gerne hier im Datenschutz-Blog von Klaus:
https://dr-dsgvo.de
Videokanal von Stephan: https://www.youtube.com/datenschutzistpflicht
Impressum:
https://dr-dsgvo.de/impressum
Inhaltlich verantwortlich ist jeder der Sprecher für seine eigenen Äußerungen.

Transkript anzeigen

00:00:00: Datenschutz Deluxe, der Podcast rund um das Thema Datenschutz und IT mit Dr. Klaus Meffert und Stephan Plesnik.

00:00:12: Hallo und herzlich willkommen, liebe Zuhörer zum Datenschutz Deluxe Podcast.

00:00:16: Mein Name ist Stephan Plesnik und bei mir ist wie immer Dr. Klaus Meffert. Lieber Klaus, wie geht es dir heute?

00:00:22: Stephan, mir geht es gut, ich hoffe dir auch und ich freue mich über unser spannendes Thema.

00:00:26: Ja, hier auf meiner Seite ist auch alles tutti und das spannende Thema, was ich mitgebracht habe, das freut mich sehr, weil es so ein bisschen, ich weiß nicht, es erinnert mich an graue Vorzeiten und gleichzeitig auch an nicht so weit zurückliegende Vergangenheiten, die doch sehr, sehr kritisch betrachtet wurden und irgendwie dann doch überhaupt kein Problem sind, wenn sie bei uns selbst auftauchen.

00:00:50: Und das Thema ist nämlich Echtzeitgesichtserkennung, die, so einigen Berichten zu entnehmen.

00:00:56: In Sachsen und Berlin an öffentlichen Plätzen, also zum Beispiel irgendwie an Bahnhöfen, Flughäfen und so weiter, doch sehr exzessiv eingesetzt wird durch Kamerasysteme, die eben eine Gesichtserkennung von Passanten vornehmen und dann das BKA diese Informationen sogar nutzt, um sie mit bestimmten Fahndungssystemen abzugleichen.

00:01:19: Und das natürlich alles, ohne dass irgendjemand was davon weiß vorher, der dort fotografiert.

00:01:26: Oder beobachtet und mit Video aufgezeichnet wird und dessen Daten dann so ausgewertet werden.

00:01:31: Und das erinnert mich so ein bisschen, ich weiß nicht, war es 2013, wo man sich noch so romantisch daran erinnerte, dass die NSA irgendwie Probleme bekommen hatte, weil Edward Snowden so viel darüber erzählt hat, was die alles für dreckige Sachen machen mit personenbezogenen Daten.

00:01:46: Kannst du dich noch erinnern? Wo führt das bei uns hin?

00:01:48: Ja, also zu Edward Snowden habe ich jetzt gestern oder vorgestern gelesen, dass er gesagt hat.

00:01:56: Die NSA ist kurz davor, das Internet komplett zu überwachen oder zu übernehmen, weil eben eine Gesetzesänderung in den USA ansteht, wonach jeder verpflichtet werden kann, der Zugang zu elektronischen Geräten von verdächtigen Subjekten oder Firmen oder sowas hat, für die NSA-Verdächtige oder Ziele von der NSA gezwungen werden kann, sozusagen der NSA Zugang zu diesen Geräten zu verschaffen.

00:02:20: Das bedeutet also, Reinigungskräfte zum Beispiel oder IT-Service-Personal von extern kann gezwungen werden von der NSA.

00:02:26: Wenn jemand einen Service-Einsatz bei dir zum Beispiel hat in der Firma und du bist ein Ziel von der NSA, was du ja nicht weißt, sonst wäre es ja kein Geheimdienst, dann können die gezwungen werden, Dinge zu tun, die du nicht gut findest, die deine Privatsphäre maximalen.

00:02:41: Aber jetzt zurück zum Thema.

00:02:44: Ich habe das natürlich auch vernommen, dieses Problem, das eben in Sachsen und Berlin war es, glaube ich, hast du gesagt, diese Videoüberwachung stattfindet.

00:02:56: Ja, irgendwelche Informationen herausgegeben worden sind, auch auf Nachfrage nicht und das finde ich den eigentlich bedenklichen Punkt.

00:03:02: Ich finde es an sich erstmal nicht, wie soll ich sagen, ob da jetzt ein Schild steht, dieser Platz wird Videoüberwacht oder nicht, also wenn es ein öffentlicher Platz ist, spielt für mich persönlich eigentlich eine sehr untergeordnete Rolle, muss ich sagen.

00:03:17: Also warum soll sich mein Verhalten dadurch ändern? Das würde sich ja nur verändern, wenn ich ein Straftäter wäre und dann fände ich es gut, wenn der überwacht wird, ehrlich gesagt.

00:03:25: Mhm.

00:03:26: Es sind halt immer zwei Seiten. In China zum Beispiel gibt es ja die Überwachung derart, dass jemand, der den Müll auf die Straße wirft, rechtswidrig natürlich, will ja auch keiner, dass jemand Müll entsorgt derart, dass der Sanktionen zu verspüren bekommt.

00:03:41: Das finde ich sehr gut, aber andererseits möchte ich auch nicht in China leben, weil da alles überwacht wird und auch Dinge passieren, die man wirklich nicht gut finden kann. Also es ist ein zweischneidiges Schwert.

00:03:53: Aber wenn ich dich richtig verstehe, also du sagst auf der einen Seite...

00:03:56: Kannst du das zu einem gewissen Maße tolerieren oder würdest du das sogar befürworten, weil du der Meinung bist, dass zum Beispiel jemand, der irgendwas zu verbergen hat, wenn er darüber Bescheid weiß, dass er beobachtet wird, sein Verhalten wahrscheinlich anpassen wird und dadurch irgendwie durch irgendwas, was er tut, auffällig wird und dann wäre es gut, wenn er beobachtet wird, damit man gucken kann, was hat er denn vor.

00:04:21: Auf der anderen Seite steht dem gegenüber dann ja auch diese...

00:04:26: Diese Frage, okay, wenn ich so eine Massenüberwachung durchführe, dann muss das ja, dann ist ja das Problem immer, was ist der konkrete Zweck?

00:04:35: Ich meine natürlich kann ich dir zustimmen, ich würde auch denken, dass eine Person, die irgendwas zu verbergen hat, sich dann vielleicht anders verhält.

00:04:42: Aber was ist mit all den anderen Leuten, die jetzt quasi nichts zu verbergen haben?

00:04:46: Die werden ja unter einen Generalverdacht gestellt und das ist auch immer so dieses Wort, was ich auch in den Artikeln zu diesem Thema immer wieder gefunden habe, was halt moniert wird, dass man quasi sagt,

00:04:56: erstmal seid ihr generell alle verdächtig, deswegen müssen wir euch überwachen und dann ist halt die Frage, wer überwacht die Überwacher?

00:05:03: Und das ist eben genau das, was ja auch so stark kritisiert wird, dass nämlich der Nutzen nicht überprüft wird, weil, und das wurde sehr schön formuliert,

00:05:14: dass die Nichttreffer, also wenn ich einen Abgleich mache zwischen den Informationen, die ich sammle mit meinem Überwachungssystem und einer bestimmten Fahndungsdatenbank,

00:05:26: zum Beispiel, dass alle Nichttreffer darüber nicht informiert werden, dass sie so gescannt wurden und kein Treffer gefunden wurde,

00:05:35: sodass sie überhaupt wissen, dass sie Teil einer Untersuchung waren, weil das ist ja so ein bisschen dieses polizeistaatliche Anmutende dahinter.

00:05:45: Also die Transparenz ist glaube ich das Problem in diesen beiden Fällen Berlin und Sachsen, also das Hauptproblem beginnt ja damit, dass nicht gesagt wird,

00:05:54: wie diese Art der Überwachung überhaupt stattfindet.

00:05:56: Also inklusive der Nachbearbeitung oder Verwendung dieser Daten, das ist das Problem, was ich sehe.

00:06:02: Es kann ja auch sein, dass das so funktioniert, so passiert, wahrscheinlich nicht, sonst würde man es ja einfach sagen, so passiert, dass man da durchaus das gut finden kann.

00:06:10: Ich gebe mal ein paar Beispiele, also angenommen, es kommt immer auf den Anlass an, das hattest du ja schon angedeutet, also angenommen auf einem öffentlichen Platz gibt es eine Videoüberwachung

00:06:18: und da fängt jemand an mit dem Messer rum zu fuchteln, dann finde ich es super, dass da eine Kamera steht.

00:06:23: Da kann auch gleich ein Polizist kommen.

00:06:25: Da kann sich, glaube ich, auch was passieren.

00:06:26: Da kann sich, glaube ich, auch niemand beschweren, dass er zu Unrecht verdächtigt wurde, wenn er ein Messer in der Hand hatte.

00:06:30: Also da sehe ich jetzt keinerlei Probleme, ehrlich gesagt.

00:06:33: Wenn jetzt aber, also das einzige Problem, was ich momentan sehe, das ist durchaus ein relevantes Problem, was du jetzt mit Generalverdacht bezeichnet hast,

00:06:43: wenn im Hintergrund sozusagen Menschen, die vielleicht falsch identifiziert wurden, das kommt ja durchaus vor, können wir gleich nochmal drüber reden,

00:06:51: die dann sozusagen in einer Datenbank landen und dann weiterverfolgt werden, unsinnig.

00:06:56: Da müsste man sich aber mal anschauen, wie findet das denn eigentlich statt?

00:07:00: Weil normalerweise, soweit ich weiß, muss für bestimmte Dinge ein richterlicher Beschluss her.

00:07:05: Und da könnte man zum Beispiel ja auch mal versuchen herauszufinden, ob die Person X wirklich die Person X ist oder an diesem Platz auch war.

00:07:14: Wenn es tatsächlich jemand ist, der schon gesucht wird oder der verdächtig ist oder schon Straftäter war, dann ist es für mich vollkommen in Ordnung,

00:07:23: wenn diese Person dann auch gesucht wird.

00:07:25: Dann auch, wenn sie die Person auch tatsächlich ist, die ausgewertet wurde, weiterverfolgt wird.

00:07:32: Es ist doch letztendlich kein Unterschied, ob ein Polizist sieht, dass diese Person da war oder ob es eine Kamera sieht.

00:07:38: Also das Problem würde dann losgehen, wenn du zum Beispiel unrechtmäßig als Straftäter angesehen werden würdest, weil du jemand anderes ähnlich siehst oder sowas.

00:07:46: Also da sehe ich das einzige Problem, ehrlich gesagt.

00:07:50: Also ich meine, ich habe nichts gegen Videoaufzeichnungen.

00:07:54: Sie müssen halt natürlich dann auch zeitnah wieder gelöscht werden, wenn es da keinerlei Anlässe gibt, diese aufzuheben, als Beispiel.

00:08:02: Das gibt es ja auch in der Privatwirtschaft, hat ein Gericht entschieden, ob das richtig oder falsch ist, weiß man nicht.

00:08:06: Aber eine Kamera darf zum Beispiel eine Selbstbedienungstankstelle, wo ja kein Personal ist, darf ihre Kameraaufzeichnungen nur 72 Stunden aufheben, außer es ist mal ein Feiertag.

00:08:16: Nämlich der Gedanke soll sein, innerhalb dieser Zeit hat die Tankstelle genügend Zeit, das Videomaterial auszuwerten.

00:08:22: Mhm.

00:08:23: Und wenn da jemand erwischt wird, wie er versucht, einen Brand zu legen oder abzuhauen, ohne zu bezahlen, dann kann man das innerhalb von 72 Stunden feststellen und muss sich dafür nicht drei Wochen Zeit nehmen.

00:08:32: Und wenn man dann festgestellt hat, derjenige, der hat versucht, die Tankstelle in Brand zu setzen, dann kann man natürlich die Videoaufnahme beliebig lange aufheben.

00:08:39: Also ich meine, da darf niemand was dagegen haben und das Gesetz erlaubt das auch.

00:08:43: Selbst dran schuld, wenn man straffällig wird, da wird man hoffentlich dafür bestraft.

00:08:46: Das ist meine Herangehensweise und alle anderen, die nicht Straftäter sind, sollten natürlich auch nicht so behandelt werden.

00:08:51: Also ich kann dir absolut zustimmen bei dem, was du sagst, bei diesem relativ spezifischen Beispiel.

00:08:59: Wenn wir einen Kriminellen haben, der an irgendeiner Stelle irgendwas Kriminelles tut und dann habe ich eine gewisse Zeit, meine Videoaufzeichnungen aufzubewahren, die auszuwerten und so weiter.

00:09:08: Das denke ich, das ist alles okay und das funktioniert auch gut. Da bin ich bei dir.

00:09:11: Ich glaube, da haben wir auch in Deutschland vernünftige Regeln geschaffen, die es ermöglichen, auf der einen Seite so ein Verhalten zu beobachten.

00:09:20: Das nachzuvollziehen, was da passiert ist, das eben auszuwerten und eben dann auch im Falle einer kriminellen Tat rechtlich nutzbar zu machen als Beweise.

00:09:29: Aber worum es hier ja geht, ist, dass diese Information auch relativ wahllos, also Millionen von Gesichtsbildern, davon ist die Rede, in ein polizeiliches Informationssystem übertragen wurde.

00:09:43: Und daraus extrahiert an das Fraunhofer-Institut gegeben wurde, die dann Tests mit diesen Gesichtsbildern gemacht haben.

00:09:48: Und daraus extrahiert an das Fraunhofer-Institut gegeben wurde, die dann Tests mit diesen Gesichtsbildern gemacht haben.

00:09:49: Und daraus extrahiert an das Fraunhofer-Institut gegeben wurde, die dann Tests mit diesen Gesichtsbildern gemacht haben.

00:09:52: Um wahrscheinlich irgendwelche Algorithmen zu trainieren oder irgendwelche anderen Dinge zu erforschen, was man eben mit Bilderkennung machen kann.

00:10:00: Und es sind nun mal Bilder von Menschen, die darüber nicht informiert wurden.

00:10:04: Und das ist ja so ein bisschen dann auch wieder der Punkt.

00:10:07: Wir haben auf der einen Seite bestimmt eine Systematik, wo wir sagen, im öffentlichen Bereich kann man eine gewisse Form von Videoüberwachung vertreten.

00:10:16: Und auch sagen, da kann jeder zustimmen.

00:10:18: ich habe nichts quasi

00:10:20: Kriminelles vor, also ist das auch okay,

00:10:22: wenn jemand vielleicht

00:10:24: per Zufall sieht, dass ich auch

00:10:26: da war, als jemand anders beobachtet wurde,

00:10:28: der was Kriminelles vorhat. Ich glaube, da

00:10:30: sind wir uns alle einig, dass wir sagen, irgendwie

00:10:32: müssen wir ja eine Form von Sicherheit

00:10:34: da erzeugen. Aber auf der

00:10:36: anderen Seite... Aber Stephan, du hast jetzt

00:10:37: einen zweiten Punkt genannt, oder? Also der erste

00:10:40: Punkt war ja die Überwachung an sich.

00:10:42: Dazu habe ich was gesagt und du hast jetzt einen Punkt genannt,

00:10:44: der ist ein anderer Punkt, der ist sehr spannend,

00:10:46: aber der hat jetzt erstmal wenig mit meiner

00:10:48: Aussage zu tun. Du hast gesagt, diese

00:10:50: Trainingsdatengeschichte, also

00:10:52: da können wir gerne drüber reden, da bin ich auch

00:10:54: deiner Meinung an sich, aber

00:10:56: was die Videoüberwachung angeht, weiß ich

00:10:58: jetzt nicht, wo du anders siehst,

00:11:00: ehrlich gesagt. Sehe ich nicht, das habe ich ja gesagt.

00:11:02: Also ich sehe das nicht anders, ich sehe das eigentlich genauso

00:11:04: wie du. Wenn wir diese

00:11:06: präzise Unterscheidung machen können und die auch durchführen,

00:11:09: dann ist das wunderbar. Dann sage

00:11:10: ich, dann habe ich da nicht viel gegen.

00:11:12: Was du ansprachst hier, wie das

00:11:14: in China gemacht wird und was die dann auch

00:11:16: weiter mitmachen, ich denke, da geht es dann

00:11:18: ein bisschen,

00:11:20: ich glaube, überall da, wo

00:11:22: ein Überwachungssystem

00:11:24: eines öffentlichen Raums dazu dient,

00:11:26: ein bestimmtes gewünschtes Verhalten

00:11:28: zu erwirken und zu erziehen.

00:11:31: Ich glaube, das ist der Punkt,

00:11:33: wo auch

00:11:35: die Leute dann viel das Problem mit haben,

00:11:36: weil dann hast du eben das Gefühl, dass du nicht mehr

00:11:38: frei bist in deiner Entscheidung, wie du dich

00:11:40: benimmst, unabhängig davon,

00:11:42: dass natürlich bestimmte Freiheiten

00:11:44: im Zusammenleben nicht existieren

00:11:46: sollen, weil man eben in Gesellschaften,

00:11:48: im Zusammenleben auf die

00:11:50: Freiheiten der anderen auch achten muss

00:11:52: und die nicht einfach quasi seine

00:11:54: eigenen über diese stellen kann.

00:11:55: An der Stelle bin ich voll bei dir.

00:11:58: Wie gesagt, wenn es zu weit geht, wie im

00:11:59: Beispiel von China, dann finde ich das wieder

00:12:02: sehr kritisch. Also wenn es um Erziehung eines

00:12:04: gewünschten Verhaltens durch irgendwelche Sicherheitsbehörden

00:12:06: geht, wie die NSA das zum Teil

00:12:08: auch versucht oder schon getan hat,

00:12:10: dann bin ich dagegen.

00:12:12: Alles andere, wunderbar.

00:12:14: Was eben schwierig ist,

00:12:16: ist, diese Grenze

00:12:17: nicht zu überschreiten

00:12:19: für die, und ich sag das jetzt mal gelinde gesagt,

00:12:22: wenig gebildeten Leute,

00:12:24: die mit diesen Systemen umgehen.

00:12:26: Und wenig gebildet meine ich nicht, dass

00:12:27: das dumme Menschen sind, sondern ich meine,

00:12:29: dass die Auswirkungen ihres Handelns

00:12:31: in Bezug auf diese sensiblen Daten,

00:12:34: die sie dort nutzen und verarbeiten,

00:12:36: glaube ich, zu wenig trainiert

00:12:38: ist.

00:12:39: Ja, also vor allem, also gut,

00:12:41: das sind ja wohl dann meistens Beamte, Polizeibeamte

00:12:43: oder sowas, die gewisse

00:12:45: Vorgaben haben, an die müssen

00:12:47: sie sich stur halten, so habe ich das zumindest

00:12:49: mal von Beamten grundsätzlich vernommen.

00:12:52: Also sonst, Kreativität ist jetzt

00:12:53: im Beamtentum nicht unbedingt die Tugend, die erwartet wird.

00:12:56: Das meine ich jetzt nicht böse,

00:12:57: das ist das, was ich gehört habe.

00:12:59: Das ergibt sich aus der Tätigkeit an sich.

00:13:01: Man hat Nachteile, wenn man zu mutig ist, so habe ich es mal

00:13:03: also würde ich es auch verstehen, dass es so ist.

00:13:06: Ja, weil, führt zu weit,

00:13:07: aber das wird so sein.

00:13:10: Ziemlich sicher sogar

00:13:11: in großen Teilen des Beamtentums.

00:13:14: Und da ist es eben so,

00:13:15: was ich vorhin anklingen ließ,

00:13:17: dass eben genau wie der Mensch

00:13:19: kann eben ein Computer nicht zuverlässig

00:13:21: Gesichter, Personen zuordnen.

00:13:23: Das ist uns allen ja schon so gegangen.

00:13:25: Da ist mal jemand vorbeigelaufen, den man kennt und derjenige

00:13:27: hat vielleicht nur einen Hut aufgehabt oder Sonnenbrille

00:13:29: oder andere Haarfarbe und dann hat der andere

00:13:31: gesagt, hier kennst du mich nicht mehr, ach Entschuldigung, ich hab dich

00:13:33: gar nicht erkannt.

00:13:35: Oder man hat jemand verwechselt.

00:13:37: Kommt ja auch dauernd, also mir kommt das

00:13:39: im Fernsehen oder so, guck mal, der sieht dem so ähnlich,

00:13:41: dann sagt der eine ja, der andere nein.

00:13:44: Und ein Computer

00:13:45: kann das nicht besser oder schlechter, nur schneller.

00:13:47: Und viel mehr

00:13:49: Vergleiche durchführen.

00:13:51: Der kann sich also schneller irren, das ist auch cool.

00:13:53: Kann sich schneller irren, kann allerdings

00:13:55: auch dann, also deswegen muss immer der

00:13:57: Mensch am Ende die Kontrolle haben

00:13:59: und ich sag ja, wenn jemand ein Messer in der Hand hat, ist es egal,

00:14:01: welche Person das ist, da braucht man keine Personalien

00:14:03: vorher festzustellen, da kann man den einfach dann

00:14:05: erstmal im Zweifel festnehmen,

00:14:08: wenn er was tun will, was

00:14:09: nicht in Ordnung ist, ja, sagen wir es mal vereinfacht.

00:14:11: Ist ja auch was Offensichtliches.

00:14:13: Warum renne ich mit einem offenen Messer in der

00:14:15: Öffentlichkeit rum, wenn ich nicht

00:14:17: gerade Koch bin, der irgendwie in der

00:14:19: Öffentlichkeit eine Show macht, dann

00:14:21: gibt es dafür wenig Grund, sag ich mal.

00:14:23: Es gibt aber auch viele andere Fälle,

00:14:25: die wahrscheinlich viel häufiger sind.

00:14:28: Belästigung,

00:14:29: Lärm, ja, ich meine Lärm ist auch

00:14:31: kein Kavaliersdelikt, ja, wer zu laut

00:14:33: ist, der gehört auch bestraft, meiner Meinung nach,

00:14:35: dauert, ja, irgendwann lernt das dann

00:14:37: vielleicht mal, wir reden ja nicht darüber, dass

00:14:39: einer einmal kurz laut redet oder so, ja,

00:14:41: das meine ich jetzt nicht, es gibt Leute, die drehen ihren

00:14:43: Bass auf und in der Öffentlichkeit,

00:14:45: ohne dass die anderen das wollen.

00:14:46: Und dann bleiben halt

00:14:48: die Fälle übrig, die du genannt hast, wo man

00:14:50: vielleicht im Hintergrund verfolgt wird, weil man vielleicht für

00:14:52: einen Drogendealer gehalten wird, obwohl man keiner ist.

00:14:54: Wie gesagt, da muss

00:14:56: eben der Mensch gucken, ist das diese Person

00:14:58: und vielleicht gibt es ja auch in manchen Fällen die

00:15:00: Möglichkeit, die Person zu befragen,

00:15:02: ob sie an dem Tag an dem Ort war oder so,

00:15:04: ja, und ob sie,

00:15:06: und wenn sie dann sagt, ja, dann

00:15:07: wird man wohl davon ausgehen können, dass

00:15:09: diese Erkennung richtig war, ja.

00:15:12: Also ich meine, das kann man ja teilweise

00:15:14: in vielen Fällen richtig verifizieren,

00:15:16: übrig bleiben dann sehr wenige Fälle,

00:15:18: das Problem ist, also meiner Meinung nach

00:15:20: sehr wenige Fälle, das Problem ist eben,

00:15:22: wenn man einer von diesen sehr wenigen Fällen ist,

00:15:24: hilft einem das leider auch nicht weiter.

00:15:27: Da bin ich voll bei dir,

00:15:28: das ist, also, klar, wenn du,

00:15:29: wenn du da einer von den

00:15:32: wenigen Fällen bist, dann hast du immer die A-Karte

00:15:34: gezogen und es ist total schade,

00:15:36: wenn das passiert. Interessant finde ich

00:15:38: jetzt, dass du auch den Punkt aufwirfst, dass

00:15:40: auch quasi algorithmische

00:15:42: Auswertungen durch KIs da

00:15:44: nicht besser sind, die sind nur schneller darin,

00:15:46: den Fehler zu produzieren,

00:15:47: was natürlich auch wieder,

00:15:50: ja, sag ich mal, exemplarisch für unsere,

00:15:52: vielleicht auch für unsere Art und Weise der

00:15:54: Wahrnehmung eines bestimmten Themas geht.

00:15:55: Wir haben ja schon viel gemeinsam über KI

00:15:57: diskutiert und ich erinnere mich da

00:16:00: immer wieder daran zurück,

00:16:01: dass man immer wieder an den Punkt

00:16:04: kommt, egal wie sehr wir

00:16:05: eine Technologie hypen,

00:16:07: vergessen wir vielleicht auch ein bisschen so,

00:16:10: okay, was ist denn jetzt wirklich

00:16:12: die Nuts und Bolts, was ist wirklich die

00:16:13: Technik, die dahinter steckt und was kann sie wirklich?

00:16:16: Was suggeriert sie einem

00:16:17: Unwissenden vielleicht

00:16:19: im Frontend, in der Nutzung

00:16:21: versus was passiert wirklich im Hintergrund?

00:16:24: Wird wirklich gedacht, wird wirklich verstanden

00:16:26: oder werden mehr nur

00:16:27: statistische Erhebungen

00:16:30: gemacht aus vielen Daten, die dann

00:16:32: ein Ergebnis möglichst,

00:16:33: ich sag mal, natürlich oder echt wirken

00:16:36: lassen?

00:16:37: Wenn wir diesen Punkt

00:16:39: mal nehmen, was ich sehr spannend

00:16:41: finde, ist ja, wir haben ja gerade über diese

00:16:43: Auswertung dieser Bilder gesprochen, also quasi die

00:16:45: weitere Nutzung dieser Daten,

00:16:47: von denen keiner was weiß, also unabhängig

00:16:49: davon, ob ich jetzt irgendwas tue

00:16:51: und jemand dann Alarm schlägt, werden

00:16:53: dort einfach Bilder von mir gemacht, wenn ich

00:16:55: in Berlin am Bahnhof bin,

00:16:58: kann es sein, dass ich dort,

00:16:59: mein Gesicht dort gescannt wird und diese,

00:17:02: dieser Scan meines Gesichts wird dann

00:17:04: zum Beispiel dem

00:17:05: Fraunhofer-Institut übergeben, damit

00:17:07: die damit irgendwelche Tests machen. Was auch

00:17:09: immer diese Tests sind, weiß keiner, das wird

00:17:11: wieder geheim gehalten, da sind wir bei dem Punkt, den du am Anfang

00:17:13: moniert hast, von wegen die Transparenz,

00:17:15: fehlt einfach und

00:17:17: dann gibt es halt zum Beispiel Bundestagsabgeordnete,

00:17:20: die sagen, dass

00:17:21: dieses Verhalten, dass man,

00:17:24: weil man eine Technologie besitzt,

00:17:26: alles okay ist, was man damit tut,

00:17:28: denn ich bin die Polizei,

00:17:30: exemplarisch für den Umgang

00:17:31: der Sicherheitsbehörden mit den Anforderungen

00:17:34: des Datenschutzes steht,

00:17:36: weil, und das finde ich sehr spannend,

00:17:38: die quasi die,

00:17:39: die

00:17:40: Legitimierung, warum

00:17:43: diese, diese

00:17:45: Daten eingeholt werden, so verwendet,

00:17:47: weiterverwendet werden, warum darüber überhaupt

00:17:49: keiner informiert wird, ist

00:17:51: vom Vorsitzenden des Bundes

00:17:53: Deutscher Kriminalbeamter, Dirk Pecklow,

00:17:55: der hat gesagt, wir sind

00:17:57: als Polizei darauf angewiesen,

00:17:59: moderne Technologien zu nutzen,

00:18:02: um den Bedrohungen für unsere

00:18:03: Gesellschaft durch vielfältige

00:18:05: Kriminalitätsphänomene zu begegnen.

00:18:08: Das ist zwar nett gesagt,

00:18:10: aber übersetzt heißt das,

00:18:12: fragt uns nicht, was wir mit der

00:18:13: Technologie tun, wenn wir sie nutzen,

00:18:15: wie wir wollen. Und das finde ich

00:18:18: ein bisschen, ich weiß nicht,

00:18:19: das stößt mir dann als jemanden,

00:18:21: der der Vorsitzende eines Verbunds

00:18:23: Deutscher Kriminalbeamter ist,

00:18:26: wenn der so eine Einstellung hat,

00:18:28: wie weit

00:18:29: würde denn dann noch, um zum Beispiel

00:18:32: deines Beamten zurückzukommen,

00:18:33: ein Beamter, der jetzt nicht für Kreativität

00:18:35: bezahlt wird, überhaupt noch wahr,

00:18:38: ob die Regeln, auf die er

00:18:39: sich gerade bezieht, hochgradig

00:18:42: nicht mit unserem

00:18:43: Rechtsstaat zu vereinbaren sind.

00:18:45: Das ist nicht die Aufgabe eines Beamten.

00:18:47: Er ist Staatsdiener und so ist es

00:18:50: auch zu verstehen. Ansonsten kann er

00:18:52: auch ins Gefängnis kommen, wenn er seinen Job

00:18:53: nicht richtig ausführt, im schlechtesten Fall.

00:18:56: Aber der Punkt ist,

00:18:58: was du zitiert hast, eben von

00:19:00: dem Vorsitzenden

00:19:01: der Deutschen Kriminalbeamten

00:19:03: oder Kriminalpolizei, wenn das die Begründung war,

00:19:06: warum man nicht gesagt hat, wie das Ganze

00:19:07: stattgefunden hat, das ist natürlich keine valide Begründung,

00:19:10: aber grundsätzlich stimmt es natürlich schon,

00:19:11: dass die Polizei selbstverständlich möglichst gute

00:19:13: Technologien einsetzen sollte.

00:19:15: Jetzt bei,

00:19:15: jetzt zu dem Thema mit dem Fraunhofer-Institut.

00:19:18: Also natürlich

00:19:19: ist es, soweit ich weiß,

00:19:21: rechtswidrig, wenn einfach unsere

00:19:23: Gesichtsdaten verwendet werden für solche

00:19:25: Dinge. Also da gibt es kein Gesetz

00:19:27: dafür. Da gibt es, also es ist

00:19:29: ein Dilemma. Wir brauchen tatsächlich,

00:19:32: es wird auch kommen, ja, ich meine,

00:19:33: es gibt ja andere Länder, da gibt es

00:19:35: KI-Systeme, die trainiert sind auf

00:19:37: Gesichtserkennung. Die sind trainiert worden mit

00:19:39: Fotos von anderen Menschen, die nicht

00:19:41: in Deutschland wohnen.

00:19:43: Und das würden wir dann benutzen.

00:19:45: Endlich würde es auf etwas Ähnliches oder Gleiches

00:19:47: hinauslaufen. Das heißt,

00:19:49: es wird gar nicht anders gehen, als dass es

00:19:51: ein Gesetz geben wird, wonach

00:19:53: in kontrollierter Weise

00:19:54: die Gesichtsdaten von am besten allen

00:19:57: Deutschen, ja, in möglichst

00:19:59: kontrollierter Weise in ein KI-System einfließen

00:20:01: zum Training. Der Punkt ist nämlich,

00:20:03: dass dieses System, wie du es jetzt

00:20:05: beschrieben hast, ich kenne die Details

00:20:07: nicht, aber so wie es sich anhört, ist es

00:20:09: nämlich antirassistisch und sogar

00:20:11: antinational,

00:20:13: muss man sagen, denn in Deutschland

00:20:15: leben ja überwiegend Menschen mit heller

00:20:17: Hautfarbe. Das ist so meine Lebenserfahrung, auch

00:20:19: aufgrund der Sonneneinstrahlung

00:20:21: und so weiter kann man das sicher sagen.

00:20:23: Und da ist es eben so, dass dunkelhäutige

00:20:25: Menschen im KI-Modell ja viel seltener verankert

00:20:27: sein werden, wenn man nur Gesichter von Menschen nimmt,

00:20:29: die in Deutschland leben. Das ist also, glaube ich,

00:20:31: ein Faktum. Das ist jetzt rein objektiv betrachtet.

00:20:33: Darf man hoffentlich so sagen.

00:20:35: Diese Menschen werden dann schlechter von der KI erkannt

00:20:37: und insofern schlechter auch erkannt,

00:20:39: wenn es um Straftaten geht.

00:20:41: Das heißt, der Deutsche wird üblicherweise öfter

00:20:43: als Straftäter erkannt, als derjenige,

00:20:45: mit der nicht typisch deutschen Hautfarbe.

00:20:47: So möchte ich es mal sagen.

00:20:49: Und das ist ja diskriminierend,

00:20:51: aber uns gegenüber.

00:20:52: Da muss man sagen,

00:20:54: mit der aktuellen Migrationspolitik ist es ja

00:20:56: ziemlich kontraproduktiv, wenn die

00:20:59: Straftäter von außerhalb wissen,

00:21:01: dass sie hier besonders schlecht erkannt werden von den Kameras,

00:21:03: weil die Kameras nur auf

00:21:05: unsere, die KI nur auf unsere Bilder

00:21:06: trainiert wurde. Für die Kriminalität

00:21:09: dieser Leute ist es auf jeden Fall produktiv.

00:21:11: Nicht kontraproduktiv.

00:21:12: Ja, genau.

00:21:13: Also, aber es gibt

00:21:15: eine Möglichkeit, man muss ein Gesetz schaffen,

00:21:17: um das Ganze auf solide Füße zu stellen.

00:21:19: Das muss natürlich europarechtskonform

00:21:21: sein, das könnte ein Problem werden.

00:21:22: Da wird es in Europa vielleicht eine Änderung geben müssen.

00:21:24: Dann muss man natürlich, sobald jemand hier in Deutschland

00:21:26: geboren wird, beziehungsweise ein gewisses

00:21:29: Alter erreicht hat,

00:21:30: oder auch einwandert, muss man

00:21:32: diese Personen fotografieren, beziehungsweise

00:21:35: das Foto hat man ja dann als Behörde

00:21:36: vom Personalausweis oder Ähnlichem,

00:21:38: und muss dann auch in die KI einspeisen. Das heißt,

00:21:40: möglichst jeder, der hierher kommt, muss

00:21:42: trainiert werden. Und auch natürlich Leute,

00:21:44: die nur zum Urlaub da sind, die sollten

00:21:46: irgendwie dann auch eingespeist werden. Das ist also jeder.

00:21:49: Und wie gesagt,

00:21:50: diese wenigen Fälle, wo tatsächlich

00:21:52: insgeheim was passiert,

00:21:54: und wo es jetzt nicht um Lärmbelästigung oder

00:21:56: Messer rausholen geht,

00:21:58: da muss eben ein Mensch,

00:22:00: genau wie bisher, hoffe ich, doch

00:22:01: kontrollieren, dass das auch eine

00:22:03: richtige Erkennung war. Ich meine,

00:22:06: es gibt ja letztendlich keinen Unterschied, ob jetzt

00:22:08: zum Beispiel Polizisten einen Platz beobachten,

00:22:10: weil da regelmäßigen Drogendealer aufschlägt.

00:22:12: Dann gibt es jemand, der sieht ähnlich aus

00:22:14: wie dieser Drogendealer, der war noch nie da an dem

00:22:16: Tag, ist auch kein Drogendealer, und die Polizisten

00:22:18: denken, das ist der Drogendealer.

00:22:20: Das ist ja exakt dasselbe, als wenn

00:22:22: die KI das denkt. Das wird doch

00:22:24: wohl auch vorkommen, sowas.

00:22:26: Ich sehe da keinen

00:22:28: echten Unterschied, außer dass, wie gesagt,

00:22:30: bei KI natürlich automatisiert geht

00:22:32: und viel mehr. Aber

00:22:33: ich denke, es wird darauf hinauslaufen, es wird

00:22:36: nicht anders gehen. Und da ich kein Straftäter

00:22:38: bin und auch nicht vorhabe, einer zu sein,

00:22:40: finde ich, ehrlich gesagt, die Vorteile

00:22:42: für mich, wenn es ordentlich aufgesetzt wird,

00:22:44: und aktuell scheint es nicht so zu sein,

00:22:46: nachdem, was du jetzt auch wiedergegeben hast,

00:22:48: wenn es ordentlich aufgesetzt wird, fühle ich mich dann

00:22:50: in Deutschland sicherer.

00:22:51: Ja, also aus der Perspektive, die du

00:22:54: schilderst und aus der du jetzt sprichst,

00:22:56: kann ich dir da, wie gesagt, zustimmen.

00:22:57: Aber jetzt kommt ja die Frage,

00:22:59: ab wann bist du denn kriminell?

00:23:02: Weil das ist ja auch nur eine Auslegung

00:23:04: eines Rechtsstaats. Und wir merken ja gerade

00:23:06: extrem stark, und da komme ich so ein bisschen

00:23:08: auf den Zweck dieser gesamten

00:23:10: Idee der Thematik, warum

00:23:12: wir überhaupt, dass eine solche

00:23:14: Überwachung notwendig ist.

00:23:16: Wovor will wer

00:23:18: wen schützen? Und

00:23:20: will er sich vielleicht eher selbst schützen?

00:23:22: Denn das ist ja genau der

00:23:24: Punkt, wo wir dann so ein bisschen auch

00:23:26: so in die Richtung abdriften könnten,

00:23:28: was wir eben in China erleben.

00:23:30: Wo wir es mit einem Kontrollstaat, einem

00:23:32: Polizeistaat zu tun haben, der sagt,

00:23:34: ich schütze mich und meine

00:23:36: Macht vor den Angriffen

00:23:38: der Gesellschaft. Indem ich

00:23:40: sehr früh Dinge

00:23:41: identifizieren kann, wo sich

00:23:44: Leute falsch verhalten und nicht

00:23:45: konform sind mit dem, was ich gerne möchte,

00:23:48: was meine Macht erhält. Und schon

00:23:50: sind wir in einem Polizeistaat. Und wenn

00:23:52: wir hier bei uns... Ja, aber sind wir ja nicht.

00:23:53: Ja, sind wir nicht. Aber die Frage

00:23:56: ist ja, ab wann rutscht man denn dahin?

00:23:58: Denn China war das auch eine Zeit lang nicht.

00:24:00: Und irgendwas passiert

00:24:01: und dann rutscht man dahin. Und wenn

00:24:03: solche Prozesse immer stärker

00:24:06: die Gesellschaft durchdringen und alle

00:24:07: Leute sagen, naja, solange

00:24:09: es mich nicht betrifft persönlich,

00:24:11: weil ich nicht vorhabe, irgendwie gegen

00:24:13: die Gesetze zu sein, dann muss ich doch nur ein Gesetz

00:24:15: zu meinem Nachteil ändern. Schon bin ich gegen

00:24:17: das Gesetz, weil ich das nicht mehr gut finde.

00:24:20: Und wenn ich dann etwas tue,

00:24:22: dass ich das äußere, sagt mir jemand,

00:24:23: naja, du bist ja gegen das Gesetz und ich hab das beobachtet

00:24:25: und ich hab das rausgefunden. Und wenn

00:24:27: das dann noch automatisiert passiert,

00:24:30: ist natürlich... Ja, aber...

00:24:31: Das ist ja so ein bisschen auch die ethische Frage.

00:24:33: Also, ja, also

00:24:35: ich verstehe, was du sagen willst. Aber, also erstens,

00:24:38: du kennst China besser als ich.

00:24:39: Du lernst ja Chinesisch. Hast du mir mal gesagt, also ich bin

00:24:41: kein China-Kenner.

00:24:43: Aber ich glaube, da gibt es schon große Unterschiede

00:24:45: und ich sehe ehrlich gesagt, man kann der Regierung

00:24:47: immer wieder mal was vorwerfen. Ja, das sind aber ehrlich

00:24:49: gesagt Sachen, da kann man drüber

00:24:51: streiten, ja, in jedem Fall.

00:24:54: Die Regierung, die macht

00:24:55: einen ordentlichen Job, kann man grundsätzlich sagen.

00:24:57: Da gibt es Ausreißer nach oben und unten.

00:24:59: Aber es ist jetzt nicht so, dass man sagen kann, wir haben

00:25:01: eine Regierung, die macht, was sie will.

00:25:03: Das ist nicht so. Also es gibt halt

00:25:05: Gegebenheiten, die sind so, wie sie sind. Wir können

00:25:07: das Geld nicht noch mehr drucken, ohne dass es

00:25:09: entwertet wird. Also gibt es eine Geldmenge, da muss man

00:25:11: mit arbeiten. Umwelt ist auch wichtig und so weiter.

00:25:13: Und es gibt ja den Verrohung der Gesellschaft,

00:25:15: die finden in letzter Zeit statt. Angriffe gegen

00:25:17: Politiker und so weiter.

00:25:19: Und insofern, auch was du sagst, ein Gesetz ändert sich.

00:25:22: Wir reden jetzt, also wenn es

00:25:23: um Ordnungswidrigkeiten geht,

00:25:25: ganz ehrlich, da stirbt

00:25:27: keiner von, wenn er mal wegen einer Ordnungswidrigkeit

00:25:29: belangt wird. Das passiert da

00:25:31: regelmäßig. Bei Straftaten,

00:25:33: man wird nicht einfach so Straftäter.

00:25:35: Da muss man schon

00:25:37: ordentlich was geleistet haben.

00:25:39: Es tut mir leid, da fällt

00:25:41: mir jetzt kein Beispiel ein, wie ich da reinrutschen

00:25:43: könnte aus Versehen. Ich meine,

00:25:46: also, klar,

00:25:47: man könnte jetzt eins konstruieren, das, was mir

00:25:49: einfallen würde, du kommst jemandem zu Hilfe,

00:25:51: Notwehr, ja,

00:25:52: und der wird angegriffen und du

00:25:55: verteidigst den, dann kann es natürlich sein, dass du vielleicht auch

00:25:57: ein Problem kriegst. Aber dieses Problem würdest

00:25:59: du jetzt auch schon im schlechtesten Fall kriegen,

00:26:01: wenn das jemand anders, vielleicht

00:26:03: ein Polizist sogar, gesehen hätte.

00:26:05: Ja, Moment, aber warte mal kurz.

00:26:07: An dem Punkt, du hattest ja gerade gesagt,

00:26:09: trainieren wir eine KI mit diesen Daten?

00:26:11: Dann lernt die KI,

00:26:13: wenn die jetzt viele weiße Gesichter kennt,

00:26:16: eher auch

00:26:17: auf Weiße zu referenzieren

00:26:19: für Kriminalität. Und jetzt kommt aber der

00:26:21: rückschließende Punkt, den ich sehr

00:26:23: häufig in Berichten über solche

00:26:25: Formen von Technologien beim Einsatz in Amerika

00:26:27: gesehen habe, dass es eben so ist,

00:26:29: die KIs, die dort trainiert

00:26:31: werden oder wurden,

00:26:33: haben weitaus weniger

00:26:35: Daten über, sag ich mal,

00:26:37: jetzt farbige Menschen

00:26:39: und weiße Menschen haben sie

00:26:41: viel mehr Daten drüber.

00:26:43: Dementsprechend ist ein

00:26:45: Aufkommen einer Kriminalität

00:26:47: in der Gruppe, wo ich viele Daten

00:26:49: von habe, gegenüber der Gruppe, wo

00:26:51: ich wenig Daten von habe, auch schon

00:26:53: ein Bias. Und die KI

00:26:55: ist quasi automatisch

00:26:57: aufgrund ihrer statistischen Bemessungen,

00:27:00: die sie durchführt und

00:27:01: Analysen, die sie durchführt, geneigt

00:27:03: zu sagen, naja, Moment, in der Gruppe

00:27:05: mit den farbigen Menschen,

00:27:07: mit den andersfarbigen Menschen als den weißen,

00:27:09: wovon ich viel weniger Daten habe, ist das

00:27:11: Aufkommen von Kriminalität viel höher.

00:27:13: Ja, im Verhältnis stimmt das.

00:27:15: Die Frage ist ja, welche Statistik ich

00:27:17: abbilde, um zu ermitteln,

00:27:19: wer, was bedeutet

00:27:21: denn Straftat dann quasi? Weißt du, was ich meine?

00:27:24: Nee, weiß ich nicht.

00:27:25: Also eine Straftat ist das, was

00:27:26: im Gesetz steht, dass es eine Straftat ist.

00:27:29: Also, und auch, wir reden

00:27:31: ja auch nicht über eine Statistik. Mich interessiert die

00:27:33: Statistik eigentlich am Ende,

00:27:34: von der KI soll ja keine Statistik generiert werden, vielleicht

00:27:36: passiert das. Nein, nein, die KI arbeitet

00:27:39: statistisch. Das Einzige, was KI tut...

00:27:41: Das ist Statistik. Ja, das sagst du

00:27:43: und alle anderen auch, aber ich sage,

00:27:45: das muss man gar nicht erwähnen, denn der

00:27:47: Mensch arbeitet auch statistisch. Und das

00:27:49: ist alles Statistik, sage ich.

00:27:51: Es geht halt darum, möglichst viele Beispiele zu

00:27:53: sehen, damit man möglichst gut trainiert ist.

00:27:55: Als Mensch übrigens auch. Ich sehe

00:27:57: halt mehr Menschen mit heller Hautfarbe in

00:27:59: meinem Leben. Ja, hier im Ort leben halt nur

00:28:01: hellhäutige Menschen, da kann ich auch nichts dran ändern.

00:28:03: Mit ganz minimalen Ausnahmen.

00:28:05: Und mir fällt es halt auch leichter,

00:28:07: diese Menschen voneinander abzugrenzen

00:28:09: als dunkelhäutig. Es kann auch vielleicht am

00:28:11: Kontrast liegen, ja. Also ich weiß es nicht.

00:28:13: Aber das ist einfach so.

00:28:15: Es tut mir leid, es ist so. Und man

00:28:16: hatte es ja am Anfang auch gesagt.

00:28:19: Ich sage ja theoretisch,

00:28:21: wie es in der Praxis ist, ist eine andere Sache, aber

00:28:23: man muss natürlich dafür sorgen, dass

00:28:24: dieser Bias, den du zu Recht ansprichst,

00:28:27: nicht stattfindet.

00:28:29: Aber dann sehe ich ehrlich gesagt kein großes Problem.

00:28:32: Es wird kommen. Also es

00:28:33: wird kommen. Wir haben zu wenig Polizisten

00:28:35: und zu viele Probleme, die gelöst werden.

00:28:37: Und ich meine, die Gesellschaft wird

00:28:39: immer rauer. Da werden Politiker,

00:28:41: Politiker verprügelt.

00:28:43: Am Ende will keiner mehr Politiker werden.

00:28:45: Dann leidet die Demokratie

00:28:47: noch viel mehr drunter als unter den Kameras.

00:28:49: Aber wir sind, glaube ich, einer Meinung,

00:28:51: um das jetzt am Schluss zu sagen,

00:28:53: so wie es gelaufen ist in Sachsen

00:28:55: und Berlin und auch mit dem Fraunhofer-Institut,

00:28:57: wie du es dargestellt hast, ist es absolut

00:28:59: nicht in Ordnung und so kann man das nicht machen.

00:29:01: Ja, da stimme ich dir auf jeden Fall voll zu.

00:29:03: Bei dem Thema der Trainingsdaten

00:29:05: sehe ich das vielleicht etwas anders.

00:29:07: Das kommt vielleicht auch dadurch, dass an der

00:29:09: Stelle meiner eigenes Wissen,

00:29:11: ein bisschen biased ist, weil ich natürlich auch

00:29:13: andere Informationen als Grundlage habe

00:29:15: als du. Von daher ist es auch okay, dass wir

00:29:17: das unterschiedlich betrachten und beleuchten.

00:29:20: Im Endeffekt

00:29:21: würde ich mal sagen,

00:29:23: heimliche Kamerasysteme sollten nicht

00:29:25: eingesetzt werden. Das sollte transparent

00:29:27: gemacht werden. Also am wichtigsten ist die

00:29:29: Transparenz, dass die Leute,

00:29:31: die da irgendwo auf so einem Platz sind,

00:29:33: wissen, okay, hier werde

00:29:35: ich so und so behandelt. Das ist das,

00:29:37: was mir hier passiert. Dann können sie diesem Platz

00:29:39: fernbleiben oder sie können sich vermummen

00:29:40: und wenn jemand fragt, wieso bist du da vermummt rumgelaufen

00:29:43: und sagen, naja, ihr filmt mich, ich habe keine Lust

00:29:45: drauf, dass ihr mich filmt, dann muss das

00:29:46: genauso fair sein, wie

00:29:49: dass jemand sagt, ich habe kein Problem damit,

00:29:51: dass ich gefilmt werde, weil

00:29:52: das ist ja nun mal auch so ein bisschen

00:29:55: Teil dieser Idee unserer

00:29:56: Datenschutzgrundverordnung, dass man da eben

00:29:58: freiwillig selbstständig bestimmen

00:30:01: kann, wie die eigenen

00:30:03: personenbezogene Daten genutzt werden.

00:30:05: Ich glaube, dann hätte die...

00:30:06: Du gehst doch nicht über den

00:30:09: Platz nicht, nur weil da steht,

00:30:10: dass es gefilmt wird. Also das macht doch kaum jemand,

00:30:12: vor allem Leute, die da noch nie waren.

00:30:14: Habe ich auch nicht gesagt.

00:30:15: Ich habe ja gesagt, du kannst dann die Entscheidung treffen,

00:30:18: ob du dir zum Beispiel eine Kapuze überziehst,

00:30:21: weil du das nicht möchtest,

00:30:22: dass dein Gesicht dort gescannt wird.

00:30:24: Und das muss dann genauso fair sein, wie derjenige,

00:30:26: der sagt, für mich ist das kein Problem.

00:30:28: Dann, finde ich, ist das absolut okay.

00:30:31: Aber wenn du aufgrund der Tatsache,

00:30:32: dass du mit einer Kapuze über deinem Kopf

00:30:34: über diesen Platz läufst und dabei gefilmt wirst,

00:30:37: dann als potenzieller Straftäter oder

00:30:38: Krimineller gilt es, weil du dich vermummst,

00:30:40: dann haben wir ein Problem. Und das ist genau

00:30:42: der Interpretationsteil, den ich auch gerade

00:30:45: meinte mit dem Bias der KI-Systeme.

00:30:47: Denn wer das Bildmaterial am Ende auswertet,

00:30:49: ist immer ein Mensch. Aber die Grundlage

00:30:51: zur Auswertung bestimmt darüber,

00:30:53: welchen Rückschluss ich führe.

00:30:55: Und das ist das riesige

00:30:57: Gefahrenpotenzial, was hinter einer

00:30:59: Bias-KI steckt, die mir in Sekunden

00:31:01: schnelle bestimmte Ergebnisse gibt, wo ich

00:31:03: als Mensch vielleicht wochenlang

00:31:05: mich hätte durchwühlen müssen und dadurch

00:31:06: ganz andere Einflüsse mit in meine

00:31:08: Bemessungsgrundlage und das Ergebnis,

00:31:10: meine Analyse einfließen, als eben

00:31:13: wenn es mir ein KI-System vorkaut

00:31:14: und sagt, naja, die Wahrscheinlichkeit sagt das.

00:31:17: Das ist das, was ich meinte mit dem

00:31:18: statistischen Verhalten.

00:31:21: Ja, wir sind ganz

00:31:22: überwiegend einer Meinung. Ich glaube, zusammen

00:31:24: könnten wir ein sehr gutes Gesetz bauen.

00:31:28: Ich würde es

00:31:29: hoffen, aber auf der anderen Seite macht

00:31:30: das, glaube ich, viel weniger Spaß, als sich darüber

00:31:32: zu unterhalten, was andere in die Gesetze bauen.

00:31:34: Ja, wobei, ich würde da schon gerne

00:31:36: was beitragen, ehrlich gesagt. Wir haben ja sehr gut

00:31:38: die Ideen entwickelt, jetzt wir zwei.

00:31:40: Du hast ja auch eine super coole Definition

00:31:42: von KI gebracht.

00:31:44: Da muss ich ganz ehrlich

00:31:46: sagen, wenn das, was wir

00:31:48: da diskutiert haben, damals in der anderen

00:31:50: Folge, da bin ich voll bei dir. Wenn das im

00:31:52: Gesetz drinstehen würde, fände ich das tausendmal besser,

00:31:54: als das, was jetzt tatsächlich drinsteht.

00:31:56: Weil wir dürfen ja nicht vergessen, das Ding ist ja gekommen.

00:31:58: Das Ding war ja da. Also das ist ja da.

00:32:01: Das, worüber wir

00:32:02: diskutiert haben, was eigentlich vielleicht

00:32:04: anders formuliert werden sollte.

00:32:06: Es ist halt in der Demokratie schwierig, eine

00:32:08: exakte Definition zu finden, weil eine Definition,

00:32:10: eine Definition lebt nicht von einer Mehrheitsmeinung.

00:32:12: Nee, meistens nicht.

00:32:14: Da hast du recht. Meistens ist das

00:32:16: definitiv nicht so. Ich will nicht sagen

00:32:18: nie, weil dann schließen wir wieder den

00:32:20: einen Einzelfall aus, der am Ende beweist, dass

00:32:22: wir Unrecht haben. Aber meistens ist das

00:32:24: auf jeden Fall nicht so.

00:32:27: Abschließend würde ich sagen,

00:32:28: können wir sagen, wir sind uns einig,

00:32:30: heimliche Sachen sollten nicht heimlich

00:32:32: sein. Transparenz ist das

00:32:34: Wichtige als Grundlage. Und

00:32:36: Leute, die im Nachgang

00:32:38: sagen, naja, wir müssen

00:32:40: das machen, weil sonst haben wir keine

00:32:42: anderen Möglichkeiten, sind auch immer

00:32:44: Leute, die quasi so ein bisschen den Umweg um

00:32:46: die Transparenz suchen, anstatt zu sagen,

00:32:48: hey, so genau haben wir das gemacht aus den und

00:32:50: den Gründen, was ja auch möglich wäre,

00:32:52: wenn es da nichts zu verbergen gäbe, was

00:32:54: vielleicht irgendwie nicht so schön ist.

00:32:56: Auf der anderen Seite kann es genauso gut sein,

00:32:58: dass sich die Leute einfach auch viel zu wenig

00:33:00: Gedanken im Vorhinein machen. Und erst

00:33:02: wenn dann einer kommt, der sich Gedanken gemacht hat

00:33:04: und sagt, hey Leute, wie läuft das eigentlich bei euch?

00:33:06: Die erstmal sagen, ja Moment,

00:33:08: wir haben ja einen Job, den wir machen müssen.

00:33:11: Aber es ist okay, wir gucken da jetzt

00:33:12: gemeinsam nach und dann können wir das anpassen.

00:33:14: Das sind ja auch Systeme, die häufig

00:33:16: oder Prozesse, die häufig

00:33:18: so ablaufen. Von daher denke

00:33:20: ich, es ist wichtig, dass wir darüber

00:33:22: diskutieren. Es ist wichtig, dass wir uns das

00:33:24: von mehreren Seiten betrachten.

00:33:26: Und es ist wichtig, dass wir am Ende des Tages

00:33:28: den Zweck, warum wir solche Technologien

00:33:30: einsetzen, eben auch immer im Blick

00:33:32: behalten und nicht aufgrund von

00:33:34: Möglichkeiten von Technologien dann selbstständig

00:33:36: da was machen.

00:33:38: Damit hast du alles Wichtige gesagt, finde ich

00:33:40: sehr gut.

00:33:42: Super cool. Dann würde ich sagen, danke ich dir vielmals

00:33:44: für das Gespräch. Ich habe wieder eine ganze Menge gelernt

00:33:46: und ich finde deinen Standpunkt auch sehr interessant,

00:33:48: auch wenn ich nicht in allen Teilen zustimmen konnte.

00:33:50: Aber ich glaube, wie du sagtest,

00:33:52: gemeinsam sind wir da

00:33:54: doch ziemlich auf derselben Wellenlänge.

00:33:57: Und ich hoffe, ihr da draußen

00:33:58: habt davon auch profitiert, dass wir

00:34:00: uns hier so ein bisschen darüber

00:34:02: ausgetauscht haben und könnt euch jetzt selber

00:34:04: vielleicht ein besseres Bild über

00:34:06: solche Dinge machen oder vielleicht

00:34:08: an anderen Stellen mitdiskutieren, auf

00:34:10: anderen Ebenen. Lieber Klaus,

00:34:12: vielen Dank von meiner Seite.

00:34:15: Deine abschließenden Worte

00:34:16: und dann sind wir auch durch für heute,

00:34:18: würde ich sagen. Ja, Stephan, aufgrund der

00:34:20: fortgeschrittenen Zeit würde ich sagen,

00:34:22: wir haben das Wichtigste herausgearbeitet

00:34:24: und ich denke, die

00:34:26: Kameraüberwachung mit KI-Unterstützung wird kommen

00:34:28: in der und der Form, hoffentlich in einer sehr guten

00:34:30: und dann sehen wir weiter.

00:34:34: In diesem Sinne,

00:34:35: macht's gut. Tschüss.

00:34:36: Tschüss.

00:34:38: Das war Datenschutz Deluxe.

00:34:40: Du willst mehr spannende Themen

00:34:42: oder Kontakt zu uns? Dann besuche

00:34:44: Klaus Meffert auf seinem Blog

00:34:46: Dr. DSGVO

00:34:47: und Stephan Plesnik auf seinem YouTube-Kanal

00:34:50: Datenschutz ist Pflicht.

00:34:52: Bis zum nächsten Mal.

Kommentare (1)

Markus

Hi zusammen, ich mag es, wie häufig sehr salopp und trotzdem fachlich korrekt gesprochen wird. In dieser Folge - Videoüberwachung mit KI Auswertung - fiel mir das schmunzeln eher schwer. Egal, ob ihr Psychologen oder eine Suchmaschine fragt (ha ha), Menschen verändern ihr verhalten, wenn sie sich überwacht fühlen. Es geht also nicht nur um die falsche Verdächtigung, sondern darum, dass wir abwägen. Die übliche Frage, wie viel Freiheit geben wir für Sicherheit auf. Und zu Freiheit gehört ja auch ohne protokolliert zu werden von a nach b laufen zu dürfen und - vor Allem - dass ich mich nicht überwacht fühle. Nicht falsch verstehen, das muss abgewägt werden. Ich spreche nicht gegen alle Kameras, aber wir müssen uns überlegen, ob wir eine Gesellschaft möchten, die sich generell überwacht fühlt und ihr verhalten ändert. Grüße Markus

Neuer Kommentar

Dein Name oder Pseudonym (wird öffentlich angezeigt)
Mindestens 10 Zeichen
Durch das Abschicken des Formulars stimmst du zu, dass der Wert unter "Name oder Pseudonym" gespeichert wird und öffentlich angezeigt werden kann. Wir speichern keine IP-Adressen oder andere personenbezogene Daten. Die Nutzung deines echten Namens ist freiwillig.