#46 Videoüberwachung und Gesichtserkennung mit KI auf öffentlichen Plätzen
Shownotes
Der Podcast rund um das Thema Datenschutz und IT. Mit Dr. Klaus Meffert und Stephan Plesnik.
46 Videoüberwachung und Gesichtserkennung mit KI auf öffentlichen Plätzen
Ein Skandal in Sachsen und Berlin war Anlass für diese Folge. Dort wurden Gesichtsdaten von Personen in intransparenter Weise verwendet. Es ging um die Gesichtserkennung auf öffentlichen Plätzen und das Training einer KI hierfür. Auch auf Rückfragen gab es keine Klarstellung.
Wir diskutieren kontrovers, ob Gesichtserkennung mit KI gut für unser Land ist oder ob zu sehr in die Privatsphäre von Bürgern eingegriffen wird.
Dies und einiges mehr in der aktuellen Episode von Datenschutz Deluxe.
Feedback geben? Fragen stellen? Gerne hier im Datenschutz-Blog von Klaus:
https://dr-dsgvo.de
Videokanal von Stephan: https://www.youtube.com/datenschutzistpflicht
Impressum:
https://dr-dsgvo.de/impressum
Inhaltlich verantwortlich ist jeder der Sprecher für seine eigenen Äußerungen.
Transkript anzeigen
00:00:00: Datenschutz Deluxe, der Podcast rund um das Thema Datenschutz und IT mit Dr. Klaus Meffert und Stephan Plesnik.
00:00:12: Hallo und herzlich willkommen, liebe Zuhörer zum Datenschutz Deluxe Podcast.
00:00:16: Mein Name ist Stephan Plesnik und bei mir ist wie immer Dr. Klaus Meffert. Lieber Klaus, wie geht es dir heute?
00:00:22: Stephan, mir geht es gut, ich hoffe dir auch und ich freue mich über unser spannendes Thema.
00:00:26: Ja, hier auf meiner Seite ist auch alles tutti und das spannende Thema, was ich mitgebracht habe, das freut mich sehr, weil es so ein bisschen, ich weiß nicht, es erinnert mich an graue Vorzeiten und gleichzeitig auch an nicht so weit zurückliegende Vergangenheiten, die doch sehr, sehr kritisch betrachtet wurden und irgendwie dann doch überhaupt kein Problem sind, wenn sie bei uns selbst auftauchen.
00:00:50: Und das Thema ist nämlich Echtzeitgesichtserkennung, die, so einigen Berichten zu entnehmen.
00:00:56: In Sachsen und Berlin an öffentlichen Plätzen, also zum Beispiel irgendwie an Bahnhöfen, Flughäfen und so weiter, doch sehr exzessiv eingesetzt wird durch Kamerasysteme, die eben eine Gesichtserkennung von Passanten vornehmen und dann das BKA diese Informationen sogar nutzt, um sie mit bestimmten Fahndungssystemen abzugleichen.
00:01:19: Und das natürlich alles, ohne dass irgendjemand was davon weiß vorher, der dort fotografiert.
00:01:26: Oder beobachtet und mit Video aufgezeichnet wird und dessen Daten dann so ausgewertet werden.
00:01:31: Und das erinnert mich so ein bisschen, ich weiß nicht, war es 2013, wo man sich noch so romantisch daran erinnerte, dass die NSA irgendwie Probleme bekommen hatte, weil Edward Snowden so viel darüber erzählt hat, was die alles für dreckige Sachen machen mit personenbezogenen Daten.
00:01:46: Kannst du dich noch erinnern? Wo führt das bei uns hin?
00:01:48: Ja, also zu Edward Snowden habe ich jetzt gestern oder vorgestern gelesen, dass er gesagt hat.
00:01:56: Die NSA ist kurz davor, das Internet komplett zu überwachen oder zu übernehmen, weil eben eine Gesetzesänderung in den USA ansteht, wonach jeder verpflichtet werden kann, der Zugang zu elektronischen Geräten von verdächtigen Subjekten oder Firmen oder sowas hat, für die NSA-Verdächtige oder Ziele von der NSA gezwungen werden kann, sozusagen der NSA Zugang zu diesen Geräten zu verschaffen.
00:02:20: Das bedeutet also, Reinigungskräfte zum Beispiel oder IT-Service-Personal von extern kann gezwungen werden von der NSA.
00:02:26: Wenn jemand einen Service-Einsatz bei dir zum Beispiel hat in der Firma und du bist ein Ziel von der NSA, was du ja nicht weißt, sonst wäre es ja kein Geheimdienst, dann können die gezwungen werden, Dinge zu tun, die du nicht gut findest, die deine Privatsphäre maximalen.
00:02:41: Aber jetzt zurück zum Thema.
00:02:44: Ich habe das natürlich auch vernommen, dieses Problem, das eben in Sachsen und Berlin war es, glaube ich, hast du gesagt, diese Videoüberwachung stattfindet.
00:02:56: Ja, irgendwelche Informationen herausgegeben worden sind, auch auf Nachfrage nicht und das finde ich den eigentlich bedenklichen Punkt.
00:03:02: Ich finde es an sich erstmal nicht, wie soll ich sagen, ob da jetzt ein Schild steht, dieser Platz wird Videoüberwacht oder nicht, also wenn es ein öffentlicher Platz ist, spielt für mich persönlich eigentlich eine sehr untergeordnete Rolle, muss ich sagen.
00:03:17: Also warum soll sich mein Verhalten dadurch ändern? Das würde sich ja nur verändern, wenn ich ein Straftäter wäre und dann fände ich es gut, wenn der überwacht wird, ehrlich gesagt.
00:03:25: Mhm.
00:03:26: Es sind halt immer zwei Seiten. In China zum Beispiel gibt es ja die Überwachung derart, dass jemand, der den Müll auf die Straße wirft, rechtswidrig natürlich, will ja auch keiner, dass jemand Müll entsorgt derart, dass der Sanktionen zu verspüren bekommt.
00:03:41: Das finde ich sehr gut, aber andererseits möchte ich auch nicht in China leben, weil da alles überwacht wird und auch Dinge passieren, die man wirklich nicht gut finden kann. Also es ist ein zweischneidiges Schwert.
00:03:53: Aber wenn ich dich richtig verstehe, also du sagst auf der einen Seite...
00:03:56: Kannst du das zu einem gewissen Maße tolerieren oder würdest du das sogar befürworten, weil du der Meinung bist, dass zum Beispiel jemand, der irgendwas zu verbergen hat, wenn er darüber Bescheid weiß, dass er beobachtet wird, sein Verhalten wahrscheinlich anpassen wird und dadurch irgendwie durch irgendwas, was er tut, auffällig wird und dann wäre es gut, wenn er beobachtet wird, damit man gucken kann, was hat er denn vor.
00:04:21: Auf der anderen Seite steht dem gegenüber dann ja auch diese...
00:04:26: Diese Frage, okay, wenn ich so eine Massenüberwachung durchführe, dann muss das ja, dann ist ja das Problem immer, was ist der konkrete Zweck?
00:04:35: Ich meine natürlich kann ich dir zustimmen, ich würde auch denken, dass eine Person, die irgendwas zu verbergen hat, sich dann vielleicht anders verhält.
00:04:42: Aber was ist mit all den anderen Leuten, die jetzt quasi nichts zu verbergen haben?
00:04:46: Die werden ja unter einen Generalverdacht gestellt und das ist auch immer so dieses Wort, was ich auch in den Artikeln zu diesem Thema immer wieder gefunden habe, was halt moniert wird, dass man quasi sagt,
00:04:56: erstmal seid ihr generell alle verdächtig, deswegen müssen wir euch überwachen und dann ist halt die Frage, wer überwacht die Überwacher?
00:05:03: Und das ist eben genau das, was ja auch so stark kritisiert wird, dass nämlich der Nutzen nicht überprüft wird, weil, und das wurde sehr schön formuliert,
00:05:14: dass die Nichttreffer, also wenn ich einen Abgleich mache zwischen den Informationen, die ich sammle mit meinem Überwachungssystem und einer bestimmten Fahndungsdatenbank,
00:05:26: zum Beispiel, dass alle Nichttreffer darüber nicht informiert werden, dass sie so gescannt wurden und kein Treffer gefunden wurde,
00:05:35: sodass sie überhaupt wissen, dass sie Teil einer Untersuchung waren, weil das ist ja so ein bisschen dieses polizeistaatliche Anmutende dahinter.
00:05:45: Also die Transparenz ist glaube ich das Problem in diesen beiden Fällen Berlin und Sachsen, also das Hauptproblem beginnt ja damit, dass nicht gesagt wird,
00:05:54: wie diese Art der Überwachung überhaupt stattfindet.
00:05:56: Also inklusive der Nachbearbeitung oder Verwendung dieser Daten, das ist das Problem, was ich sehe.
00:06:02: Es kann ja auch sein, dass das so funktioniert, so passiert, wahrscheinlich nicht, sonst würde man es ja einfach sagen, so passiert, dass man da durchaus das gut finden kann.
00:06:10: Ich gebe mal ein paar Beispiele, also angenommen, es kommt immer auf den Anlass an, das hattest du ja schon angedeutet, also angenommen auf einem öffentlichen Platz gibt es eine Videoüberwachung
00:06:18: und da fängt jemand an mit dem Messer rum zu fuchteln, dann finde ich es super, dass da eine Kamera steht.
00:06:23: Da kann auch gleich ein Polizist kommen.
00:06:25: Da kann sich, glaube ich, auch was passieren.
00:06:26: Da kann sich, glaube ich, auch niemand beschweren, dass er zu Unrecht verdächtigt wurde, wenn er ein Messer in der Hand hatte.
00:06:30: Also da sehe ich jetzt keinerlei Probleme, ehrlich gesagt.
00:06:33: Wenn jetzt aber, also das einzige Problem, was ich momentan sehe, das ist durchaus ein relevantes Problem, was du jetzt mit Generalverdacht bezeichnet hast,
00:06:43: wenn im Hintergrund sozusagen Menschen, die vielleicht falsch identifiziert wurden, das kommt ja durchaus vor, können wir gleich nochmal drüber reden,
00:06:51: die dann sozusagen in einer Datenbank landen und dann weiterverfolgt werden, unsinnig.
00:06:56: Da müsste man sich aber mal anschauen, wie findet das denn eigentlich statt?
00:07:00: Weil normalerweise, soweit ich weiß, muss für bestimmte Dinge ein richterlicher Beschluss her.
00:07:05: Und da könnte man zum Beispiel ja auch mal versuchen herauszufinden, ob die Person X wirklich die Person X ist oder an diesem Platz auch war.
00:07:14: Wenn es tatsächlich jemand ist, der schon gesucht wird oder der verdächtig ist oder schon Straftäter war, dann ist es für mich vollkommen in Ordnung,
00:07:23: wenn diese Person dann auch gesucht wird.
00:07:25: Dann auch, wenn sie die Person auch tatsächlich ist, die ausgewertet wurde, weiterverfolgt wird.
00:07:32: Es ist doch letztendlich kein Unterschied, ob ein Polizist sieht, dass diese Person da war oder ob es eine Kamera sieht.
00:07:38: Also das Problem würde dann losgehen, wenn du zum Beispiel unrechtmäßig als Straftäter angesehen werden würdest, weil du jemand anderes ähnlich siehst oder sowas.
00:07:46: Also da sehe ich das einzige Problem, ehrlich gesagt.
00:07:50: Also ich meine, ich habe nichts gegen Videoaufzeichnungen.
00:07:54: Sie müssen halt natürlich dann auch zeitnah wieder gelöscht werden, wenn es da keinerlei Anlässe gibt, diese aufzuheben, als Beispiel.
00:08:02: Das gibt es ja auch in der Privatwirtschaft, hat ein Gericht entschieden, ob das richtig oder falsch ist, weiß man nicht.
00:08:06: Aber eine Kamera darf zum Beispiel eine Selbstbedienungstankstelle, wo ja kein Personal ist, darf ihre Kameraaufzeichnungen nur 72 Stunden aufheben, außer es ist mal ein Feiertag.
00:08:16: Nämlich der Gedanke soll sein, innerhalb dieser Zeit hat die Tankstelle genügend Zeit, das Videomaterial auszuwerten.
00:08:22: Mhm.
00:08:23: Und wenn da jemand erwischt wird, wie er versucht, einen Brand zu legen oder abzuhauen, ohne zu bezahlen, dann kann man das innerhalb von 72 Stunden feststellen und muss sich dafür nicht drei Wochen Zeit nehmen.
00:08:32: Und wenn man dann festgestellt hat, derjenige, der hat versucht, die Tankstelle in Brand zu setzen, dann kann man natürlich die Videoaufnahme beliebig lange aufheben.
00:08:39: Also ich meine, da darf niemand was dagegen haben und das Gesetz erlaubt das auch.
00:08:43: Selbst dran schuld, wenn man straffällig wird, da wird man hoffentlich dafür bestraft.
00:08:46: Das ist meine Herangehensweise und alle anderen, die nicht Straftäter sind, sollten natürlich auch nicht so behandelt werden.
00:08:51: Also ich kann dir absolut zustimmen bei dem, was du sagst, bei diesem relativ spezifischen Beispiel.
00:08:59: Wenn wir einen Kriminellen haben, der an irgendeiner Stelle irgendwas Kriminelles tut und dann habe ich eine gewisse Zeit, meine Videoaufzeichnungen aufzubewahren, die auszuwerten und so weiter.
00:09:08: Das denke ich, das ist alles okay und das funktioniert auch gut. Da bin ich bei dir.
00:09:11: Ich glaube, da haben wir auch in Deutschland vernünftige Regeln geschaffen, die es ermöglichen, auf der einen Seite so ein Verhalten zu beobachten.
00:09:20: Das nachzuvollziehen, was da passiert ist, das eben auszuwerten und eben dann auch im Falle einer kriminellen Tat rechtlich nutzbar zu machen als Beweise.
00:09:29: Aber worum es hier ja geht, ist, dass diese Information auch relativ wahllos, also Millionen von Gesichtsbildern, davon ist die Rede, in ein polizeiliches Informationssystem übertragen wurde.
00:09:43: Und daraus extrahiert an das Fraunhofer-Institut gegeben wurde, die dann Tests mit diesen Gesichtsbildern gemacht haben.
00:09:48: Und daraus extrahiert an das Fraunhofer-Institut gegeben wurde, die dann Tests mit diesen Gesichtsbildern gemacht haben.
00:09:49: Und daraus extrahiert an das Fraunhofer-Institut gegeben wurde, die dann Tests mit diesen Gesichtsbildern gemacht haben.
00:09:52: Um wahrscheinlich irgendwelche Algorithmen zu trainieren oder irgendwelche anderen Dinge zu erforschen, was man eben mit Bilderkennung machen kann.
00:10:00: Und es sind nun mal Bilder von Menschen, die darüber nicht informiert wurden.
00:10:04: Und das ist ja so ein bisschen dann auch wieder der Punkt.
00:10:07: Wir haben auf der einen Seite bestimmt eine Systematik, wo wir sagen, im öffentlichen Bereich kann man eine gewisse Form von Videoüberwachung vertreten.
00:10:16: Und auch sagen, da kann jeder zustimmen.
00:10:18: ich habe nichts quasi
00:10:20: Kriminelles vor, also ist das auch okay,
00:10:22: wenn jemand vielleicht
00:10:24: per Zufall sieht, dass ich auch
00:10:26: da war, als jemand anders beobachtet wurde,
00:10:28: der was Kriminelles vorhat. Ich glaube, da
00:10:30: sind wir uns alle einig, dass wir sagen, irgendwie
00:10:32: müssen wir ja eine Form von Sicherheit
00:10:34: da erzeugen. Aber auf der
00:10:36: anderen Seite... Aber Stephan, du hast jetzt
00:10:37: einen zweiten Punkt genannt, oder? Also der erste
00:10:40: Punkt war ja die Überwachung an sich.
00:10:42: Dazu habe ich was gesagt und du hast jetzt einen Punkt genannt,
00:10:44: der ist ein anderer Punkt, der ist sehr spannend,
00:10:46: aber der hat jetzt erstmal wenig mit meiner
00:10:48: Aussage zu tun. Du hast gesagt, diese
00:10:50: Trainingsdatengeschichte, also
00:10:52: da können wir gerne drüber reden, da bin ich auch
00:10:54: deiner Meinung an sich, aber
00:10:56: was die Videoüberwachung angeht, weiß ich
00:10:58: jetzt nicht, wo du anders siehst,
00:11:00: ehrlich gesagt. Sehe ich nicht, das habe ich ja gesagt.
00:11:02: Also ich sehe das nicht anders, ich sehe das eigentlich genauso
00:11:04: wie du. Wenn wir diese
00:11:06: präzise Unterscheidung machen können und die auch durchführen,
00:11:09: dann ist das wunderbar. Dann sage
00:11:10: ich, dann habe ich da nicht viel gegen.
00:11:12: Was du ansprachst hier, wie das
00:11:14: in China gemacht wird und was die dann auch
00:11:16: weiter mitmachen, ich denke, da geht es dann
00:11:18: ein bisschen,
00:11:20: ich glaube, überall da, wo
00:11:22: ein Überwachungssystem
00:11:24: eines öffentlichen Raums dazu dient,
00:11:26: ein bestimmtes gewünschtes Verhalten
00:11:28: zu erwirken und zu erziehen.
00:11:31: Ich glaube, das ist der Punkt,
00:11:33: wo auch
00:11:35: die Leute dann viel das Problem mit haben,
00:11:36: weil dann hast du eben das Gefühl, dass du nicht mehr
00:11:38: frei bist in deiner Entscheidung, wie du dich
00:11:40: benimmst, unabhängig davon,
00:11:42: dass natürlich bestimmte Freiheiten
00:11:44: im Zusammenleben nicht existieren
00:11:46: sollen, weil man eben in Gesellschaften,
00:11:48: im Zusammenleben auf die
00:11:50: Freiheiten der anderen auch achten muss
00:11:52: und die nicht einfach quasi seine
00:11:54: eigenen über diese stellen kann.
00:11:55: An der Stelle bin ich voll bei dir.
00:11:58: Wie gesagt, wenn es zu weit geht, wie im
00:11:59: Beispiel von China, dann finde ich das wieder
00:12:02: sehr kritisch. Also wenn es um Erziehung eines
00:12:04: gewünschten Verhaltens durch irgendwelche Sicherheitsbehörden
00:12:06: geht, wie die NSA das zum Teil
00:12:08: auch versucht oder schon getan hat,
00:12:10: dann bin ich dagegen.
00:12:12: Alles andere, wunderbar.
00:12:14: Was eben schwierig ist,
00:12:16: ist, diese Grenze
00:12:17: nicht zu überschreiten
00:12:19: für die, und ich sag das jetzt mal gelinde gesagt,
00:12:22: wenig gebildeten Leute,
00:12:24: die mit diesen Systemen umgehen.
00:12:26: Und wenig gebildet meine ich nicht, dass
00:12:27: das dumme Menschen sind, sondern ich meine,
00:12:29: dass die Auswirkungen ihres Handelns
00:12:31: in Bezug auf diese sensiblen Daten,
00:12:34: die sie dort nutzen und verarbeiten,
00:12:36: glaube ich, zu wenig trainiert
00:12:38: ist.
00:12:39: Ja, also vor allem, also gut,
00:12:41: das sind ja wohl dann meistens Beamte, Polizeibeamte
00:12:43: oder sowas, die gewisse
00:12:45: Vorgaben haben, an die müssen
00:12:47: sie sich stur halten, so habe ich das zumindest
00:12:49: mal von Beamten grundsätzlich vernommen.
00:12:52: Also sonst, Kreativität ist jetzt
00:12:53: im Beamtentum nicht unbedingt die Tugend, die erwartet wird.
00:12:56: Das meine ich jetzt nicht böse,
00:12:57: das ist das, was ich gehört habe.
00:12:59: Das ergibt sich aus der Tätigkeit an sich.
00:13:01: Man hat Nachteile, wenn man zu mutig ist, so habe ich es mal
00:13:03: also würde ich es auch verstehen, dass es so ist.
00:13:06: Ja, weil, führt zu weit,
00:13:07: aber das wird so sein.
00:13:10: Ziemlich sicher sogar
00:13:11: in großen Teilen des Beamtentums.
00:13:14: Und da ist es eben so,
00:13:15: was ich vorhin anklingen ließ,
00:13:17: dass eben genau wie der Mensch
00:13:19: kann eben ein Computer nicht zuverlässig
00:13:21: Gesichter, Personen zuordnen.
00:13:23: Das ist uns allen ja schon so gegangen.
00:13:25: Da ist mal jemand vorbeigelaufen, den man kennt und derjenige
00:13:27: hat vielleicht nur einen Hut aufgehabt oder Sonnenbrille
00:13:29: oder andere Haarfarbe und dann hat der andere
00:13:31: gesagt, hier kennst du mich nicht mehr, ach Entschuldigung, ich hab dich
00:13:33: gar nicht erkannt.
00:13:35: Oder man hat jemand verwechselt.
00:13:37: Kommt ja auch dauernd, also mir kommt das
00:13:39: im Fernsehen oder so, guck mal, der sieht dem so ähnlich,
00:13:41: dann sagt der eine ja, der andere nein.
00:13:44: Und ein Computer
00:13:45: kann das nicht besser oder schlechter, nur schneller.
00:13:47: Und viel mehr
00:13:49: Vergleiche durchführen.
00:13:51: Der kann sich also schneller irren, das ist auch cool.
00:13:53: Kann sich schneller irren, kann allerdings
00:13:55: auch dann, also deswegen muss immer der
00:13:57: Mensch am Ende die Kontrolle haben
00:13:59: und ich sag ja, wenn jemand ein Messer in der Hand hat, ist es egal,
00:14:01: welche Person das ist, da braucht man keine Personalien
00:14:03: vorher festzustellen, da kann man den einfach dann
00:14:05: erstmal im Zweifel festnehmen,
00:14:08: wenn er was tun will, was
00:14:09: nicht in Ordnung ist, ja, sagen wir es mal vereinfacht.
00:14:11: Ist ja auch was Offensichtliches.
00:14:13: Warum renne ich mit einem offenen Messer in der
00:14:15: Öffentlichkeit rum, wenn ich nicht
00:14:17: gerade Koch bin, der irgendwie in der
00:14:19: Öffentlichkeit eine Show macht, dann
00:14:21: gibt es dafür wenig Grund, sag ich mal.
00:14:23: Es gibt aber auch viele andere Fälle,
00:14:25: die wahrscheinlich viel häufiger sind.
00:14:28: Belästigung,
00:14:29: Lärm, ja, ich meine Lärm ist auch
00:14:31: kein Kavaliersdelikt, ja, wer zu laut
00:14:33: ist, der gehört auch bestraft, meiner Meinung nach,
00:14:35: dauert, ja, irgendwann lernt das dann
00:14:37: vielleicht mal, wir reden ja nicht darüber, dass
00:14:39: einer einmal kurz laut redet oder so, ja,
00:14:41: das meine ich jetzt nicht, es gibt Leute, die drehen ihren
00:14:43: Bass auf und in der Öffentlichkeit,
00:14:45: ohne dass die anderen das wollen.
00:14:46: Und dann bleiben halt
00:14:48: die Fälle übrig, die du genannt hast, wo man
00:14:50: vielleicht im Hintergrund verfolgt wird, weil man vielleicht für
00:14:52: einen Drogendealer gehalten wird, obwohl man keiner ist.
00:14:54: Wie gesagt, da muss
00:14:56: eben der Mensch gucken, ist das diese Person
00:14:58: und vielleicht gibt es ja auch in manchen Fällen die
00:15:00: Möglichkeit, die Person zu befragen,
00:15:02: ob sie an dem Tag an dem Ort war oder so,
00:15:04: ja, und ob sie,
00:15:06: und wenn sie dann sagt, ja, dann
00:15:07: wird man wohl davon ausgehen können, dass
00:15:09: diese Erkennung richtig war, ja.
00:15:12: Also ich meine, das kann man ja teilweise
00:15:14: in vielen Fällen richtig verifizieren,
00:15:16: übrig bleiben dann sehr wenige Fälle,
00:15:18: das Problem ist, also meiner Meinung nach
00:15:20: sehr wenige Fälle, das Problem ist eben,
00:15:22: wenn man einer von diesen sehr wenigen Fällen ist,
00:15:24: hilft einem das leider auch nicht weiter.
00:15:27: Da bin ich voll bei dir,
00:15:28: das ist, also, klar, wenn du,
00:15:29: wenn du da einer von den
00:15:32: wenigen Fällen bist, dann hast du immer die A-Karte
00:15:34: gezogen und es ist total schade,
00:15:36: wenn das passiert. Interessant finde ich
00:15:38: jetzt, dass du auch den Punkt aufwirfst, dass
00:15:40: auch quasi algorithmische
00:15:42: Auswertungen durch KIs da
00:15:44: nicht besser sind, die sind nur schneller darin,
00:15:46: den Fehler zu produzieren,
00:15:47: was natürlich auch wieder,
00:15:50: ja, sag ich mal, exemplarisch für unsere,
00:15:52: vielleicht auch für unsere Art und Weise der
00:15:54: Wahrnehmung eines bestimmten Themas geht.
00:15:55: Wir haben ja schon viel gemeinsam über KI
00:15:57: diskutiert und ich erinnere mich da
00:16:00: immer wieder daran zurück,
00:16:01: dass man immer wieder an den Punkt
00:16:04: kommt, egal wie sehr wir
00:16:05: eine Technologie hypen,
00:16:07: vergessen wir vielleicht auch ein bisschen so,
00:16:10: okay, was ist denn jetzt wirklich
00:16:12: die Nuts und Bolts, was ist wirklich die
00:16:13: Technik, die dahinter steckt und was kann sie wirklich?
00:16:16: Was suggeriert sie einem
00:16:17: Unwissenden vielleicht
00:16:19: im Frontend, in der Nutzung
00:16:21: versus was passiert wirklich im Hintergrund?
00:16:24: Wird wirklich gedacht, wird wirklich verstanden
00:16:26: oder werden mehr nur
00:16:27: statistische Erhebungen
00:16:30: gemacht aus vielen Daten, die dann
00:16:32: ein Ergebnis möglichst,
00:16:33: ich sag mal, natürlich oder echt wirken
00:16:36: lassen?
00:16:37: Wenn wir diesen Punkt
00:16:39: mal nehmen, was ich sehr spannend
00:16:41: finde, ist ja, wir haben ja gerade über diese
00:16:43: Auswertung dieser Bilder gesprochen, also quasi die
00:16:45: weitere Nutzung dieser Daten,
00:16:47: von denen keiner was weiß, also unabhängig
00:16:49: davon, ob ich jetzt irgendwas tue
00:16:51: und jemand dann Alarm schlägt, werden
00:16:53: dort einfach Bilder von mir gemacht, wenn ich
00:16:55: in Berlin am Bahnhof bin,
00:16:58: kann es sein, dass ich dort,
00:16:59: mein Gesicht dort gescannt wird und diese,
00:17:02: dieser Scan meines Gesichts wird dann
00:17:04: zum Beispiel dem
00:17:05: Fraunhofer-Institut übergeben, damit
00:17:07: die damit irgendwelche Tests machen. Was auch
00:17:09: immer diese Tests sind, weiß keiner, das wird
00:17:11: wieder geheim gehalten, da sind wir bei dem Punkt, den du am Anfang
00:17:13: moniert hast, von wegen die Transparenz,
00:17:15: fehlt einfach und
00:17:17: dann gibt es halt zum Beispiel Bundestagsabgeordnete,
00:17:20: die sagen, dass
00:17:21: dieses Verhalten, dass man,
00:17:24: weil man eine Technologie besitzt,
00:17:26: alles okay ist, was man damit tut,
00:17:28: denn ich bin die Polizei,
00:17:30: exemplarisch für den Umgang
00:17:31: der Sicherheitsbehörden mit den Anforderungen
00:17:34: des Datenschutzes steht,
00:17:36: weil, und das finde ich sehr spannend,
00:17:38: die quasi die,
00:17:39: die
00:17:40: Legitimierung, warum
00:17:43: diese, diese
00:17:45: Daten eingeholt werden, so verwendet,
00:17:47: weiterverwendet werden, warum darüber überhaupt
00:17:49: keiner informiert wird, ist
00:17:51: vom Vorsitzenden des Bundes
00:17:53: Deutscher Kriminalbeamter, Dirk Pecklow,
00:17:55: der hat gesagt, wir sind
00:17:57: als Polizei darauf angewiesen,
00:17:59: moderne Technologien zu nutzen,
00:18:02: um den Bedrohungen für unsere
00:18:03: Gesellschaft durch vielfältige
00:18:05: Kriminalitätsphänomene zu begegnen.
00:18:08: Das ist zwar nett gesagt,
00:18:10: aber übersetzt heißt das,
00:18:12: fragt uns nicht, was wir mit der
00:18:13: Technologie tun, wenn wir sie nutzen,
00:18:15: wie wir wollen. Und das finde ich
00:18:18: ein bisschen, ich weiß nicht,
00:18:19: das stößt mir dann als jemanden,
00:18:21: der der Vorsitzende eines Verbunds
00:18:23: Deutscher Kriminalbeamter ist,
00:18:26: wenn der so eine Einstellung hat,
00:18:28: wie weit
00:18:29: würde denn dann noch, um zum Beispiel
00:18:32: deines Beamten zurückzukommen,
00:18:33: ein Beamter, der jetzt nicht für Kreativität
00:18:35: bezahlt wird, überhaupt noch wahr,
00:18:38: ob die Regeln, auf die er
00:18:39: sich gerade bezieht, hochgradig
00:18:42: nicht mit unserem
00:18:43: Rechtsstaat zu vereinbaren sind.
00:18:45: Das ist nicht die Aufgabe eines Beamten.
00:18:47: Er ist Staatsdiener und so ist es
00:18:50: auch zu verstehen. Ansonsten kann er
00:18:52: auch ins Gefängnis kommen, wenn er seinen Job
00:18:53: nicht richtig ausführt, im schlechtesten Fall.
00:18:56: Aber der Punkt ist,
00:18:58: was du zitiert hast, eben von
00:19:00: dem Vorsitzenden
00:19:01: der Deutschen Kriminalbeamten
00:19:03: oder Kriminalpolizei, wenn das die Begründung war,
00:19:06: warum man nicht gesagt hat, wie das Ganze
00:19:07: stattgefunden hat, das ist natürlich keine valide Begründung,
00:19:10: aber grundsätzlich stimmt es natürlich schon,
00:19:11: dass die Polizei selbstverständlich möglichst gute
00:19:13: Technologien einsetzen sollte.
00:19:15: Jetzt bei,
00:19:15: jetzt zu dem Thema mit dem Fraunhofer-Institut.
00:19:18: Also natürlich
00:19:19: ist es, soweit ich weiß,
00:19:21: rechtswidrig, wenn einfach unsere
00:19:23: Gesichtsdaten verwendet werden für solche
00:19:25: Dinge. Also da gibt es kein Gesetz
00:19:27: dafür. Da gibt es, also es ist
00:19:29: ein Dilemma. Wir brauchen tatsächlich,
00:19:32: es wird auch kommen, ja, ich meine,
00:19:33: es gibt ja andere Länder, da gibt es
00:19:35: KI-Systeme, die trainiert sind auf
00:19:37: Gesichtserkennung. Die sind trainiert worden mit
00:19:39: Fotos von anderen Menschen, die nicht
00:19:41: in Deutschland wohnen.
00:19:43: Und das würden wir dann benutzen.
00:19:45: Endlich würde es auf etwas Ähnliches oder Gleiches
00:19:47: hinauslaufen. Das heißt,
00:19:49: es wird gar nicht anders gehen, als dass es
00:19:51: ein Gesetz geben wird, wonach
00:19:53: in kontrollierter Weise
00:19:54: die Gesichtsdaten von am besten allen
00:19:57: Deutschen, ja, in möglichst
00:19:59: kontrollierter Weise in ein KI-System einfließen
00:20:01: zum Training. Der Punkt ist nämlich,
00:20:03: dass dieses System, wie du es jetzt
00:20:05: beschrieben hast, ich kenne die Details
00:20:07: nicht, aber so wie es sich anhört, ist es
00:20:09: nämlich antirassistisch und sogar
00:20:11: antinational,
00:20:13: muss man sagen, denn in Deutschland
00:20:15: leben ja überwiegend Menschen mit heller
00:20:17: Hautfarbe. Das ist so meine Lebenserfahrung, auch
00:20:19: aufgrund der Sonneneinstrahlung
00:20:21: und so weiter kann man das sicher sagen.
00:20:23: Und da ist es eben so, dass dunkelhäutige
00:20:25: Menschen im KI-Modell ja viel seltener verankert
00:20:27: sein werden, wenn man nur Gesichter von Menschen nimmt,
00:20:29: die in Deutschland leben. Das ist also, glaube ich,
00:20:31: ein Faktum. Das ist jetzt rein objektiv betrachtet.
00:20:33: Darf man hoffentlich so sagen.
00:20:35: Diese Menschen werden dann schlechter von der KI erkannt
00:20:37: und insofern schlechter auch erkannt,
00:20:39: wenn es um Straftaten geht.
00:20:41: Das heißt, der Deutsche wird üblicherweise öfter
00:20:43: als Straftäter erkannt, als derjenige,
00:20:45: mit der nicht typisch deutschen Hautfarbe.
00:20:47: So möchte ich es mal sagen.
00:20:49: Und das ist ja diskriminierend,
00:20:51: aber uns gegenüber.
00:20:52: Da muss man sagen,
00:20:54: mit der aktuellen Migrationspolitik ist es ja
00:20:56: ziemlich kontraproduktiv, wenn die
00:20:59: Straftäter von außerhalb wissen,
00:21:01: dass sie hier besonders schlecht erkannt werden von den Kameras,
00:21:03: weil die Kameras nur auf
00:21:05: unsere, die KI nur auf unsere Bilder
00:21:06: trainiert wurde. Für die Kriminalität
00:21:09: dieser Leute ist es auf jeden Fall produktiv.
00:21:11: Nicht kontraproduktiv.
00:21:12: Ja, genau.
00:21:13: Also, aber es gibt
00:21:15: eine Möglichkeit, man muss ein Gesetz schaffen,
00:21:17: um das Ganze auf solide Füße zu stellen.
00:21:19: Das muss natürlich europarechtskonform
00:21:21: sein, das könnte ein Problem werden.
00:21:22: Da wird es in Europa vielleicht eine Änderung geben müssen.
00:21:24: Dann muss man natürlich, sobald jemand hier in Deutschland
00:21:26: geboren wird, beziehungsweise ein gewisses
00:21:29: Alter erreicht hat,
00:21:30: oder auch einwandert, muss man
00:21:32: diese Personen fotografieren, beziehungsweise
00:21:35: das Foto hat man ja dann als Behörde
00:21:36: vom Personalausweis oder Ähnlichem,
00:21:38: und muss dann auch in die KI einspeisen. Das heißt,
00:21:40: möglichst jeder, der hierher kommt, muss
00:21:42: trainiert werden. Und auch natürlich Leute,
00:21:44: die nur zum Urlaub da sind, die sollten
00:21:46: irgendwie dann auch eingespeist werden. Das ist also jeder.
00:21:49: Und wie gesagt,
00:21:50: diese wenigen Fälle, wo tatsächlich
00:21:52: insgeheim was passiert,
00:21:54: und wo es jetzt nicht um Lärmbelästigung oder
00:21:56: Messer rausholen geht,
00:21:58: da muss eben ein Mensch,
00:22:00: genau wie bisher, hoffe ich, doch
00:22:01: kontrollieren, dass das auch eine
00:22:03: richtige Erkennung war. Ich meine,
00:22:06: es gibt ja letztendlich keinen Unterschied, ob jetzt
00:22:08: zum Beispiel Polizisten einen Platz beobachten,
00:22:10: weil da regelmäßigen Drogendealer aufschlägt.
00:22:12: Dann gibt es jemand, der sieht ähnlich aus
00:22:14: wie dieser Drogendealer, der war noch nie da an dem
00:22:16: Tag, ist auch kein Drogendealer, und die Polizisten
00:22:18: denken, das ist der Drogendealer.
00:22:20: Das ist ja exakt dasselbe, als wenn
00:22:22: die KI das denkt. Das wird doch
00:22:24: wohl auch vorkommen, sowas.
00:22:26: Ich sehe da keinen
00:22:28: echten Unterschied, außer dass, wie gesagt,
00:22:30: bei KI natürlich automatisiert geht
00:22:32: und viel mehr. Aber
00:22:33: ich denke, es wird darauf hinauslaufen, es wird
00:22:36: nicht anders gehen. Und da ich kein Straftäter
00:22:38: bin und auch nicht vorhabe, einer zu sein,
00:22:40: finde ich, ehrlich gesagt, die Vorteile
00:22:42: für mich, wenn es ordentlich aufgesetzt wird,
00:22:44: und aktuell scheint es nicht so zu sein,
00:22:46: nachdem, was du jetzt auch wiedergegeben hast,
00:22:48: wenn es ordentlich aufgesetzt wird, fühle ich mich dann
00:22:50: in Deutschland sicherer.
00:22:51: Ja, also aus der Perspektive, die du
00:22:54: schilderst und aus der du jetzt sprichst,
00:22:56: kann ich dir da, wie gesagt, zustimmen.
00:22:57: Aber jetzt kommt ja die Frage,
00:22:59: ab wann bist du denn kriminell?
00:23:02: Weil das ist ja auch nur eine Auslegung
00:23:04: eines Rechtsstaats. Und wir merken ja gerade
00:23:06: extrem stark, und da komme ich so ein bisschen
00:23:08: auf den Zweck dieser gesamten
00:23:10: Idee der Thematik, warum
00:23:12: wir überhaupt, dass eine solche
00:23:14: Überwachung notwendig ist.
00:23:16: Wovor will wer
00:23:18: wen schützen? Und
00:23:20: will er sich vielleicht eher selbst schützen?
00:23:22: Denn das ist ja genau der
00:23:24: Punkt, wo wir dann so ein bisschen auch
00:23:26: so in die Richtung abdriften könnten,
00:23:28: was wir eben in China erleben.
00:23:30: Wo wir es mit einem Kontrollstaat, einem
00:23:32: Polizeistaat zu tun haben, der sagt,
00:23:34: ich schütze mich und meine
00:23:36: Macht vor den Angriffen
00:23:38: der Gesellschaft. Indem ich
00:23:40: sehr früh Dinge
00:23:41: identifizieren kann, wo sich
00:23:44: Leute falsch verhalten und nicht
00:23:45: konform sind mit dem, was ich gerne möchte,
00:23:48: was meine Macht erhält. Und schon
00:23:50: sind wir in einem Polizeistaat. Und wenn
00:23:52: wir hier bei uns... Ja, aber sind wir ja nicht.
00:23:53: Ja, sind wir nicht. Aber die Frage
00:23:56: ist ja, ab wann rutscht man denn dahin?
00:23:58: Denn China war das auch eine Zeit lang nicht.
00:24:00: Und irgendwas passiert
00:24:01: und dann rutscht man dahin. Und wenn
00:24:03: solche Prozesse immer stärker
00:24:06: die Gesellschaft durchdringen und alle
00:24:07: Leute sagen, naja, solange
00:24:09: es mich nicht betrifft persönlich,
00:24:11: weil ich nicht vorhabe, irgendwie gegen
00:24:13: die Gesetze zu sein, dann muss ich doch nur ein Gesetz
00:24:15: zu meinem Nachteil ändern. Schon bin ich gegen
00:24:17: das Gesetz, weil ich das nicht mehr gut finde.
00:24:20: Und wenn ich dann etwas tue,
00:24:22: dass ich das äußere, sagt mir jemand,
00:24:23: naja, du bist ja gegen das Gesetz und ich hab das beobachtet
00:24:25: und ich hab das rausgefunden. Und wenn
00:24:27: das dann noch automatisiert passiert,
00:24:30: ist natürlich... Ja, aber...
00:24:31: Das ist ja so ein bisschen auch die ethische Frage.
00:24:33: Also, ja, also
00:24:35: ich verstehe, was du sagen willst. Aber, also erstens,
00:24:38: du kennst China besser als ich.
00:24:39: Du lernst ja Chinesisch. Hast du mir mal gesagt, also ich bin
00:24:41: kein China-Kenner.
00:24:43: Aber ich glaube, da gibt es schon große Unterschiede
00:24:45: und ich sehe ehrlich gesagt, man kann der Regierung
00:24:47: immer wieder mal was vorwerfen. Ja, das sind aber ehrlich
00:24:49: gesagt Sachen, da kann man drüber
00:24:51: streiten, ja, in jedem Fall.
00:24:54: Die Regierung, die macht
00:24:55: einen ordentlichen Job, kann man grundsätzlich sagen.
00:24:57: Da gibt es Ausreißer nach oben und unten.
00:24:59: Aber es ist jetzt nicht so, dass man sagen kann, wir haben
00:25:01: eine Regierung, die macht, was sie will.
00:25:03: Das ist nicht so. Also es gibt halt
00:25:05: Gegebenheiten, die sind so, wie sie sind. Wir können
00:25:07: das Geld nicht noch mehr drucken, ohne dass es
00:25:09: entwertet wird. Also gibt es eine Geldmenge, da muss man
00:25:11: mit arbeiten. Umwelt ist auch wichtig und so weiter.
00:25:13: Und es gibt ja den Verrohung der Gesellschaft,
00:25:15: die finden in letzter Zeit statt. Angriffe gegen
00:25:17: Politiker und so weiter.
00:25:19: Und insofern, auch was du sagst, ein Gesetz ändert sich.
00:25:22: Wir reden jetzt, also wenn es
00:25:23: um Ordnungswidrigkeiten geht,
00:25:25: ganz ehrlich, da stirbt
00:25:27: keiner von, wenn er mal wegen einer Ordnungswidrigkeit
00:25:29: belangt wird. Das passiert da
00:25:31: regelmäßig. Bei Straftaten,
00:25:33: man wird nicht einfach so Straftäter.
00:25:35: Da muss man schon
00:25:37: ordentlich was geleistet haben.
00:25:39: Es tut mir leid, da fällt
00:25:41: mir jetzt kein Beispiel ein, wie ich da reinrutschen
00:25:43: könnte aus Versehen. Ich meine,
00:25:46: also, klar,
00:25:47: man könnte jetzt eins konstruieren, das, was mir
00:25:49: einfallen würde, du kommst jemandem zu Hilfe,
00:25:51: Notwehr, ja,
00:25:52: und der wird angegriffen und du
00:25:55: verteidigst den, dann kann es natürlich sein, dass du vielleicht auch
00:25:57: ein Problem kriegst. Aber dieses Problem würdest
00:25:59: du jetzt auch schon im schlechtesten Fall kriegen,
00:26:01: wenn das jemand anders, vielleicht
00:26:03: ein Polizist sogar, gesehen hätte.
00:26:05: Ja, Moment, aber warte mal kurz.
00:26:07: An dem Punkt, du hattest ja gerade gesagt,
00:26:09: trainieren wir eine KI mit diesen Daten?
00:26:11: Dann lernt die KI,
00:26:13: wenn die jetzt viele weiße Gesichter kennt,
00:26:16: eher auch
00:26:17: auf Weiße zu referenzieren
00:26:19: für Kriminalität. Und jetzt kommt aber der
00:26:21: rückschließende Punkt, den ich sehr
00:26:23: häufig in Berichten über solche
00:26:25: Formen von Technologien beim Einsatz in Amerika
00:26:27: gesehen habe, dass es eben so ist,
00:26:29: die KIs, die dort trainiert
00:26:31: werden oder wurden,
00:26:33: haben weitaus weniger
00:26:35: Daten über, sag ich mal,
00:26:37: jetzt farbige Menschen
00:26:39: und weiße Menschen haben sie
00:26:41: viel mehr Daten drüber.
00:26:43: Dementsprechend ist ein
00:26:45: Aufkommen einer Kriminalität
00:26:47: in der Gruppe, wo ich viele Daten
00:26:49: von habe, gegenüber der Gruppe, wo
00:26:51: ich wenig Daten von habe, auch schon
00:26:53: ein Bias. Und die KI
00:26:55: ist quasi automatisch
00:26:57: aufgrund ihrer statistischen Bemessungen,
00:27:00: die sie durchführt und
00:27:01: Analysen, die sie durchführt, geneigt
00:27:03: zu sagen, naja, Moment, in der Gruppe
00:27:05: mit den farbigen Menschen,
00:27:07: mit den andersfarbigen Menschen als den weißen,
00:27:09: wovon ich viel weniger Daten habe, ist das
00:27:11: Aufkommen von Kriminalität viel höher.
00:27:13: Ja, im Verhältnis stimmt das.
00:27:15: Die Frage ist ja, welche Statistik ich
00:27:17: abbilde, um zu ermitteln,
00:27:19: wer, was bedeutet
00:27:21: denn Straftat dann quasi? Weißt du, was ich meine?
00:27:24: Nee, weiß ich nicht.
00:27:25: Also eine Straftat ist das, was
00:27:26: im Gesetz steht, dass es eine Straftat ist.
00:27:29: Also, und auch, wir reden
00:27:31: ja auch nicht über eine Statistik. Mich interessiert die
00:27:33: Statistik eigentlich am Ende,
00:27:34: von der KI soll ja keine Statistik generiert werden, vielleicht
00:27:36: passiert das. Nein, nein, die KI arbeitet
00:27:39: statistisch. Das Einzige, was KI tut...
00:27:41: Das ist Statistik. Ja, das sagst du
00:27:43: und alle anderen auch, aber ich sage,
00:27:45: das muss man gar nicht erwähnen, denn der
00:27:47: Mensch arbeitet auch statistisch. Und das
00:27:49: ist alles Statistik, sage ich.
00:27:51: Es geht halt darum, möglichst viele Beispiele zu
00:27:53: sehen, damit man möglichst gut trainiert ist.
00:27:55: Als Mensch übrigens auch. Ich sehe
00:27:57: halt mehr Menschen mit heller Hautfarbe in
00:27:59: meinem Leben. Ja, hier im Ort leben halt nur
00:28:01: hellhäutige Menschen, da kann ich auch nichts dran ändern.
00:28:03: Mit ganz minimalen Ausnahmen.
00:28:05: Und mir fällt es halt auch leichter,
00:28:07: diese Menschen voneinander abzugrenzen
00:28:09: als dunkelhäutig. Es kann auch vielleicht am
00:28:11: Kontrast liegen, ja. Also ich weiß es nicht.
00:28:13: Aber das ist einfach so.
00:28:15: Es tut mir leid, es ist so. Und man
00:28:16: hatte es ja am Anfang auch gesagt.
00:28:19: Ich sage ja theoretisch,
00:28:21: wie es in der Praxis ist, ist eine andere Sache, aber
00:28:23: man muss natürlich dafür sorgen, dass
00:28:24: dieser Bias, den du zu Recht ansprichst,
00:28:27: nicht stattfindet.
00:28:29: Aber dann sehe ich ehrlich gesagt kein großes Problem.
00:28:32: Es wird kommen. Also es
00:28:33: wird kommen. Wir haben zu wenig Polizisten
00:28:35: und zu viele Probleme, die gelöst werden.
00:28:37: Und ich meine, die Gesellschaft wird
00:28:39: immer rauer. Da werden Politiker,
00:28:41: Politiker verprügelt.
00:28:43: Am Ende will keiner mehr Politiker werden.
00:28:45: Dann leidet die Demokratie
00:28:47: noch viel mehr drunter als unter den Kameras.
00:28:49: Aber wir sind, glaube ich, einer Meinung,
00:28:51: um das jetzt am Schluss zu sagen,
00:28:53: so wie es gelaufen ist in Sachsen
00:28:55: und Berlin und auch mit dem Fraunhofer-Institut,
00:28:57: wie du es dargestellt hast, ist es absolut
00:28:59: nicht in Ordnung und so kann man das nicht machen.
00:29:01: Ja, da stimme ich dir auf jeden Fall voll zu.
00:29:03: Bei dem Thema der Trainingsdaten
00:29:05: sehe ich das vielleicht etwas anders.
00:29:07: Das kommt vielleicht auch dadurch, dass an der
00:29:09: Stelle meiner eigenes Wissen,
00:29:11: ein bisschen biased ist, weil ich natürlich auch
00:29:13: andere Informationen als Grundlage habe
00:29:15: als du. Von daher ist es auch okay, dass wir
00:29:17: das unterschiedlich betrachten und beleuchten.
00:29:20: Im Endeffekt
00:29:21: würde ich mal sagen,
00:29:23: heimliche Kamerasysteme sollten nicht
00:29:25: eingesetzt werden. Das sollte transparent
00:29:27: gemacht werden. Also am wichtigsten ist die
00:29:29: Transparenz, dass die Leute,
00:29:31: die da irgendwo auf so einem Platz sind,
00:29:33: wissen, okay, hier werde
00:29:35: ich so und so behandelt. Das ist das,
00:29:37: was mir hier passiert. Dann können sie diesem Platz
00:29:39: fernbleiben oder sie können sich vermummen
00:29:40: und wenn jemand fragt, wieso bist du da vermummt rumgelaufen
00:29:43: und sagen, naja, ihr filmt mich, ich habe keine Lust
00:29:45: drauf, dass ihr mich filmt, dann muss das
00:29:46: genauso fair sein, wie
00:29:49: dass jemand sagt, ich habe kein Problem damit,
00:29:51: dass ich gefilmt werde, weil
00:29:52: das ist ja nun mal auch so ein bisschen
00:29:55: Teil dieser Idee unserer
00:29:56: Datenschutzgrundverordnung, dass man da eben
00:29:58: freiwillig selbstständig bestimmen
00:30:01: kann, wie die eigenen
00:30:03: personenbezogene Daten genutzt werden.
00:30:05: Ich glaube, dann hätte die...
00:30:06: Du gehst doch nicht über den
00:30:09: Platz nicht, nur weil da steht,
00:30:10: dass es gefilmt wird. Also das macht doch kaum jemand,
00:30:12: vor allem Leute, die da noch nie waren.
00:30:14: Habe ich auch nicht gesagt.
00:30:15: Ich habe ja gesagt, du kannst dann die Entscheidung treffen,
00:30:18: ob du dir zum Beispiel eine Kapuze überziehst,
00:30:21: weil du das nicht möchtest,
00:30:22: dass dein Gesicht dort gescannt wird.
00:30:24: Und das muss dann genauso fair sein, wie derjenige,
00:30:26: der sagt, für mich ist das kein Problem.
00:30:28: Dann, finde ich, ist das absolut okay.
00:30:31: Aber wenn du aufgrund der Tatsache,
00:30:32: dass du mit einer Kapuze über deinem Kopf
00:30:34: über diesen Platz läufst und dabei gefilmt wirst,
00:30:37: dann als potenzieller Straftäter oder
00:30:38: Krimineller gilt es, weil du dich vermummst,
00:30:40: dann haben wir ein Problem. Und das ist genau
00:30:42: der Interpretationsteil, den ich auch gerade
00:30:45: meinte mit dem Bias der KI-Systeme.
00:30:47: Denn wer das Bildmaterial am Ende auswertet,
00:30:49: ist immer ein Mensch. Aber die Grundlage
00:30:51: zur Auswertung bestimmt darüber,
00:30:53: welchen Rückschluss ich führe.
00:30:55: Und das ist das riesige
00:30:57: Gefahrenpotenzial, was hinter einer
00:30:59: Bias-KI steckt, die mir in Sekunden
00:31:01: schnelle bestimmte Ergebnisse gibt, wo ich
00:31:03: als Mensch vielleicht wochenlang
00:31:05: mich hätte durchwühlen müssen und dadurch
00:31:06: ganz andere Einflüsse mit in meine
00:31:08: Bemessungsgrundlage und das Ergebnis,
00:31:10: meine Analyse einfließen, als eben
00:31:13: wenn es mir ein KI-System vorkaut
00:31:14: und sagt, naja, die Wahrscheinlichkeit sagt das.
00:31:17: Das ist das, was ich meinte mit dem
00:31:18: statistischen Verhalten.
00:31:21: Ja, wir sind ganz
00:31:22: überwiegend einer Meinung. Ich glaube, zusammen
00:31:24: könnten wir ein sehr gutes Gesetz bauen.
00:31:28: Ich würde es
00:31:29: hoffen, aber auf der anderen Seite macht
00:31:30: das, glaube ich, viel weniger Spaß, als sich darüber
00:31:32: zu unterhalten, was andere in die Gesetze bauen.
00:31:34: Ja, wobei, ich würde da schon gerne
00:31:36: was beitragen, ehrlich gesagt. Wir haben ja sehr gut
00:31:38: die Ideen entwickelt, jetzt wir zwei.
00:31:40: Du hast ja auch eine super coole Definition
00:31:42: von KI gebracht.
00:31:44: Da muss ich ganz ehrlich
00:31:46: sagen, wenn das, was wir
00:31:48: da diskutiert haben, damals in der anderen
00:31:50: Folge, da bin ich voll bei dir. Wenn das im
00:31:52: Gesetz drinstehen würde, fände ich das tausendmal besser,
00:31:54: als das, was jetzt tatsächlich drinsteht.
00:31:56: Weil wir dürfen ja nicht vergessen, das Ding ist ja gekommen.
00:31:58: Das Ding war ja da. Also das ist ja da.
00:32:01: Das, worüber wir
00:32:02: diskutiert haben, was eigentlich vielleicht
00:32:04: anders formuliert werden sollte.
00:32:06: Es ist halt in der Demokratie schwierig, eine
00:32:08: exakte Definition zu finden, weil eine Definition,
00:32:10: eine Definition lebt nicht von einer Mehrheitsmeinung.
00:32:12: Nee, meistens nicht.
00:32:14: Da hast du recht. Meistens ist das
00:32:16: definitiv nicht so. Ich will nicht sagen
00:32:18: nie, weil dann schließen wir wieder den
00:32:20: einen Einzelfall aus, der am Ende beweist, dass
00:32:22: wir Unrecht haben. Aber meistens ist das
00:32:24: auf jeden Fall nicht so.
00:32:27: Abschließend würde ich sagen,
00:32:28: können wir sagen, wir sind uns einig,
00:32:30: heimliche Sachen sollten nicht heimlich
00:32:32: sein. Transparenz ist das
00:32:34: Wichtige als Grundlage. Und
00:32:36: Leute, die im Nachgang
00:32:38: sagen, naja, wir müssen
00:32:40: das machen, weil sonst haben wir keine
00:32:42: anderen Möglichkeiten, sind auch immer
00:32:44: Leute, die quasi so ein bisschen den Umweg um
00:32:46: die Transparenz suchen, anstatt zu sagen,
00:32:48: hey, so genau haben wir das gemacht aus den und
00:32:50: den Gründen, was ja auch möglich wäre,
00:32:52: wenn es da nichts zu verbergen gäbe, was
00:32:54: vielleicht irgendwie nicht so schön ist.
00:32:56: Auf der anderen Seite kann es genauso gut sein,
00:32:58: dass sich die Leute einfach auch viel zu wenig
00:33:00: Gedanken im Vorhinein machen. Und erst
00:33:02: wenn dann einer kommt, der sich Gedanken gemacht hat
00:33:04: und sagt, hey Leute, wie läuft das eigentlich bei euch?
00:33:06: Die erstmal sagen, ja Moment,
00:33:08: wir haben ja einen Job, den wir machen müssen.
00:33:11: Aber es ist okay, wir gucken da jetzt
00:33:12: gemeinsam nach und dann können wir das anpassen.
00:33:14: Das sind ja auch Systeme, die häufig
00:33:16: oder Prozesse, die häufig
00:33:18: so ablaufen. Von daher denke
00:33:20: ich, es ist wichtig, dass wir darüber
00:33:22: diskutieren. Es ist wichtig, dass wir uns das
00:33:24: von mehreren Seiten betrachten.
00:33:26: Und es ist wichtig, dass wir am Ende des Tages
00:33:28: den Zweck, warum wir solche Technologien
00:33:30: einsetzen, eben auch immer im Blick
00:33:32: behalten und nicht aufgrund von
00:33:34: Möglichkeiten von Technologien dann selbstständig
00:33:36: da was machen.
00:33:38: Damit hast du alles Wichtige gesagt, finde ich
00:33:40: sehr gut.
00:33:42: Super cool. Dann würde ich sagen, danke ich dir vielmals
00:33:44: für das Gespräch. Ich habe wieder eine ganze Menge gelernt
00:33:46: und ich finde deinen Standpunkt auch sehr interessant,
00:33:48: auch wenn ich nicht in allen Teilen zustimmen konnte.
00:33:50: Aber ich glaube, wie du sagtest,
00:33:52: gemeinsam sind wir da
00:33:54: doch ziemlich auf derselben Wellenlänge.
00:33:57: Und ich hoffe, ihr da draußen
00:33:58: habt davon auch profitiert, dass wir
00:34:00: uns hier so ein bisschen darüber
00:34:02: ausgetauscht haben und könnt euch jetzt selber
00:34:04: vielleicht ein besseres Bild über
00:34:06: solche Dinge machen oder vielleicht
00:34:08: an anderen Stellen mitdiskutieren, auf
00:34:10: anderen Ebenen. Lieber Klaus,
00:34:12: vielen Dank von meiner Seite.
00:34:15: Deine abschließenden Worte
00:34:16: und dann sind wir auch durch für heute,
00:34:18: würde ich sagen. Ja, Stephan, aufgrund der
00:34:20: fortgeschrittenen Zeit würde ich sagen,
00:34:22: wir haben das Wichtigste herausgearbeitet
00:34:24: und ich denke, die
00:34:26: Kameraüberwachung mit KI-Unterstützung wird kommen
00:34:28: in der und der Form, hoffentlich in einer sehr guten
00:34:30: und dann sehen wir weiter.
00:34:34: In diesem Sinne,
00:34:35: macht's gut. Tschüss.
00:34:36: Tschüss.
00:34:38: Das war Datenschutz Deluxe.
00:34:40: Du willst mehr spannende Themen
00:34:42: oder Kontakt zu uns? Dann besuche
00:34:44: Klaus Meffert auf seinem Blog
00:34:46: Dr. DSGVO
00:34:47: und Stephan Plesnik auf seinem YouTube-Kanal
00:34:50: Datenschutz ist Pflicht.
00:34:52: Bis zum nächsten Mal.
Markus
‧