#26 Chatkontrolle: Nützlich oder Eingriff in die Privatsphäre?
Shownotes
Der Podcast rund um das Thema Datenschutz und IT. Mit Dr. Klaus Meffert und Stephan Plesnik.
26 Chatkontrolle: Nützlich oder Eingriff in die Privatsphäre?
Unter Chatkontrolle wird eine Überwachung der Kommunikation gewichtiger online Plattformen verstanden, um Straftäter besser identifizieren zu können. Das Vorhaben der EU wirft zahlreiche Fragezeichen auf, über die wir sprechen.
Dies und einiges mehr in der aktuellen Episode von Datenschutz Deluxe
Feedback geben? Fragen stellen? Gerne hier:
https://dr-dsgvo.de
Videokanal von Stephan: https://www.youtube.com/datenschutzistpflicht
Impressum:
https://dr-dsgvo.de/impressum
Transkript anzeigen
00:00:00: Datenschutz Deluxe, der Podcast rund um das Thema Datenschutz und IT mit Dr. Klaus Meffert und Stephan Plesnik.
00:00:12: Hallo und herzlich willkommen, liebe Zuhörer zum Datenschutz Deluxe Podcast.
00:00:16: Mein Name ist Stephan Plesnik und bei mir ist wie immer Dr. Klaus Meffert.
00:00:20: Klaus, ich begrüße dich. Wie geht es dir?
00:00:22: Ja, Stephan, mir geht es natürlich sehr gut.
00:00:24: Wir haben ja heute wieder unseren Podcast und da freue ich mich drauf.
00:00:27: Wunderbar, ich mich auch. Ich habe uns für heute ein spannendes Thema rausgesucht und möchte das mit einem Zitat einleiten von einem vielleicht doch relativ bekannten Menschen in unserer Gesellschaft, gerade wenn es um das Thema Technologie geht, und zwar von Gunter Dück.
00:00:41: Und der hat gesagt, Roboter, Computer und Algorithmen dienen nicht uns, wir dienen ihnen.
00:00:48: Sie haben uns permanent unter Kontrolle, messen alles, was wir tun und berechnen, wie sie noch mehr aus uns rausholen können.
00:00:56: Und das Thema, auf das ich damit hinaus möchte, ist diese ominös diskutierte Chatkontrolle.
00:01:03: Vielleicht ein kurzer Abriss, um alle Zuhörer abzuholen.
00:01:08: Es gibt einen Vorstoß in der EU-Kommission, also der gesetzgebenden Kraft in der EU, die Entwürfe vorlegt.
00:01:17: Und da steht der Entwurf im Raum, ein Gesetz zu schaffen, das die Aushöhlung von Verschlüsselungstechnologien in Messenger bzw. allen elektronischen Kommunikationsdiensten vorsieht, unter dem Vorwand bzw. der Aussage, dass man Kriminalität effektiver bekämpfen können muss und vor allen Dingen Kinderpornografie und Missbrauchsfälle mit Kindern, das sogenannte Cyber-Grooming, besser unter Kontrolle bringen kann.
00:01:46: Und dann gibt es dagegen Gegenbewegungen, die sagen, ja, diese sogenannte Chatkontrolle, weil jetzt Leute kontrollieren können, was in den Chats kommuniziert wird, auch wenn sie verschlüsselt sind, geht sehr weit über die Privatsphäre und Grundrechte unserer demokratischen Ordnung hinaus und dass das nicht erlaubt wäre.
00:02:04: So ist der aktuelle Stand der Dinge.
00:02:08: Dieser Gesetzesentwurf ist schon lange da. Ich weiß nicht selber, ich habe darüber mal ein Video, ich glaube, vor zwei Jahren oder so gemacht, seitdem das schon im Raum steht.
00:02:14: Aber es bewegt sich halt immer noch weiter in diese Richtung, dass man merkt, dass sehr viele Kräfte in der gesetzgebenden Fraktion auf EU-Ebene und auch auf nationaler Ebene, aktuell sind es ungefähr zehn EU-Staaten, die diesem Vorwurf permanent zustimmen, diese allumfassende Überwachung und Kontrolle unterzubringen.
00:02:32: Und deswegen dachte ich, wie ist eigentlich deine Einschätzung zu diesem Thema?
00:02:36: Also, wenn du darüber nachdenkst, was das jetzt bedeuten würde, wäre das da.
00:02:40: Gingen wir mal davon aus, wir würden wissen, die Regierungen könnten zu jeder Zeit, wenn sie wollen, ohne großartige Vorwände, die privaten Kommunikationen in Chats, aus Messengerdiensten, E-Mails und was weiß ich alles, was wir verschlüsseln, abgreifen.
00:02:56: Wie würde das sich für dich auswirken?
00:02:59: Also vielleicht erst noch mal zu deinem Zitat.
00:03:01: Also den Gunter Dück, den kenne ich von früher, vom Namen her.
00:03:04: Ich habe jetzt gerade eben nachgeschaut, aber das Buch habe ich auch schon vom Titel her in Erinnerung.
00:03:09: Omnisophie und so ein paar andere Titel hat er geschrieben, die alle so ein Kunstwort immer enthalten.
00:03:15: Da habe ich damals schon verfolgt.
00:03:18: Also der ist schon seit langem auf dem Markt und ist kein Unbekannter.
00:03:21: Dann vielleicht noch zu dem Inhalt des Zitates, also dass die Roboter uns sozusagen vorgeben, was wir tun.
00:03:27: Ich habe gestern zufällig, weil ich mich jetzt auch mit künstlicher Intelligenz noch tiefer beschäftige,
00:03:31: ich habe schon viele Jahre lang übrigens gemacht nebenbei und jetzt mache ich es halt noch mal intensiver,
00:03:35: weil das Thema wirklich jetzt ganz neue Möglichkeiten bietet, die vor allem der Programmierer zu schätzen weiß.
00:03:40: Ja.
00:03:41: Also was ich gestern gesehen habe, ist, dass es gibt so ein Spiel, das heißt StarCraft.
00:03:46: Das ist ein Spieler, treten beispielsweise zwei Spieler gegeneinander an.
00:03:50: Da gibt es ganze Ligen und diese Gaming-Szene ist ja so, dass die Spieler da viel Geld verdienen.
00:03:55: Und da hat jetzt DeepMind ein Computerprogramm, ein Agent trainiert, der gegen die weltbesten Spieler gewinnt.
00:04:04: Und zwar in fünf Partien, 5 zu 0.
00:04:07: Und damit es nicht so zufällig gegen den einen Spieler besonders gut ist und gegen den anderen schlecht,
00:04:11: haben sie mehrere Spieler genommen, gegen die dieses Programm angetreten ist.
00:04:15: Und das hat halt quasi das Maximum rausgeholt.
00:04:18: Und zuvor wurde es insgesamt nur sieben Tage trainiert, also sieben Tage lang.
00:04:22: Wow.
00:04:23: Das entspricht, hat der Entwickler gesagt, ungefähr 200 Jahren Spielzeit eines Menschen,
00:04:28: weil der Computer natürlich viel schneller ist.
00:04:30: Also 200 Jahre Erfahrung hat er da quasi gesammelt.
00:04:32: Ist natürlich nicht so intelligent wie der Mensch, logisch.
00:04:34: Aber logischerweise wollte ich gerade sagen, stimmt aber gar nicht, sondern nur aktuell logischerweise.
00:04:39: Dafür hat er halt auch ein bisschen mehr Erfahrung.
00:04:41: Und ich sage, wir haben also das menschliche Denken entschlüsselt mit den aktuellen Möglichkeiten.
00:04:45: Es gibt zahlreiche Belege dafür.
00:04:47: Aber jetzt zu dieser Chat-Kontrolle-Geschichte, da geht es ja eigentlich drum.
00:04:51: Ja, also es ist so, ich weiß jetzt auch nicht, wie der aktuelle Stand ist,
00:04:54: weil sich da dauernd irgendwas ändert.
00:04:55: Ich habe jetzt nur gelesen vor einem Tag, dass das wohl scheitern wird.
00:04:59: Beziehungsweise ist die Annahme, du sagtest ja auch, es gibt zehn EU-Länder,
00:05:04: die das noch unterstützen, ich glaube von 17 oder so.
00:05:07: Ja.
00:05:08: Aber zumindest sehe ich da auch große Probleme.
00:05:10: Also zum einen ist die Frage, was hat es denn für einen Nutzen?
00:05:13: Also das es einen Schaden anrichtet, da sind wir uns, glaube ich, einig.
00:05:16: Und ich sehe es wie du natürlich, wenn eine Regierung diese Daten hat, ist blöd.
00:05:20: Aber noch blöder finde ich es, wenn Unternehmen wie Facebook oder Meta
00:05:24: als Betreiber von WhatsApp oder Google diese Daten haben.
00:05:29: Weil da hätte ich viel mehr Angst davor, muss ich sagen.
00:05:31: Weil wenn die deutsche Bundesregierung die Daten hat,
00:05:34: dann kriegen die Amerikaner die Daten nicht so oft, sage ich mal.
00:05:36: Oder können sie nicht so oft abgreifen.
00:05:38: Man weiß nicht, was im Hintergrund passiert.
00:05:40: Aber die deutsche Bundesregierung kann mit diesen Daten nicht ganz so viel anfangen,
00:05:43: weil sie nicht weiß, wie sie diese Daten verarbeiten soll.
00:05:45: Ich vereinfache es jetzt mal, so ist es ja.
00:05:47: Google weiß sehr genau, wie sie Daten verarbeiten können.
00:05:49: Und sehr schnell und sehr effizient.
00:05:50: Und der amerikanische Geheimdienst weiß auch, wen sie bei Google fragen müssen,
00:05:53: wenn sie die Daten haben wollen.
00:05:55: Und du hast ja selbst gesagt, beim letzten Mal, Privacy Shield ist ja gekippt worden.
00:05:59: Ist also nie gültig gewesen, rückwirkend betrachtet.
00:06:01: Und deswegen können die Amerikaner natürlich beliebige Daten auch von uns abgreifen,
00:06:05: was sie schon immer gemacht haben.
00:06:07: Jetzt gibt es einen Mechanismus, der heißt, glaube ich, Client-Side-Scanning.
00:06:11: Damit soll auf deinem Endgerät, wenn du mir eine Nachricht schickst,
00:06:14: hoffentlich nicht per WhatsApp, weil WhatsApp ist ja wirklich datenschutzfeindlich.
00:06:17: Wir beide kommunizieren immer per SMS.
00:06:21: Aber selbst da könnte es sein, dass auf dem Endgerät sozusagen ein Scan stattfindet.
00:06:25: Das heißt, ob wir bestimmte Wörter verwenden, die auch Menschen verwenden,
00:06:30: die pädophil sind oder so was, oder Kinderpornografie teilen.
00:06:35: Und wenn diese Schlüsselworte erkannt werden,
00:06:37: oder vielleicht auch die Semantik der Kommunikation darauf hindeutet,
00:06:40: man kann ja auch mehr als Worte nur erkennen,
00:06:42: dann soll dieser Chat wohl ausgeleitet werden und geprüft werden.
00:06:46: Und da wird es unheimlich viele Fehlalarme geben.
00:06:49: Es geht ja auch bei Bildern schon los.
00:06:51: Wenn ich jetzt ein Kind habe, was drei Jahre alt ist,
00:06:53: habe ich nicht, aber nur als Beispiel oder zwei.
00:06:56: Und die sind ja üblicherweise nackt am Strand.
00:06:58: Also viele Kinder jedenfalls, sieht man ja öfter.
00:07:01: Dann schickt man sein Bild an seine Frau oder so von dem eigenen Kind.
00:07:05: Das ist ja wohl offensichtlich nicht verboten.
00:07:07: Und dann denkt es der Algorithmus,
00:07:08: da hat ja jemand ein Nacktfoto von einem Kind geschickt.
00:07:11: Also da müssen wir gleich mal gucken, was da los ist.
00:07:14: Ich meine, die Verbrecher sind ja auch nicht blöd.
00:07:17: Es gibt dann also 99 Prozent Fehlalarme
00:07:21: und vielleicht ein Prozent Sachen, wo man näher nachgucken muss.
00:07:24: Und du weißt ja vielleicht auch, ich habe es vor kurzem gelesen,
00:07:27: da gab es einen Fall, ich weiß gar nicht mehr, was es war.
00:07:30: Da hat ein Wachmann siebenmal den Alarm im Gefängnis,
00:07:32: ach so, im Gefängnis war es.
00:07:33: Da hat ein Wachmann siebenmal den Alarm weggedrückt,
00:07:36: weil das System zu sensibel eingestellt war.
00:07:38: Und beim achten Mal ist jemand ausgebrochen, am selben Abend.
00:07:42: Und ich meine, wenn natürlich der Alarm dauernd losgeht,
00:07:47: dann nimmt den keiner mehr ernst.
00:07:48: Ich meine, du kennst es vielleicht auch oder die Zuhörer,
00:07:51: wenn auf der Straße vom Auto die Alarmanlage losgeht.
00:07:54: Also ich kenne keinen einzigen Fall,
00:07:56: wo diese Alarmanlage zu Recht losgegangen ist.
00:07:58: Das heißt nicht, dass es nicht diese Fälle gibt,
00:08:00: nur die sind in der Unterzahl.
00:08:02: Jedes Mal, wenn die losgeht,
00:08:03: dann weil irgendwie jemand dagegen gerämpelt hat
00:08:06: oder der Besitzer vergessen hat, das Auto zu entriegeln.
00:08:09: Alte Autos vielleicht gehen auch noch eher los mit dem Alarm.
00:08:12: Und dann denkt jeder, ach, schon wieder dieser blöde Alarm.
00:08:14: Jetzt macht das Ding endlich aus.
00:08:15: Aber keiner denkt daran, dass da jetzt jemand einbrechen will.
00:08:17: Und ich meine, genauso wird es dann sein bei der Chatkontrolle,
00:08:20: dass es nur noch extremer ist.
00:08:22: Also man müsste da andere Möglichkeiten finden.
00:08:25: Wie die genau aussehen, weiß ich nicht.
00:08:28: Aber ich sage mal so,
00:08:29: der wirksamste Schutz ist überhaupt die Abschreckung.
00:08:31: Und da sind wir in Deutschland ganz extrem schlecht.
00:08:33: Ich kann auch nur aus eigener Erfahrung berichten,
00:08:36: die Gerichte, die scheren sich um Datenschutz
00:08:38: überhaupt nicht in Deutschland.
00:08:39: Die meisten, die ich kenne jedenfalls.
00:08:41: Es gibt ein paar Ausnahmen.
00:08:42: Und auch die Behörden sind ganz hinten.
00:08:44: Teilweise, weil sie nicht wollen.
00:08:45: Und teilweise, weil sie nicht können.
00:08:46: Und teilweise beides.
00:08:47: In Hessen sage ich beides.
00:08:49: Also sie wollen nicht und sie können nicht.
00:08:51: Das ist offiziell auch ausgesagt worden.
00:08:54: Die wollen gar nicht,
00:08:55: dass man vor die Behörde geht wegen der Beschwerde.
00:08:57: Sie wollen, dass man vor Gericht geht.
00:08:58: Sie machen auch nichts.
00:08:59: Ich habe jetzt die Tage wieder gehört,
00:09:01: einer, der sich gegen die Schufa beschwert hat,
00:09:03: hat nicht mal eine Antwort gekriegt.
00:09:04: Ich kann es bestätigen.
00:09:05: In Hessen kümmert man sich nicht bei der Datenschutzbehörde um Fälle.
00:09:08: Was kümmern heißt bei denen höchstens, man heftet sie ab.
00:09:12: Und dann geht man zu Gericht und das Gericht sagt,
00:09:15: geh doch zur Behörde.
00:09:16: Ich komme mir manchmal wie ein Idiot vor,
00:09:18: der verblödet wird.
00:09:20: Ja, du hast das Recht,
00:09:22: dass deine Daten nicht rechtswidrig verarbeitet werden.
00:09:24: Aber wenn es passiert, hast du Pech gehabt.
00:09:26: Das ist doch asozial.
00:09:27: Da muss ich mich wirklich jetzt mal aufregen kurz.
00:09:29: Das hat nichts mehr mit Rechtsstaat zu tun.
00:09:31: Und das sollte man doch mal nach vorne bringen.
00:09:34: Wenn nämlich die Abschreckung da ist,
00:09:36: dann gibt es mindestens 50% weniger Verbrecher in Deutschland,
00:09:39: weil sie nämlich alle Angst haben, dass was passiert.
00:09:41: Aber wenn alle drüber lachen, dass nichts passiert,
00:09:43: dann ist es vollkommen egal,
00:09:44: was für Prüfmechanismen ich habe,
00:09:46: wenn am Ende sowieso nichts bei rauskommt.
00:09:48: Also da sollte man zuerst mal ansetzen.
00:09:50: Danach kann man über die Prüfmechanismen nachdenken.
00:09:53: Ja, das finde ich sehr gut, wie du das sagst.
00:09:56: Und das Aufregen finde ich auch durchaus berechtigt,
00:09:59: weil wofür hat man eine Gesetzgebung,
00:10:01: wenn diese dann einem nicht auch das Recht zusteht,
00:10:03: dass man durch sie eigentlich bekommen soll.
00:10:05: Bei der Chatkontrolle, was du jetzt gerade ansprachst,
00:10:08: ich sehe das auch sehr problematisch an der Stelle,
00:10:11: dass ich es bisher immer nur so erlebt habe,
00:10:13: dass wir Menschen, wann immer eine Technologie uns angeblich hilft,
00:10:17: in irgendeiner Sache irgendetwas schneller zu machen, besser zu machen,
00:10:20: dass das dafür sorgt,
00:10:22: dass wir versuchen, noch weniger fleißig zu sein.
00:10:25: Und gerade bei diesen Algorithmen,
00:10:27: die dann Vorauswahlen treffen und so weiter,
00:10:29: ist quasi vorprogrammiert,
00:10:31: dass es dazu führt, dass die Leute,
00:10:33: die diesen Job in der wirklichen Überwachung
00:10:36: der falschen Verhaltensweisen,
00:10:38: der nicht gewünschten Verhaltensweisen,
00:10:40: noch weniger ernst nehmen,
00:10:42: weil sie sich immer mehr darauf verlassen,
00:10:44: dass so ein Alarm ja automatisch irgendwas ermittelt.
00:10:46: Und ich glaube, es würde auch eher darauf hinauslaufen,
00:10:49: gerade weil dieser Vorschlag,
00:10:51: das ist alleine wahrscheinlich der irrsinnigste Vorschlag,
00:10:53: den ich jemals gehört habe,
00:10:55: dass die Regierung dann direkt im selben Atemzug sagt,
00:10:57: ja, wir möchten dann aber bitte, wenn das passiert,
00:10:59: dass die Unternehmen das selbstständig machen.
00:11:02: Also das sollen nicht Polizeibehörden oder so tun,
00:11:04: sondern die sollen die Vorauswahl treffen.
00:11:06: Und jetzt reden wir über Unternehmen der Privatwirtschaft,
00:11:10: die schon jetzt statusaktuell so viel Macht haben
00:11:13: wie zum Beispiel Facebook, also der Metakonzern,
00:11:15: die in bestimmten Ländern omnipräsent für das Internet stehen,
00:11:19: weil die Leute halt alle Zugang zu Facebook haben,
00:11:22: aber sonst keinen Internetzugang.
00:11:24: Diese Leute werden extrem stark in ihren Meinungen beeinflusst
00:11:28: durch die Inhalte, die der Facebook-Algorithmus denen gezielt ausspült.
00:11:32: Und wenn ich dann davon ausgehe,
00:11:34: dass dieses Unternehmen jetzt damit betraut werden soll,
00:11:37: etwas Rechtliches, Kriminelles aufzudecken,
00:11:40: dann sollte ich vielleicht erst mal darüber nachdenken als Regierung,
00:11:43: ob ich das nicht an die Mafia übergebe,
00:11:46: weil bei denen bin ich mir wenigstens sicher,
00:11:48: dass die organisiertes Verbrechen gerne betreiben und das zugeben.
00:11:52: Im Endeffekt denken wir mal über das nach,
00:11:54: was Facebook und Meta und Google machen.
00:11:56: Das ist organisiertes Verbrechen, anders kann man das nicht nennen.
00:11:59: Die verstoßen ganz bewusst gegen Rechtskonstrukte, das sogar weltweit.
00:12:03: Und wenn sie dafür angeklagt werden und in Ausschüssen befragt werden,
00:12:08: winden sie sich da raus,
00:12:10: als wenn sie überhaupt keine Chance hätten, darauf Einfluss zu nehmen,
00:12:13: weil das sei ja der Algorithmus und die Technik und so weiter.
00:12:16: Dann muss ich ganz ehrlich sagen,
00:12:18: wer hält sich denn einen Handwerker ins Haus und bezahlt dem Geld,
00:12:21: wenn der sich an den kaputten Siphon begibt und sagt,
00:12:23: ich weiß nicht, der Schraubschlüssel macht jetzt nichts von selbst.
00:12:26: Da bin ich mir nicht so sicher, was ich jetzt tun soll.
00:12:29: Da muss man mal überlegen, wofür der Schraubschlüssel da ist.
00:12:32: Weil das ist ja die argumentative Grundlage.
00:12:34: Und das finde ich doch sehr, sehr gefährlich.
00:12:37: Ja, also nicht damit manche Zuhörer meinen,
00:12:40: weil sie nicht auf Facebook wären, hätten sie kein Problem.
00:12:43: Es ist natürlich so, fast jeder hat ja ein Smartphone.
00:12:46: Es gibt Android-Smartphones, die sind von Google üblicherweise.
00:12:49: Ich habe auch eins, was entgoogelt ist, aber normalerweise ist Google drauf.
00:12:52: Sobald ich in diesem Suchfeld,
00:12:55: was man ja auch mit einer Spracheingabe bedienen kann,
00:12:58: indem man einfach ins Handy reinspricht, eine Suchanfrage schickt,
00:13:01: wird das natürlich mit der Chat-Kontrolle auch durchsucht.
00:13:03: Und wenn ich da irgendwas suche, zum Beispiel,
00:13:06: hilft die Chat-Kontrolle wirksam gegen Kinderpornografie?
00:13:09: Dann habe ich ja schon das Wort Kinderpornografie verwendet.
00:13:12: Ob der Algorithmus dann anschlägt oder nicht, weiß ich nicht.
00:13:14: Aber die Wahrscheinlichkeit ist zumindest höher als 10 %, würde ich jetzt mal sagen.
00:13:18: Oder höher als 50 vielleicht sogar.
00:13:20: Das heißt, meine Nachricht wird dann ausgeleitet zu Google.
00:13:23: Die wissen dann übrigens, falls sie sich nicht für meine Straftaten interessieren,
00:13:26: falls ich auch nicht mal welche begehe, ist auch egal.
00:13:28: Aber dann wissen die zumindest mal, dass ich mich für dieses Thema interessiere
00:13:31: und können mir dann noch zielgerichteter Werbung geben.
00:13:33: Und Werbung ist eine Manipulation des Menschen.
00:13:36: Das muss man mal so sehen.
00:13:38: Und manipulieren kann man auch ein, wenn es um Wahlen zum Beispiel geht usw.
00:13:41: Das nutzen ja manche Unternehmen, die die Google-Werbeplattform nutzen.
00:13:44: Und bei Apple ist es genauso mit dem iPhone.
00:13:46: Und bei Microsoft mit Windows ist es genauso.
00:13:49: Die haben alle, müssen die dann diese Chat-Kontrolle,
00:13:51: wenn sie diese Dienste haben, die eine Art soziale Medien sind
00:13:54: oder vielleicht auch Suchanfragen, könnten ja da auch drunter fallen,
00:13:56: muss man sich anschauen, dann überwachen.
00:14:00: Und da bin ich mal gespannt, wer da nicht im Raster drin ist.
00:14:03: Das sind wir alle. Und wie du sagst, der Staat muss es irgendwie selbst machen.
00:14:06: Ein privates Unternehmen, nur weil es zufällig eine Milliarde Nutzer hat
00:14:10: oder 500 Millionen oder 50, was die Grenze auch immer ist,
00:14:14: zu beauftragen, das ist asozial.
00:14:17: Der Staat soll gefälligst seine Hausaufgaben machen
00:14:19: und er soll gefälligst die Abschreckungskulisse so hochhalten.
00:14:23: Dann hat man auch weniger zu tun.
00:14:24: Das ist ja auch das Argument, was ich den Behörden einfach nicht abnehme und vorhalte.
00:14:28: Die hessische Datenschutzbehörde sagt ja, also durch einen Vertreter,
00:14:31: der öfter mal beim Erfahrungskreis ist,
00:14:33: ja, wenn ich jetzt eine Facebook-Fanpage verbiete,
00:14:37: dann müsste ich ja das ganze Internet lahmlegen.
00:14:40: Das ist vollkommener Unsinn und das ist einfach nur Arbeitsverweigerung,
00:14:43: dass es noch nicht passiert ist.
00:14:46: Wenn nämlich ein, zwei oder drei Fälle dieser Art rauskommen,
00:14:49: dann wird man mal sehen, wie viele Leute sich überlegen,
00:14:52: ob sie wirklich Facebook-Fanpages brauchen,
00:14:55: Unternehmensseiten vor allem oder Organisationen.
00:14:58: Und dann merken sie, ach nee, der Nutzen ist ja minimal
00:15:00: oder ich habe da schon seit zwei Monaten nichts mehr gemacht.
00:15:02: Ich melde mich jetzt mal ab.
00:15:03: Dadurch wird natürlich auch das Beschwerdeaufkommen geringer bei der Behörde.
00:15:07: Weil nämlich die, die es nicht mehr brauchen,
00:15:09: einfach rausgehen aus diesem asozialen Medium.
00:15:11: Das muss man einfach mal wissen.
00:15:12: Und dass die Behörden diese Weigerung haben,
00:15:14: das regt mich wirklich unendlich auf.
00:15:16: Ich kenne den einen hessischen Behördenvertreter
00:15:18: vom mehrmaligen Sehen und Befragen.
00:15:19: Der redet jedes Mal von seiner Pension,
00:15:21: die noch sieben Jahre vor ihm steht.
00:15:23: So ungefähr, wir sollen ihn jetzt nicht mit irgendwelchen Fragen belästigen.
00:15:26: In ein paar Jahren geht er doch in Pension
00:15:29: und er möchte jetzt so ungefähr zwischen den Zeilen
00:15:31: nicht so ein aufregendes Leben bis dahin führen.
00:15:33: Das finde ich einfach nur asozial.
00:15:35: Der Mann, der soll sein Gehalt zurückgeben
00:15:37: und am besten irgendwas anderes machen, wo er niemandem schadet.
00:15:40: Ja, absolut. Das sehe ich genauso wie du.
00:15:42: Wer seine Arbeit verweigert
00:15:44: und das in einer verantwortungsvollen Position,
00:15:46: wo man Entscheidungen trifft,
00:15:48: der ist de facto einfach vollkommen ungeeignet.
00:15:50: Der muss da weg.
00:15:51: Der muss ersetzt werden durch eine Person,
00:15:53: die eben die Verantwortung in dieser Position übernehmen möchte.
00:15:56: Wenn ich jetzt mal zurück zu der Chatkontrolle komme,
00:15:59: vielleicht, um das so ein bisschen ins Bild zu setzen.
00:16:01: Es gab da ja sogar schon Mechanismen, die gemacht wurden.
00:16:04: Für alle, die das nicht wissen,
00:16:06: Apple war da ein großer Vorreiter.
00:16:08: Die haben das geprägt durch diese sogenannte CSAM-Affäre,
00:16:11: wie sie jetzt heißt oder Skandal, wie es jetzt heißt.
00:16:14: Und zwar ging es dabei wirklich,
00:16:16: CSAM ist ein Akronym für die englische Bezeichnung
00:16:19: Child Abuse Sexual Molestation Policy, irgendwie sowas.
00:16:26: Also irgendwas, was mit Kindesmissbrauch zu tun hat
00:16:29: oder der Anbahnung von Kindesmissbrauch.
00:16:31: Darunter hat Apple dann einen Algorithmus vorgestellt,
00:16:34: der das schon ermöglicht hat.
00:16:36: Also wo kleinseitig auf dem Gerät der Endnutzer,
00:16:39: in dem Moment, wo ein Bild gemacht wurde,
00:16:41: dieses Bild verschlüsselt wurde,
00:16:43: an die Cloud-Server von Apple übertragen wurde.
00:16:46: Ohne, dass man darauf Einfluss nehmen konnte,
00:16:49: wurde dieses Bild dann mit einer riesigen Datenbank von Bildern,
00:16:54: die Kindesmissbrauch oder Kinderpornografie darstellen, abgeglichen.
00:17:01: Und dann wurde ein Befehl an das Telefon zurückgegeben,
00:17:04: sodass der Nutzer wusste,
00:17:06: bevor er die Nachricht an die Person,
00:17:08: die die eigentlich erhalten sollte, gesendet hatte,
00:17:11: ob er das lieber lassen sollte.
00:17:13: Das heißt, ich als Nutzer habe ein Foto,
00:17:15: wie du gerade beschrieben hast,
00:17:17: ich habe ein Foto von meinem Kind gemacht
00:17:19: und das Kind ist darauf halbnackt abgebildet,
00:17:21: weil es halt Sommer ist, zum Beispiel.
00:17:23: Jetzt wird das abgeglichen mit dieser Datenbank
00:17:25: und dann findet dieser Algorithmus heraus,
00:17:27: oh, das Kind ist ja halbnackt
00:17:29: und interessiert sich ja, wie gesagt,
00:17:31: nicht dafür, wem ich das senden möchte,
00:17:33: hat aber dafür dieses Bild erst mal an Apple übertragen
00:17:36: und mit dieser Datenbank abgeglichen.
00:17:38: Das heißt, dieses Bild ist jetzt auch in dieser Datenbank drin
00:17:40: und wird natürlich wieder als neuer Trainingssatz,
00:17:42: weil es ja falsch positiv bewertet wurde, genutzt.
00:17:45: Und dadurch wurde dieses Feld,
00:17:48: das hat ein Algorithmusanalyst bei Apple selbst,
00:17:52: der dann gesagt hat, ich steige hier aus,
00:17:54: also ich mache diesem Projekt nicht mehr weiter mit,
00:17:56: daraufhin ist er entlassen worden,
00:17:58: hat dann einen Blogartikel veröffentlicht
00:18:01: dass der Fokus des Findens
00:18:03: eines wirklichen Kinderpornografie-Files
00:18:06: von einem relativ hohem, akkuraten Maß
00:18:11: am Beginn, wo sie wirklich eine Datenbank hatten,
00:18:14: die wirklich Pornografie dargestellt hat
00:18:16: und Belästigungsfälle und Missbrauchsfälle
00:18:18: hin zu ein Kind hat ein T-Shirt nicht an
00:18:22: erweitert wurde.
00:18:24: Das heißt, ab dem Moment wurden dann alle Eltern
00:18:27: oder wären dann alle Eltern
00:18:29: im Versenden einer Nachricht, wo das Kind
00:18:31: kein T-Shirt trägt,
00:18:33: an den Ehepartner, an irgendwelche Leute
00:18:35: im Familienchat hingewiesen worden,
00:18:38: dass das eine potenzielle Straftat sein könnte
00:18:42: oder als solche eingestuft wurde.
00:18:43: Wie gesagt, das passiert alles vollautomatisch.
00:18:45: Da hat kein Mensch einmal nur drüber nachgedacht
00:18:48: oder irgendwie die Nase dran gekriegt.
00:18:50: Und ich finde, dieses Beispiel zeigt doch schon,
00:18:53: es geht überhaupt nicht bei diesem Vorschlag darum,
00:18:57: irgendwen zu schützen.
00:18:59: Es geht darum, dass die Regierung
00:19:01: besser überwachen kann,
00:19:03: weil sie eben diese Überwachungsleistung,
00:19:05: wie du richtig gesagt hast,
00:19:07: in den letzten Jahrzehnten so stark
00:19:09: vernachlässigt und verpennt hat,
00:19:11: dass sie jetzt Angst hat,
00:19:13: dass Google und Facebook ihnen den Rang
00:19:15: als Regierung ablaufen,
00:19:17: weil sie eben das alles wissen,
00:19:19: weil sie uns eben so stark manipulieren können.
00:19:23: Ich glaube, das ist der Punkt, der wichtig ist.
00:19:26: Durch die neuen Möglichkeiten heute,
00:19:28: wenn ich jetzt Verbrecher wäre
00:19:29: und möchte gerne weiter Kinderpornografie
00:19:31: im Internet betreiben,
00:19:33: dann nehme ich künstliche Intelligenz
00:19:36: und generiere ganz viele Bilder,
00:19:38: die ein Algorithmus dann
00:19:40: für mögliche Kinderpornografie einstufen würde.
00:19:44: Ich kann mir tausende
00:19:46: und die schicke ich dann einfach rum
00:19:48: und dann gibt es jedes Mal einen Fehlalarm.
00:19:49: Und wie beim Auto,
00:19:50: wo die Alarmanlage losgeht,
00:19:52: ohne dass irgendwas passiert ist,
00:19:53: irgendwann bricht das System dann zusammen,
00:19:56: weil keiner mehr diese ganzen Fälle kontrollieren kann.
00:19:58: Man kann einfach bestimmte Dinge nicht regulieren.
00:20:01: Das muss man einfach einsehen.
00:20:03: Und deswegen bleibe ich dabei,
00:20:05: nur die Abschreckung
00:20:06: und natürlich wirksame Strafverfolgung,
00:20:08: das gehört natürlich auch dazu,
00:20:09: die helfen.
00:20:10: Man kann bestimmte Dinge verbieten vielleicht,
00:20:12: wenn Systeme zu anonym sind möglicherweise,
00:20:15: sodass nur Verbrecher davon wirklich profitieren,
00:20:18: kann man darüber nachdenken.
00:20:19: Aber grundsätzlich bringt es nichts,
00:20:22: diese Vorabkontrolle zu machen.
00:20:25: Mit dieser Regulierung,
00:20:26: wird ja auch bei KI drüber geredet.
00:20:27: Ich will es nicht abgleiten,
00:20:28: aber bei Chatkontrolle ist es das Gleiche.
00:20:30: Man kann technische Systeme
00:20:33: oder Algorithmen nicht regulieren,
00:20:35: die schon öffentliches Gut sind quasi.
00:20:37: Oder die man einfach,
00:20:38: die jeder zweite talentierte Programmierer
00:20:41: nachprogrammieren kann.
00:20:43: Also ich kann bestimmte Dinge einfach
00:20:45: nicht mehr regulieren,
00:20:47: die schon bekannt sind.
00:20:48: Ich kann auch die Elektrizität nicht mehr regulieren,
00:20:50: weil jeder weiß,
00:20:51: übertrieben gesagt jeder,
00:20:52: wie man elektrischen Strom erzeugt.
00:20:55: Wenn ich das verbieten wollte,
00:20:56: da müsste ich jeden einzelnen,
00:20:58: jeden Tag kontrollieren
00:20:59: und das kann ich einfach nicht.
00:21:00: Deswegen die deutschen Gesetzgeber,
00:21:02: deutschen Gerichte und Behörden
00:21:04: sollen endlich mal anfangen,
00:21:06: unsere Datenschutzgesetze umzusetzen.
00:21:08: Und da sind wir nämlich dann auch sehr schnell
00:21:10: bei einer Teillösung des Chatproblems.
00:21:12: Hat zwar nicht nur mit Datenschutz zu tun,
00:21:14: sondern auch mit Straftaten,
00:21:17: weil Kinderpornografie ist ja jetzt kein Datenschutzproblem
00:21:20: in erster Linie,
00:21:21: aber auch ein bisschen.
00:21:23: Aber so hätte man doch einige Probleme
00:21:25: auf einmal gelöst.
00:21:26: Da sollen endlich diese wirklich trägen Behörden,
00:21:28: ich will jetzt gar nicht alle meinen,
00:21:30: aber im Ergebnis sind es alle,
00:21:32: sogar Baden-Württemberg,
00:21:34: die wesentlich mehr machen als Hessen,
00:21:36: muss ich sagen,
00:21:37: aber die einfach auch keinerlei Bußgelde
00:21:39: für Internetverstöße vergeben haben.
00:21:41: Bisher jedenfalls nicht,
00:21:42: was Webtracking angeht.
00:21:43: Ein millionenfach jeden Tag stattfindender Verstoß
00:21:46: in Deutschland.
00:21:47: Keine einzige Behörde in Deutschland
00:21:49: hat ein einziges Bußgeld deswegen verhängt.
00:21:51: Ich kenne zumindest keins
00:21:52: und ich frage jeden Behördenvertreter
00:21:54: von jedem Bundesland,
00:21:55: ob das stimmt, was ich da behaupte
00:21:57: oder ob er mir ein Gegenbeispiel sagen kann.
00:21:59: Er muss ja nicht mal konkret werden.
00:22:00: Keiner hat mir bisher widersprochen.
00:22:02: Es würde schon reichen,
00:22:03: wenn mir ein Behördenvertreter sagt,
00:22:05: ja, wir haben schon ein Bußgeld
00:22:06: wegen Webtracking erlassen.
00:22:08: Ich darf nicht drüber reden,
00:22:09: weil es ja, okay,
00:22:10: aber diesen Fall gab es noch nicht.
00:22:12: Ich finde das einfach eine Unverschämtheit.
00:22:14: Wir können die auch einfach abschaffen,
00:22:16: dann sparen wir wenigstens Steuergelder
00:22:18: und die Gerichte, die Deutschen,
00:22:19: die sollten endlich mal die DSGVO durchlesen
00:22:22: und die sollten endlich mal verstehen,
00:22:24: dass europäisches Recht vor deutschem Recht geht,
00:22:27: außer das deutsche ist strenger.
00:22:29: Aber was wird gemacht?
00:22:31: Das deutsche Recht wird genommen,
00:22:32: was wesentlich weniger streng ist als europäische
00:22:34: und dann wird gesagt,
00:22:35: ne, sie haben gar keinen Unterlassungsanspruch dagegen,
00:22:39: dass jemand anders ihre Daten misshandelt.
00:22:41: Da müssen sie zur Behörde gehen.
00:22:43: Ich fühle mich hier langsam ein bisschen veralbert
00:22:45: in Deutschland, muss ich sagen.
00:22:46: Und bei der Chatkontrolle,
00:22:47: jetzt wird man auch noch aus Europa veralbert,
00:22:49: jedes Mal muss man dann vor den Europäischen Gerichtshof ziehen
00:22:52: oder irgendjemand.
00:22:53: Das dauert dann drei Jahre
00:22:54: und der Europäische Gerichtshof,
00:22:55: ich habe es heute wieder gelesen,
00:22:56: stellt das fest,
00:22:57: was logisches Allgemeingut ist,
00:22:59: wo jeder sagen würde,
00:23:00: ihr Blödmänner,
00:23:01: das hättet ihr drei Jahre früher auch schon haben können.
00:23:03: Und ich habe es heute als Beispiel.
00:23:05: Eine gemeinsame Verantwortlichkeit liegt auch dann vor,
00:23:09: wenn keine Vereinbarung
00:23:11: zur gemeinsamen Verantwortlichkeit getroffen wurde.
00:23:14: Ist ja auch logisch,
00:23:15: wenn zwei Menschen einen dritten umbringen,
00:23:17: dann sind beide verantwortlich dafür,
00:23:19: unabhängig davon,
00:23:20: ob sie sich abgestimmt haben oder nicht
00:23:21: oder einen Vertrag geschlossen haben deswegen oder nicht.
00:23:24: Also das ist doch logisch.
00:23:25: Ich meine, da muss man doch jetzt nicht
00:23:27: vor den Europäischen Gerichtshof gehen.
00:23:28: Das hätte doch mal ein deutsches Gericht auch entscheiden können.
00:23:30: So was regt mich auf.
00:23:32: Wir haben einfach keine wirksamen Rechte in Deutschland,
00:23:36: keinen Rechtsbehelf.
00:23:37: Wir haben Rechte, aber keinen Rechtsbehelf.
00:23:39: Und das ist einfach unerträglich.
00:23:40: Und da sollte schleunigst mal was passieren.
00:23:42: Und das wichtigste Problem,
00:23:43: die Bürokratie sollte als allererstes entschärft werden.
00:23:46: Denn wenn alles so lange dauert,
00:23:48: dann hat keiner mehr Lust, irgendwas zu machen.
00:23:50: Auch irgendwann hat keiner mehr Lust, ein Haus zu bauen.
00:23:52: Bei den Windkraftanlagen sieht man es ja.
00:23:54: Zehn Jahre Genehmigungsverfahren wird ja jetzt angegangen.
00:23:56: Aber beim Hausbau habe ich noch nicht gehört,
00:23:58: dass es beschleunigt werden soll.
00:24:00: Ich habe diese blöden Bauanträge.
00:24:02: Was das für eine jahrelange ...
00:24:03: Und dann sitzt jemand bei der Behörde,
00:24:04: der ist überbeschäftigt oder meint, er hat keine Zeit.
00:24:07: Und schon muss man zwei Jahre warten,
00:24:08: bis man sein Haus bauen darf.
00:24:10: Ja, das ist doch ... Was soll das denn?
00:24:11: Also, dann können wir es ja auch gleich sein lassen.
00:24:14: Vor allen Dingen, wenn man sich das jetzt überlegt,
00:24:17: wie viele Menschen, wie viele hunderte Menschen
00:24:20: an diesem Prozess zu so einer Gesetzgebung
00:24:22: bei der EU-Kommission beteiligt sind.
00:24:25: Man macht sich ja kein Bild davon.
00:24:27: Das sind ja nicht nur ein paar Abgeordnete,
00:24:29: die sich dann zwischendurch mal treffen
00:24:30: und da ein bisschen was aufschreiben.
00:24:31: Die haben Büros, wo Menschen beschäftigt sind,
00:24:33: die diese Entwürfe ausarbeiten und bla, bla, bla, bla, bla.
00:24:36: Die Protokolle führen und alles Mögliche.
00:24:38: Das sind alles Leute, die bezahlt werden.
00:24:40: Und diese Leute werden für diese Vorgänge
00:24:42: über Jahre hinweg bezahlt,
00:24:44: nur weil sich dort ein paar Menschen
00:24:46: in einer angeblichen Entscheidungsposition befinden,
00:24:49: die der Meinung sind, ihr dummes Hirn,
00:24:52: das nicht begreifen kann, worüber entschieden wird,
00:24:55: sei wichtiger und ihre Meinung sei substanzieller
00:24:59: als Logik, die im Rechtsstaat sowieso schon implementiert ist.
00:25:04: Und das, finde ich, ist halt unglaublich präzise
00:25:07: und bezeichnend für alle Vorgänge um das Thema
00:25:10: Umgang mit der digitalen Identität.
00:25:12: Weil ja selbst die Polizeibehörden
00:25:16: nehmen Internetverbrechen
00:25:18: überhaupt nicht so ernst wie reale Verbrechen.
00:25:21: Dabei ist das doch dasselbe,
00:25:23: weil am Ende des Tages spielt es doch keine Rolle,
00:25:25: ob mich jemand auf der Straße beleidigt
00:25:27: oder mir per Facebook eine Beleidigung schickt.
00:25:29: Eine Beleidigung ist eine Beleidigung
00:25:31: und die hat er zu unterlassen.
00:25:33: Das ist sogar noch schlimmer,
00:25:34: weil auf Facebook sehen es nämlich viel mehr Leute
00:25:37: als auf der Straße.
00:25:38: Auf der Straße ist nur meine Seele geschädigt.
00:25:40: Auf Facebook können alle, die mich kennen, das sehen
00:25:43: und auch andere noch,
00:25:44: die mich dann vielleicht gar nicht mehr kennenlernen wollen.
00:25:46: Die machen sich dann lustig.
00:25:48: Also wie du sagst,
00:25:49: diese Verstöße werden nicht ernst genommen.
00:25:51: Wie Angela Merkel sagt,
00:25:52: Internet ist Neuland für uns
00:25:54: und in diesem Zeitalter leben wir noch.
00:25:56: Das hat sie ja vor ein paar Jahren gesagt.
00:25:57: Ja, das ist extrem traurig.
00:25:59: Man kann von Angela Merkel halten, was man will.
00:26:01: Sie hat bestimmt auch viele positive Eigenschaften
00:26:03: und ich bin auch mit einigen sehr einverstanden,
00:26:05: was sie gemacht hat.
00:26:06: Aber ganz ehrlich,
00:26:07: sie war einfach die komplett Falsche in dieser Zeit,
00:26:09: inklusive der kompletten Regierung,
00:26:11: was das Internet angeht.
00:26:13: Deswegen liegen wir jetzt, wie du sagst, Jahrzehnte zurück.
00:26:16: Das wird unsere Zukunft nachhaltig negativ beeinflussen,
00:26:19: dass diese Regierung einfach nichts hinbekommen hat,
00:26:22: was Internet angeht.
00:26:23: Das wichtigste Wirtschaftsfaktor ist das Internet.
00:26:26: Ich glaube, das hat noch keiner verstanden.
00:26:28: Und auch wie du sagst,
00:26:29: Internetverstöße sind halt Verstöße.
00:26:31: Das Gericht hat sich nicht damit zu beschäftigen,
00:26:33: ob das jetzt das Gleiche oder nicht ist wie was anderes.
00:26:36: Die haben gefälligst das europäische Recht anzuwenden
00:26:38: beim Datenschutz.
00:26:39: Und dann kommen sie auch zum Ergebnis,
00:26:41: was für den Betroffenen gut ist.
00:26:42: Stattdessen wird alles wegdiskutiert und wegargumentiert.
00:26:45: Also wir könnten uns da noch Stunden drüber aufregen.
00:26:47: Ich sage es nochmal,
00:26:49: Sanktionierung
00:26:51: und Abschreckung sind die wirksamsten Mechanismen.
00:26:54: Entbürokratisierung auch noch.
00:26:55: Danach wird alles besser.
00:26:57: Wir brauchen diese Überwachung erstmal nicht.
00:26:59: Man kann darüber nachdenken,
00:27:00: wie man die sinnvoll hinzufügt.
00:27:02: Aber bevor man da die Zeit einsetzt,
00:27:03: sollte man erstmal die Zeit für die Grundprobleme investieren.
00:27:06: Und dann kann man über die Detailprobleme nachdenken.
00:27:09: Ich stimme dir da sogar in Teilen zu,
00:27:11: habe aber noch so ein bisschen ambivalentere Meinung dazu.
00:27:14: Einfach aus dem Grund,
00:27:15: weil ich immer wieder feststelle,
00:27:17: wir vernachlässigen die Bildung.
00:27:19: Wir vernachlässigen den Fakt,
00:27:21: dass zum Beispiel, wenn man jetzt einfach nur guckt,
00:27:23: wir haben Unternehmen, die möchten Services nutzen.
00:27:26: Und wie du richtig sagst,
00:27:27: wir haben die Digitalisierung auf Regierungsseite
00:27:30: vollständig verpennt.
00:27:32: Das heißt, die Regierung hat verpennt,
00:27:34: das Volk allgemein für diese Thematiken zu sensibilisieren.
00:27:39: Aber eben aus einer Richtung,
00:27:41: wie kann diese Thematik Positives erbringen.
00:27:44: Und ich glaube, die Tatsache,
00:27:47: dass wir ein Verkehrsministerium haben,
00:27:50: das sowohl für den Straßenverkehr
00:27:52: als auch für Digitales gleichzeitig ist,
00:27:54: zeigt schon,
00:27:55: wie wenig ernst wir verstanden haben,
00:27:57: was für eine Macht die digitale Vernetzung ausstrahlt
00:28:01: und was von ihr ausgeht.
00:28:02: Und ich glaube, wenn ich mir so überlege,
00:28:04: wie krass die Versklavungsprinzipien von Unternehmen
00:28:07: durch zum Beispiel Konzerne wie Microsoft,
00:28:09: Facebook und Google,
00:28:10: dadurch, dass wir deren Services anfangen zu nutzen
00:28:13: und dann in Sphären geworfen werden,
00:28:15: aus denen wir uns technologisch nie wieder befreien können.
00:28:18: Das ist eine langfristige Wirtschaftsschädigung
00:28:20: dieser Unternehmen.
00:28:21: Und ich kann mich noch erinnern,
00:28:23: damals, wenn ich als IT-Nerd
00:28:26: für irgendein Unternehmen beauftragt wurde,
00:28:29: irgendetwas zu machen
00:28:30: und dann bei denen in ein Werk,
00:28:31: in eine Produktionshalle gegangen bin,
00:28:33: dann wurde mir damals gesagt,
00:28:34: hier dürfen keine Kameras mit hingenommen werden.
00:28:37: Wirtschaftsspionage.
00:28:38: Diese Unternehmen arbeiten jetzt alle
00:28:41: mit Google und Microsoft-Produkten.
00:28:43: Das ist die großflächigste Wirtschaftsspionage,
00:28:46: die es gibt.
00:28:47: Man gibt bereitwillig die komplette Intelligenz
00:28:51: des eigenen Unternehmens in die Hände
00:28:53: eines multimilliardenschweren Konzerns wie Microsoft,
00:28:57: zwingt sich in deren Produkte und deren Preispolitik
00:29:00: an einen Support,
00:29:01: der selber die Produkte nicht versteht
00:29:03: und gar nicht verstehen will
00:29:05: und das sogar offen am Telefon zugibt,
00:29:07: wenn man eine Frage stellt,
00:29:08: und sagen dann am Ende,
00:29:10: ja, wir haben ja keine Alternativen.
00:29:12: Woher wissen Sie das?
00:29:13: Ja, das habe ich von der Regierung gehört.
00:29:14: Das ist alternativlos.
00:29:15: Das Internet ist ja noch Neuland.
00:29:17: Also irgendwie,
00:29:18: wenn ich ständig vor dem Brunnen stehe
00:29:21: und mir selber sage,
00:29:23: ich springe da jetzt rein,
00:29:24: ich springe da jetzt rein,
00:29:25: ich springe da jetzt rein
00:29:26: und mich dann wundere,
00:29:27: dass wenn ich reingesprungen bin
00:29:28: und es mir da unten scheiße geht
00:29:29: und mich keiner rauszieht,
00:29:30: dann meckern,
00:29:31: das habe ich ja vorher nicht gewusst.
00:29:33: Das ist so ein bisschen, finde ich,
00:29:34: das Symbol des Deutschen
00:29:36: im Umgang mit neuen Technologien
00:29:38: oder sowieso Neuerungen.
00:29:39: Stattdessen fragt man lieber,
00:29:40: kann nicht mal jemand eine Verordnung schreiben,
00:29:42: um hier ein Schild aufzustellen,
00:29:43: damit keiner in den Brunnen springt,
00:29:45: weil dann steht da ja ein Schild.
00:29:47: Also das ist Irrsinn.
00:29:49: Wir sind, glaube ich, einer Meinung, Stephan.
00:29:51: Auch da in dem Punkt sind wir einer Meinung.
00:29:53: Ich habe es jetzt nur nicht gesagt,
00:29:54: aber natürlich hast du vollkommen recht.
00:29:56: Die Regierung ist auch nicht für alles zuständig
00:29:58: oder der Staat.
00:29:59: Also wenn es mir schlecht geht,
00:30:01: dann liegt es oft nicht am Staat,
00:30:02: sondern weil ich faul bin
00:30:03: oder irgendwelche eigenhausgemachten Probleme habe.
00:30:06: Die hat der Staat nicht zu lösen.
00:30:08: Da soll man sich gefälligst selbst drum kümmern.
00:30:10: Und das gilt natürlich auch für Unternehmen.
00:30:11: Also da muss ich ja vollkommen recht geben.
00:30:13: Da müssen die Unternehmen
00:30:14: auch ein bisschen innovativer werden.
00:30:15: Alle springen immer nur zu Microsoft-Produkten.
00:30:17: Einfachstes Beispiel Microsoft Teams
00:30:19: oder auch Zoom von mir aus.
00:30:21: Es gibt so viele Alternativen.
00:30:23: Leute, die nur eine Videokonferenz machen wollen,
00:30:25: die können auch gefälligst was anderes nehmen.
00:30:27: Ist übrigens dann oft auch besser.
00:30:28: Muss ich auch nicht dauernd installieren
00:30:30: und diesen Quatsch damit,
00:30:31: diesen Prinzip-Problem oder was es da sonst so alles gibt.
00:30:34: Manche sagen ja,
00:30:35: es wäre so eingebettet ins Unternehmensumfeld.
00:30:37: Aber ganz ehrlich, beim Video-Chat,
00:30:39: da fällt es mir schwer,
00:30:40: den Riesenvorzug von Microsoft-Produkten zu sehen.
00:30:43: Also wenn man will,
00:30:44: dann kann man auch was anderes nehmen.
00:30:45: Es gibt manchmal keine Alternativen, das stimmt.
00:30:47: Aber sehr oft gibt es welche.
00:30:49: Übrigens ist es auch deutschen Unternehmen,
00:30:51: die größer sind,
00:30:52: nicht verboten, eigene Lösungen zu entwickeln,
00:30:54: habe ich gehört.
00:30:55: Aber das ist nur so eine Annahme von mir.
00:30:57: Da weiß ich jetzt gar nicht,
00:30:58: ob man das so sagen kann.
00:31:00: Ne, weiß ich auch nicht.
00:31:01: Also das ist auf jeden Fall...
00:31:03: Da müsste man, glaube ich, in Deutschland
00:31:05: erst mal eine Studie mit beauftragen
00:31:06: und dann das vom EuGH klären lassen.
00:31:08: Weil sonst kann man ja hier keine Entscheidung treffen
00:31:10: und wissen, ob das richtig oder falsch ist.
00:31:13: Und ich finde, mit dem Irrsinn
00:31:15: kommen wir über unsere halbe Stunde.
00:31:17: Das war ein wunderbarer Talk.
00:31:19: Ich fasse nochmal kurz zusammen.
00:31:20: Also die Chat-Kontrolle ist ein Vorstoß,
00:31:23: der unter dem Vorwand des Schutzes von Kindern
00:31:26: dafür sorgen soll,
00:31:27: dass wir flächendeckend überwacht werden
00:31:29: durch Privatkonzerne,
00:31:30: weil unsere Regierungen keine Lust haben,
00:31:33: für das Geld,
00:31:34: was wir ihnen per Steuern zahlen,
00:31:36: tätig zu werden,
00:31:37: um unsere digitale Identität
00:31:39: und den freiheitlichen Rahmen im Internet
00:31:41: zu schützen.
00:31:42: Und wer das unterstützt,
00:31:44: der hat einfach nicht verstanden,
00:31:45: worum es geht
00:31:46: und was das impliziert für die Zukunft.
00:31:48: Unternehmen sollten sich schützen
00:31:51: vor diesen Angriffen
00:31:53: auf ihre Wirtschaftlichkeit,
00:31:54: indem sie anfangen,
00:31:55: nach Alternativprodukten zu suchen,
00:31:57: die es zuhauf gibt
00:31:59: und vielleicht ein bisschen mehr Gehirnschmalz
00:32:01: und ein bisschen längere Zeit da reinstecken,
00:32:03: diese Produkte zu identifizieren
00:32:04: und auszuprobieren,
00:32:05: anstatt immer nur das nächstbeste
00:32:07: Microsoft- oder Google-Produkt zu nehmen,
00:32:09: weil es schon da ist.
00:32:11: Ohne sich über die Implikationen
00:32:13: für die Konsequenzen der Zukunft
00:32:14: im Klaren zu sein
00:32:15: und natürlich ihre Mitarbeiter sensibilisieren.
00:32:18: Denn wenn die einem sagen,
00:32:20: das würde ich lassen,
00:32:21: das ist dumm,
00:32:22: dann ist das vielleicht der beste Hinweis darauf,
00:32:24: dass man selber noch was lernen sollte,
00:32:26: anstatt sich auf den Standpunkt zu stellen,
00:32:28: weil ich hier der Chef bin,
00:32:29: habe ich recht.
00:32:30: Ich glaube, das könnte so
00:32:31: für den Denkansatz irgendwas sein,
00:32:33: was in Zukunft dann auch richtig was bringt
00:32:35: und dann auch wieder richtig Spaß
00:32:36: in die Kiste reinbringt,
00:32:37: so in der gesamten Zusammenarbeit.
00:32:39: Lieber Klaus,
00:32:40: ich danke dir vielmals für diesen Talk.
00:32:42: Das war extrem erfrischend und schön.
00:32:44: Ein geiler Start in den Tag.
00:32:45: Ich wünsche den Zuhörern alles Gute.
00:32:48: Du hast vielleicht noch ein paar letzte Worte
00:32:50: und dann sagen wir gemeinsam Tschüss,
00:32:52: würde ich sagen, oder?
00:32:53: Ja, Stephan, hat mich auch sehr gefreut.
00:32:55: Mir hat es auch viel Spaß gemacht.
00:32:57: Es gibt übrigens ab einigen Folgen
00:32:59: jetzt schon ein Transkript
00:33:00: für diesen Podcast mit KI erzeugt.
00:33:02: Ich bin gespannt,
00:33:03: wie er diese Folge meistern wird,
00:33:04: wo ich mich auch ein paar Mal verhaskelt habe.
00:33:06: Ich bin gespannt
00:33:07: und freue mich aufs nächste Mal.
00:33:08: Ja, cool, wunderbar.
00:33:09: Da bin ich auch sehr gespannt
00:33:11: und dann sagen wir mit vereinten Kräften
00:33:13: auf Wiederschauen oder hören besser.
00:33:15: Tschüss.
00:33:16: Tschüss.
00:33:17: Ja, tschüss.
00:33:18: Das war Datenschutz Deluxe.
00:33:20: Du willst mehr spannende Themen
00:33:22: oder Kontakt zu uns?
00:33:24: Dann besuche Klaus Meffert
00:33:25: auf seinem Blog Dr. DSGVO
00:33:28: und Stephan Plesnik
00:33:29: auf seinem YouTube-Kanal
00:33:30: Datenschutz ist Pflicht.
00:33:32: Bis zum nächsten Mal.
Neuer Kommentar