#44 TikTok Verbot in der EU wegen Digital Services Act (DSA) der EU?
Shownotes
Der Podcast rund um das Thema Datenschutz und IT. Mit Dr. Klaus Meffert und Stephan Plesnik.
44 TikTok Verbot anstehend wegen Digital Services Act (DSA) der EU
Die EU droht TikTok mit einem Abschalten der Plattform. Grund sind der DSA und TikToks fehlende Risikoeinschätzung sowie ein fragwürdiges Anreizsystem auf der Plattform. Nutzer, unter denen auch Kinder sind, sollten möglichst viel Zeit auf TikTok verbringen. Wir diskutieren über dies, den DSA und seine Wirkung auf die Gesellschaft.
Dies und einiges mehr in der aktuellen Episode von Datenschutz Deluxe.
Feedback geben? Fragen stellen? Gerne hier im Datenschutz-Blog von Klaus:
https://dr-dsgvo.de
Videokanal von Stephan: https://www.youtube.com/datenschutzistpflicht
Impressum:
https://dr-dsgvo.de/impressum
Inhaltlich verantwortlich ist jeder der Sprecher für seine eigenen Äußerungen.
Transkript anzeigen
00:00:00: Datenschutz Deluxe, der Podcast rund um das Thema Datenschutz und IT mit Dr. Klaus Meffert und Stephan Plesnik.
00:00:12: Hallo und herzlich willkommen, liebe Zuhörer. Hier ist wieder der Datenschutz Deluxe Podcast.
00:00:16: Mein Name ist Stephan Plesnik und wie immer ist bei mir Dr. Klaus Meffert. Lieber Klaus, wie geht es dir?
00:00:22: Ja, Stephan, vielen Dank. Mir geht es gut und danke auch an dich, dass du bereit bist, diese Folge heute mit mir aufzuzeichnen,
00:00:28: obwohl du eine kleine Erkältung hast, wie man ja auch an deiner Stimme wahrscheinlich hören kann.
00:00:33: Ja, ich will doch hoffen, dass man das hören kann. Meine Frau sagt immer, meine Stimme würde dadurch noch tiefer und etwas erotischer klingen.
00:00:38: Also vielen Dank an alle da draußen, die das vielleicht teilen. Jetzt ist eure Chance, euch darüber ein Urteil zu bilden.
00:00:44: Mir geht es aber nicht zu schlecht, sonst würden wir das heute auch nicht machen.
00:00:48: Worüber ich heute mit dir sprechen möchte, ist ein Thema, von dem ich persönlich, wie sagt man so,
00:00:54: ich hatte auf jeden Fall schon einige Berührungspunkte damit.
00:00:56: Viele da draußen werden schon sehr viele Berührungspunkte damit gehabt haben.
00:01:01: Und wir wollen heute mal so ein bisschen in der Tiefe gucken, wie ist das überhaupt einzuschätzen, worum geht es da im Detail.
00:01:06: Und zwar ist es so, dass immer wieder Online-Plattformen bestimmte Formen von Abmahnungen erhalten für bestimmte Features, die da drin existieren.
00:01:15: Und diesmal ist wieder mal TikTok, unser Lieblingssorgenkind, ein bisschen zu weit gegangen.
00:01:21: Es gibt nämlich eine App, die nennt sich TikTok Lite.
00:01:25: Und in dieser TikTok-Lite-Variante wurde ein Feature introduced, das sich Tasks and Rewards nennt.
00:01:31: Und was das besonders problematisch macht, ist, dass es dabei darum geht, dass man für das Video anschauen oder das Interagieren mit Inhalten auf der Plattform TikTok virtuelle Münzen sammelt.
00:01:43: Und sozusagen eine Belohnung erhält dafür, dass man sich länger auf der Plattform aufhält und länger mit den Inhalten interagiert.
00:01:49: Und ich weiß, viele von euch raufen sich jetzt schon die Haare und schreien das Radio an.
00:01:55: Aber es geht halt darum, TikTok ist eine Plattform, die auch dafür bekannt ist, dass sie sehr stark Kinder als Nutzer fokussiert.
00:02:02: Also ganz besonders Kinder unter 13 Jahren, die laut der eigenen Richtlinie gar nicht erlaubt wären, überhaupt einen Online-Account bei TikTok zu pflegen und zu benutzen.
00:02:13: Und der Grund, warum das jetzt kritisiert wurde, ist, weil dieses Task-and-Reward-Programm könnte eben dafür sorgen, dass man durch die Gutschein-Funktionalität und den Mehrwert, den man bekommt,
00:02:25: länger auf der Plattform aufhält, so giftig und süchtig machend ist wie Light-Zigaretten.
00:02:31: Das ist jetzt ein Zitat, das ich kurz mal entlehnt habe vom Binnenmarkt-Kommissar der EU, Terry Breeden.
00:02:38: Und es ist jetzt also so, TikTok hat einen Rückzug gemacht, nur damit wir da up-to-date sind.
00:02:44: Das ist jetzt ganz aktuell, gestern gekommen.
00:02:47: TikTok hat einen Rückzug gemacht, hat gesagt, okay, wir werden dieses Feature erstmal abschalten.
00:02:51: Nur, dass dieses Feature tendenziell existiert und auf welcher Grundlage es verboten werden sollte.
00:02:55: Das ist eigentlich spannend.
00:02:56: Denn es gibt so etwas wie den Digital Services Act, oder kurz DSA.
00:03:02: Und darüber würde ich gerne mal mit dir, Klaus, jetzt ein bisschen sprechen und die Einschätzung auch von deiner Seite aus haben.
00:03:08: Weil irgendwo teilt sich das ja auch schon ziemlich stark zusammen mit dem Thema KI.
00:03:12: Weil die sind ja im Hintergrund bei diesen Online-Plattformen sehr stark im Einsatz.
00:03:16: Klären wir mal die erste Frage.
00:03:18: Was genau ist eigentlich dieser Digital Services Act?
00:03:22: Was weißt du darüber?
00:03:23: Wie hängt das überhaupt jetzt mit TikTok und diesem Verbot zusammen?
00:03:28: Wo wir doch schon die Datenschutz-Grundverordnung hatten und die vielleicht eigentlich hätte reichen können bei süchtig machenden Gestaltungen von irgendwelchen Algorithmen.
00:03:37: Ja, sehr gute Frage.
00:03:38: Also ich habe mir jetzt mal den Gesetzestext des DSA aufgemacht in der Europäischen Verordnung.
00:03:44: Ich lese nur mal die Überschrift vor und dann sage ich noch ein paar Worte dazu.
00:03:47: Also im Englischen heißt die Überschrift, ich sage jetzt nicht die ganze Überschrift, aber Regulation heißt ja Verordnung.
00:03:53: On a single market for digital services und so weiter.
00:03:56: Also wie du sagst, Digital Services Act ist eben so die Kurzform.
00:04:00: Im Deutschen heißt die Überschrift Verordnung über einen Binnenmarkt für digitale Dienste.
00:04:07: Da wird es vielleicht für den Deutschen ein bisschen deutlicher, worum es geht.
00:04:11: Digital Services und digitale Dienste, okay.
00:04:13: Aber Binnenmarkt für digitale Dienste ist schon was anderes als das, was im Englischen vom Deutschen zumindest normalerweise wahrgenommen wird.
00:04:20: Und da geht es nicht unbedingt um Personenkosten.
00:04:23: Sondern da gibt es einen Abschnitt 5, der enthält mehrere Artikel ab dem Artikel 33.
00:04:31: Und da steht als Überschrift des Abschnittes drinnen zusätzliche Verpflichtungen in Bezug auf den Umgang mit systemischen Risiken für Anbieter von sehr großen Online-Plattformen und sehr großen Online-Suchmaschinen.
00:04:46: Und ich denke, das ist eigentlich, schon sagt eigentlich, worum es im Kern im DSA geht.
00:04:52: Der Abschnitt 5.
00:04:53: Der Abschnitt 4 sagt, Bestimmungen für Anbieter von Online-Plattformen, die Verbrauchern den Anschluss von Fernabsatzverträgen mit Unternehmen ermöglichen.
00:04:59: Also nicht große Online-Plattformen, sondern alle zumindest.
00:05:03: Und dann gibt es eben noch andere Abschnitte.
00:05:06: Bestimmungen für alle Anbieter von Vermittlungsdiensten.
00:05:08: Zusätzliche Bestimmungen für Hosting-Dienste-Anbieter einschließlich Online-Plattformen.
00:05:12: Also Hosting-Dienste, da könnte man auch Strato oder 1&1 oder All INKL, was mein bevorzugter Provider übrigens ist, erwähnen.
00:05:21: Erwähnen.
00:05:23: Zusätzliche Bestimmungen für Anbieter von Online-Plattformen.
00:05:25: Aber es geht eben vor allem um die großen oder die sehr großen.
00:05:27: Und da hast du ja auch ein Beispiel genannt.
00:05:31: Ja, okay.
00:05:33: Wenn ich das richtig verstehe, haben wir es hier also mit einem etwas ausdifferenzierteren Gesetzestext zu tun,
00:05:41: der sich darum kümmert, Regularien für ganz besondere Online-Dienste oder digitale Dienste zu erlassen
00:05:48: und eben die vielleicht ja ein bisschen besser überprüfbar zu machen.
00:05:53: Wenn wir das jetzt auf dieses TikTok-Beispiel anwenden, dann haben wir es natürlich,
00:05:56: also würde ich sagen, auf jeden Fall mit einem sehr, sehr großen Dienst zu tun.
00:05:59: Ich meine, TikTok ist das meistgenutzte Social Media der Welt mit den meisten aktiven Nutzern.
00:06:05: Wir haben es auf jeden Fall auch mit einem Dienst innerhalb dieser Plattform zu tun.
00:06:10: Also Very Large ist auf jeden Fall erfüllt.
00:06:12: Es ist auch eine Online-Suchmaschine, weil ich kann darin suchen.
00:06:15: Also auch der Punkt ist erfüllt.
00:06:17: Und es fällt auf jeden Fall unter das Fernabnahmegesetz,
00:06:22: weil...
00:06:22: Wir können dort ja, es geht ja um Bezahlfunktionen beziehungsweise um Gutschein-Funktionalitäten in diesem Fall.
00:06:29: Jetzt wurde in den ganzen Diskussionen, die ich darüber gesehen habe,
00:06:34: immer quasi die Brücke so geschlagen, ja, du kannst da drin...
00:06:38: Der Grund, warum es verboten wird, ist, weil wir Gutschein-Angebote oder irgendein Mehrwert-Angebot bekommen,
00:06:44: dafür, dass die Leute sich länger auf der Plattform aufhalten
00:06:47: und das eben so eine Art Zugzwang erzeugt.
00:06:52: So einen süchtig machenden Charakter erzeugt, damit die Leute eben die Plattform vielleicht gar nicht mehr verlassen
00:06:57: oder so häufig wie möglich dort Zeit verbringen.
00:07:00: Und dass das eigentlich das Kritische ist.
00:07:03: Weißt du jetzt schon irgendetwas darüber, dass das DSA explizit eine solche Form der Ausgestaltung anspricht?
00:07:10: Oder ist das eher eine allgemeinere Formulierung im Gesetz, die jetzt dann dort Anwendung findet,
00:07:14: wo man so sagen kann, naja, TikTok hat jetzt zwar eingeknickt,
00:07:18: aber die werden wahrscheinlich dagegen vorgehen und gewinnen am Ende trotzdem.
00:07:22: Ja gut.
00:07:22: Also vorgehen werden sie auf jeden Fall.
00:07:24: Jeder, also Google und so weiter, die gehen ja auch immer gegen alles vor.
00:07:28: Also unabhängig davon, ob sie selbst sagen, wir sind schuld.
00:07:31: Sie geben es halt nach außen einfach nicht zu.
00:07:32: Warum sollten sie es auch?
00:07:33: Im Rechtssystem ist es leider oder zum Glück, das muss man je nach Fall sehen,
00:07:38: erlaubt, dass jeder sich gegen alles wehren kann.
00:07:40: Also man kann jemanden umgebracht haben und kann sagen, ich war es nicht.
00:07:43: Das ist so.
00:07:44: Also das ist das Rechtssystem.
00:07:46: Wenn es der tatsächliche Mörder war, der sagt, er war es nicht, dann ist es wirklich sehr schlecht.
00:07:50: Aber man weiß ja nicht, ob es der Mörder war.
00:07:51: Ja, und vielleicht ist er auch zu Unrecht verdächtigt.
00:07:54: Also und genauso ist da auch, also wir werden es auf jeden Fall angreifen,
00:07:58: wenn natürlich die Strafe, die angekündigt wird, sehr gering ist,
00:08:03: dann sagt man vielleicht, okay, ohne Anerkennung einer Rechtspflicht zahlen wir die Strafe,
00:08:07: dann ist gut, ja.
00:08:08: Aber meistens ist es ja so, dass die Strafen doch höher sind
00:08:11: oder der Imageschaden aus der Zahlung der Strafe an sich angesehen wird.
00:08:17: Und dann sagt sich TikTok, ja, wenn wir das jetzt zugeben oder wenigstens zahlen,
00:08:20: auch wenn wir sagen, wir sind nicht schuld,
00:08:21: wir zahlen es trotzdem, dann denken die Leute, es war ein Schuldeingeständnis.
00:08:25: Aber hier zu deiner Frage in dem DSA-Text steht eben also erst mal drinnen,
00:08:30: was sehr große Online-Plattformen sind.
00:08:33: Und zwar sind das solche, also Online-Plattformen und Online-Suchmaschinen,
00:08:37: also hier in dem Fall Online-Plattformen wie Social Media, TikTok,
00:08:40: die eine durchschnittliche monatliche Zahl von mindestens 45 Millionen aktiven Nutzern
00:08:46: in der Union, also in Europa haben.
00:08:49: Und dann gibt es noch eine kleine weitere Bedingung,
00:08:51: die ich hier vorlese.
00:08:53: Also das ist schon sehr, sehr eindeutig beschrieben.
00:08:56: Das kann man ja wirklich leicht auch messen.
00:08:58: Und ich sage mal, bei Google muss man sich jetzt nicht überlegen,
00:09:00: wie viele Nutzer hat Google, ja.
00:09:01: Das ist jeder, also wenn es nicht jeder Zweite ist mindestens,
00:09:05: dann sind es noch mehr Leute vielleicht sogar.
00:09:06: Und wenn es nur jeder Zweite wäre, wird es ja schon längst reichen.
00:09:08: Also in Deutschland sind wir ja schon bei 85 Millionen Einwohnern.
00:09:12: Wenn da mehr als jeder Zweite, dann sind wir ja schon bei über 45 Millionen, ja.
00:09:15: Also da gibt es ja noch andere Länder in der EU außer Deutschland.
00:09:18: Also die kommen alle, diese alle bekannten Namen,
00:09:21: kommen logischerweise immer über diese Grenze drüber.
00:09:24: So jetzt zu deiner Frage mit dem, was, also ob dieser konkrete Fall,
00:09:28: es ging ja darum, dass es, also wenn ich es richtig verstanden habe,
00:09:31: dass TikTok laut Ansicht der EU-Kommission nicht oder nicht ausreichend
00:09:37: die Risiken analysiert hat, die mit dieser Aktion,
00:09:39: also diesem Anreizsystem, was du dargestellt hast,
00:09:42: analysiert hat und auch nicht diese Risiken benannt hat,
00:09:46: den Nutzern gegenüber.
00:09:47: Vielleicht sogar auch mit einer Abfrage.
00:09:50: Möchtest du wirklich,
00:09:51: dass wir dich süchtig machen?
00:09:52: Dann klicke ja.
00:09:53: Möchtest du es nicht, dann klicke nein.
00:09:55: Ja, ich meine, es muss man ja einfach mal,
00:09:57: also das wird natürlich in anderen Worten formuliert,
00:10:01: aber so ist ja die Frage, die man stellen müsste.
00:10:03: Also es gibt hier an Artikel 34 des DSA,
00:10:06: der ist überschrieben mit Risikobewertung.
00:10:09: Und da steht eben drin, dass diese Anbieter wie TikTok
00:10:11: sorgfältig, ich zitiere es hier nachts, also wörtlich,
00:10:16: sorgfältig ermitteln, analysieren und bewerten,
00:10:18: was die systemischen Risiken sind,
00:10:21: nämlich aus der Konzeption oder dem Betrieb ihrer Dienste,
00:10:24: also von TikTok, dieser Süchtigmachen-Funktion,
00:10:27: und seien damit verbundene Systeme einschließlich
00:10:29: algorithmischen Systemen, da sind wir wieder bei der KI,
00:10:31: oder der Nutzung ihrer Dienste ergeben.
00:10:33: Und dann steht auch drinnen, wo war es denn jetzt?
00:10:39: Da steht drinnen, dass auch Kinder, also hier steht es,
00:10:44: und zwar gibt es hier mehrere Risikoarten,
00:10:47: also einmal rechtswidrige Inhalte,
00:10:49: das ist natürlich was anderes jetzt, als die Süchtigmachensachen,
00:10:54: etwaige tatsächliche oder vorhersehbare nachteilige Auswirkungen
00:10:57: auf die Ausübung der Grundrechte und so weiter,
00:10:59: Menschenwürde, Achtung des Privat- und Familienlebens,
00:11:05: Schutz personenbezogener Daten, Medienfreiheit, Pluralismus,
00:11:08: Nichtdiskriminierung, Verbraucherschutz,
00:11:12: die in Artikel 24 Charta der verankerten Rechte des Kindes
00:11:16: und dann später nochmal alle tatsächlichen,
00:11:19: oder absehbaren, nachteiligen Auswirkungen
00:11:21: in Bezug auf geschlechtsspezifische Gewalt,
00:11:24: den Schutz der öffentlichen Gesundheit und von Minderjährigen,
00:11:27: also den Schutz von Minderjährigen, so heißt dann dieser Teilsatz,
00:11:31: verkürzt, wenn man es auf Minderjährige bezieht,
00:11:33: sowie schwerwiegende nachteilige Folgen für das körperliche
00:11:35: und geistige Wohlbefinden einer Person,
00:11:37: das trifft alles auf diese Süchtigmachen-Funktion zu.
00:11:40: Man könnte hier vielleicht noch mehr finden, wie zum Beispiel,
00:11:43: wenn Kinder Geld ausgeben, was sie ja eigentlich gar nicht haben,
00:11:46: weil sie süchtig gemacht werden,
00:11:48: dann ist das nochmal ein Problem.
00:11:50: Also das steht ja sehr deutlich drin, finde ich,
00:11:52: was das Problem von TikTok ist.
00:11:54: Also im Endeffekt bewegen wir uns...
00:11:55: Also hier noch eine Ergänzung vielleicht,
00:11:57: Gestaltung ihrer Empfehlungssysteme
00:11:59: und anderer relevanter algorithmischer Systeme.
00:12:02: Also wenn man das durchliest,
00:12:03: findet man eigentlich nur passende Stellen,
00:12:06: die auf diesen Fall, den du aufgeworfen hast, zutreffen.
00:12:09: Das ist interessant, weil jetzt schließt sich so ein bisschen
00:12:12: auch der Kreis Richtung der Praxis von Meta und von Amazon usw.,
00:12:17: weil man sich sehr spannend,
00:12:18: finde ich, ist, dass eben dieser Digital Services Act
00:12:22: oder, sag ich mal, die Regulierung durch den Digital Services Act,
00:12:26: die kostet ja Geld.
00:12:27: Da müssen Mitarbeiter beschäftigt werden.
00:12:29: Laut Aussage der EU-Kommission waren das 2024 150 Mitarbeiter,
00:12:34: um diese Plattformen zu kontrollieren.
00:12:36: Und das hätte insgesamt 45 Millionen Euro gekostet.
00:12:40: Da kann man sich jetzt drüber streiten,
00:12:41: ob das verhältnismäßig ist, spielt keine Rolle.
00:12:43: Wir haben also diesen Batzen 45 Millionen Euro,
00:12:46: der im Jahr zu betrachten ist,
00:12:48: und an dem sollen diese Plattformen oder werden diese Plattformen beteiligt,
00:12:53: sollen beteiligt werden.
00:12:55: Die gehen natürlich rechtlich dagegen vor und wollen sich dagegen wehren,
00:12:58: weil Meta gesagt hat, das ist ja unfair,
00:13:00: wenn wir 11 Millionen Euro zahlen müssen.
00:13:02: Ich finde es eigentlich relativ fair,
00:13:04: so viele Dienste, wie die betreiben und wie viele Nutzer die haben,
00:13:06: dass sie ungefähr ein Viertel von dem Batzen zahlen müssen,
00:13:08: ist eigentlich relativ fair.
00:13:09: Jetzt tun wir noch TikTok dazu,
00:13:11: denen geben wir 22 Millionen, weil die noch mehr Nutzer haben.
00:13:16: Was aber sehr spannend ist,
00:13:17: und das finde ich halt wieder,
00:13:18: das passt halt jetzt überhaupt nicht zu dieser Sache mit dem,
00:13:21: was regulieren wir mit dem Gesetz und wie sind wirklich die Auswirkungen,
00:13:26: ist, dass Unternehmen, die nur sehr geringe oder gar keine Gewinne machen,
00:13:32: so heißt es wörtlich, wie Twitter, und jetzt halte ich fest,
00:13:36: Amazon, Snapchat, Pinterest und Wikipedia.
00:13:40: Also nach hinten hin, finde ich,
00:13:42: haben wir da auf jeden Fall so ein bisschen Dampf verloren.
00:13:44: Snapchat, Pinterest, Wikipedia, ja, okay,
00:13:46: Wikipedia würde ich ganz rauslassen.
00:13:48: Weil die tun was Gutes, die sollen für was Gutes da sein.
00:13:51: Aber bei Amazon, also Amazon, die gar keine Gewinne machen,
00:13:56: also nur in dem Land, wo man es bemisst, machen die keine Gewinne.
00:14:00: Wenn ich mir das überlege, dass die, und bei Amazon würde ich auch sagen,
00:14:05: ist auf jeden Fall der Punkt erfüllt,
00:14:07: dass die eine riesengroße Online-Suchmaschine sind.
00:14:09: Es gibt sehr viele Leute, die benutzen nichts anderes,
00:14:12: um nach Dingen, die sie einkaufen wollen, zu suchen, als Amazon selbst.
00:14:16: Die App oder eben auch direkt,
00:14:18: die Webseite und suchen dann dort, ja, und gar nicht mehr über Google, ja.
00:14:22: Aber hauptsächlich wird von diesem Digital Services Act,
00:14:26: oder von, ich sag mal, dem Einbezug in die Kosten, die da getrennt werden,
00:14:29: ähm, Meta und Google benannt, die sollen am meisten dafür zahlen.
00:14:34: Das finde ich passt, es passt auf jeden Fall.
00:14:37: Aber wenn wir diese Brücke zurückschlagen zu diesem Design,
00:14:40: mit den Algorithmen, die quasi darauf ausgelegt sind,
00:14:44: den Nutzer zu irgendeiner Handlung zu motivieren,
00:14:47: diese sogenannten Dark Patterns, die, da haben wir ja noch,
00:14:51: ich glaub, da haben wir noch gar keine Folge drüber gemacht.
00:14:53: Das ist eigentlich sehr spannend.
00:14:54: Denn das ist ja genau das, was TikTok da macht.
00:14:57: TikTok Lite sagt hier, wenn du bleibst auf der Plattform,
00:14:59: dann kriegst du dafür irgendeinen Reward innerhalb der Plattform,
00:15:02: und den kannst du dir dann in irgendeiner Form auszahlen lassen.
00:15:04: Sogar in Form von echten Geldwertgutscheinen,
00:15:07: die man dann woanders einsetzen kann.
00:15:09: Aber eben nur darüber, dass man sie sich über die Plattform auszählen lässt.
00:15:12: Also auch hier wieder haben wir den Versuch,
00:15:14: ein Enclosed Ecosystem zu erschaffen, das kontrolliert wird,
00:15:17: von einer bestimmten Firma, nämlich in dem Falle TikTok.
00:15:20: Man muss sogar sagen, von mehreren Firmen,
00:15:23: die sind ja alle Konkurrenten, aber die tauschen sich ja leider untereinander aus.
00:15:26: Ja, natürlich.
00:15:27: Stechen sich gegenseitig die Augen aus öffentlich.
00:15:29: Aber im Hintergrund sind sie tatsächlich auch Kooperationspartner
00:15:33: und bilden ein Monopol.
00:15:34: Ja, klar.
00:15:35: Google und Meta zum Beispiel.
00:15:37: Also deswegen, es ist wie du sagst,
00:15:39: das ist ein riesen Haufen Krimineller, muss man leider so sagen.
00:15:42: Ja, das ist wirklich schade, weil es trifft das halt wirklich im Kern.
00:15:46: Man merkt das ja auch immer wieder.
00:15:47: Ich meine, selbst Microsoft macht ja nur negativ Schlagzeilen,
00:15:50: wenn es darum geht, sich um Sicherheitsrisiken und so weiter zu kümmern
00:15:53: oder eben auch vernünftig, also sensibel mit den wichtigen Informationen
00:15:59: der Nutzer ihrer Services umzugehen.
00:16:01: Ich meine, man kann jetzt darüber streiten, ob es sinnvoll ist,
00:16:05: seine Informationen in irgendeinem von Metas-Diensten zu platzieren,
00:16:09: weil es da nur darum geht, sich selbst darzustellen
00:16:11: und irgendwie Kirre zu werden im Social Media.
00:16:13: Aber bei Microsoft haben wir es natürlich auch mit Firmeninformationen zu tun.
00:16:17: Das geht dann noch mal in eine ganz andere Richtung.
00:16:19: Muss jeder für sich selbst entscheiden.
00:16:21: Aber definitiv, finde ich, merkt man,
00:16:23: dass diese ganzen Firmen, egal in welcher Form,
00:16:26: ihrer Verantwortung immer weglaufen wollen.
00:16:29: Also man möchte immer mehr Geld verdienen,
00:16:31: dadurch, dass man immer weniger tut
00:16:33: und die Leute immer mehr in die Irre führt.
00:16:35: Und auf den Punkt würde ich jetzt noch mal kurz eingehen.
00:16:38: Denn wir haben bei TikTok die Sache mit diesen Rewards.
00:16:42: Dasselbe Spiel gibt es bei Instagram schon ziemlich lange.
00:16:46: Das wird nur da etwas anders umgesetzt.
00:16:48: Und deswegen ist das nicht so offensichtlich.
00:16:50: Ist aber vom Effekt her dasselbe. Also auch so ein Dark Pattern.
00:16:53: Was ich sehr kritisch finde, ist,
00:16:55: diese Dark Patterns, die werden ja zum Beispiel auch bei Amazon eingesetzt.
00:16:59: Da wird uns dann gezeigt, wir können irgendwas ...
00:17:02: Irgendwer kann irgendwas nur noch
00:17:04: bis zu einer bestimmten Zeit für den Preis kaufen.
00:17:06: Es gibt nur noch so und so viele Dinge auf Lager.
00:17:08: Man müsste schnell bestellen und so weiter und so fort.
00:17:10: Man wird in die Irre geführt,
00:17:12: dass man bei denen eher bei Amazon das Produkt bestellt,
00:17:15: als bei einem der Zulieferer, die auf dem Marketplace inserieren.
00:17:18: Tausende Dinge, die da angewandt werden.
00:17:20: Ich glaube, es gibt gerade über 700 unterschiedliche Klagen
00:17:23: gegen Amazon wegen Dark Patterns in den USA.
00:17:26: Und das ist nur ein Zehntel der Menge.
00:17:29: Die haben erst mal nur angefangen,
00:17:31: mit einem kleinen Teil der Dark Patterns Klagen zu führen.
00:17:34: Wenn man sich das überlegt und wir reden über eine Plattform,
00:17:37: dann können wir uns so ungefähr vorstellen,
00:17:39: was das mit TikTok heißt.
00:17:41: Was jetzt sehr spannend ist,
00:17:43: in den USA soll TikTok verboten werden.
00:17:45: Schon seit längerer Zeit.
00:17:47: Richtig.
00:17:49: Aber nur, weil es aus China kommt.
00:17:51: Mir ist der Grund letztendlich egal.
00:17:53: Aber es ist nicht so, dass die USA TikTok verbieten,
00:17:55: weil es so eine böse Plattform ist,
00:17:57: sondern weil es ein böser Anbieter ist.
00:17:59: So habe ich es verstanden zumindest.
00:18:01: Weil es ein böses Land ist, in dem der Anbieter sitzt.
00:18:03: Das dürfen wir nicht vergessen.
00:18:05: Es geht ja noch nicht mal um den Anbieter selbst.
00:18:07: Denn sie haben gesagt,
00:18:09: wenn die ein Unternehmen in den USA wären,
00:18:10: dass das quasi in den USA dann kontrolliert wird,
00:18:14: oder sich an die US-Regierungsgesetze halten muss,
00:18:18: dann sind sie wieder okay damit.
00:18:20: Also gegen den Service und die Ausgestaltung des Services
00:18:22: haben sie nicht wirklich was.
00:18:24: Es geht dabei wieder um China.
00:18:26: Das könnte man allerdings gerne auch mal in Deutschland machen.
00:18:30: Ich will nur eine Sache mal sagen.
00:18:32: Ich will jetzt wirklich nicht zu politisch werden.
00:18:35: Aber was mich wirklich mit Besorgnis erfüllt,
00:18:38: ist, dass der Bundeskanzler,
00:18:40: auf TikTok aktiv ist.
00:18:42: Obwohl er weiß,
00:18:44: dass es diese Probleme mit dieser Plattform gibt.
00:18:46: Also wissen muss letztendlich, hat der Berater.
00:18:48: Er war jetzt natürlich in China
00:18:50: und vielleicht lag es auch daran, dass er da war.
00:18:52: Und ich meine, man muss leider Folgendes sehen.
00:18:54: Deswegen fände ich, wenn TikTok abgeschaltet werden würde,
00:18:56: global zumindest, in Europa am allerbesten,
00:18:58: man muss zwei Fakten sehen.
00:19:00: Das erste ist, es gibt eine gewisse Partei,
00:19:02: die auf TikTok extrem viele Follower hat.
00:19:04: Alle anderen Parteien nicht.
00:19:06: Das stimmt.
00:19:08: Der zweite ist,
00:19:10: ich habe es jetzt im Fernsehen gehört,
00:19:12: ich gehe davon aus, dass es so ist,
00:19:14: von den 14- bis 29-Jährigen sind die meisten Wähler dieser einen Partei,
00:19:18: die auf TikTok die meisten Follower hat.
00:19:20: Da sage ich mal, eine Partei,
00:19:22: die man nicht wirklich als demokratisch bezeichnen kann,
00:19:24: sondern die sehr stark die Tendenzen hat,
00:19:26: die sehr gefährlich für unser Land sind.
00:19:28: Wenn da die Jugend so dumm ist,
00:19:30: muss ich leider sagen, da mache ich mir,
00:19:32: weil sie sich von so einer dummen App beeinflussen lässt
00:19:34: und Inhalten, die da drauf veröffentlicht werden,
00:19:36: da muss ich leider sagen,
00:19:38: dann mache ich mir ernsthaft Sorgen.
00:19:40: Für mich sind das Idioten,
00:19:42: ich muss es leider so sagen,
00:19:44: die den ganzen Tag ihren Bildschirm vor ihrem Gesicht halten
00:19:46: und nichts anderes können,
00:19:48: als mit dem Handy in der Gegend rumrennen
00:19:50: und dauernd sich irgendwelche Inhalte reinziehen
00:19:52: und das auch noch glauben.
00:19:54: Und beziehungsweise,
00:19:56: wenn man hundertmal bombardiert wird mit einer Nachricht,
00:19:58: dann glaubt es jeder irgendwann.
00:20:00: Aber ich finde es einfach schlimm,
00:20:02: wie abhängig anscheinend
00:20:04: sehr viele Jüngere vom Handy sind.
00:20:06: Ich finde,
00:20:08: und ich könnte jetzt nur als Nebensatz noch erwähnen,
00:20:11: auch bei WhatsApp.
00:20:13: Ich bin ja vor einiger Zeit bei WhatsApp runter
00:20:15: und leider hat sich herausgestellt,
00:20:17: da muss ich aber auch sagen,
00:20:19: kann ich mit leben,
00:20:21: dass einige wenige,
00:20:23: da war ich schon ein bisschen traurig,
00:20:25: dass die sich dann nicht mehr bei mir gemeldet haben
00:20:27: oder auf SMS,
00:20:29: sie können ja auch Signal nutzen, wollen sie aber nicht,
00:20:31: dann nur spärlich reagieren
00:20:33: und nicht in der Lage sind,
00:20:35: und das meine ich jetzt gar nicht böse,
00:20:37: dass sie dann nicht in der Lage sind,
00:20:39: wenn sie nicht in ihrem Arbeitsvorrat,
00:20:41: ihrer WhatsApp-Anwendung sozusagen sehen,
00:20:43: wem sie noch antworten müssen,
00:20:45: dass sie dann nicht in der Lage sind,
00:20:47: jemandem zu antworten, wenn er über einen anderen Kanal schreibt.
00:20:49: Weil da poppt nämlich dann nichts auf oder so.
00:20:51: Und der Gipfel der Unverschämtheit ist noch,
00:20:53: wenn mir jemand sagt,
00:20:55: er installiert sich Signal nicht,
00:20:57: weil ich ja der Einzige wäre
00:20:59: oder die meisten, die er kennt,
00:21:01: sind nicht auf Signal.
00:21:03: Da frage ich mich, Moment mal,
00:21:05: wenn wir zwei miteinander kommunizieren wollen,
00:21:07: dann sind doch alle anderen egal.
00:21:09: Ich meine, er kann mich auch anrufen,
00:21:11: oder wir wohnen nicht so weit weg,
00:21:13: dann können wir uns mal wieder treffen.
00:21:15: Aber das Argument,
00:21:17: alle anderen nutzen es ja nicht,
00:21:19: deswegen schreibe ich mir dir darüber nicht,
00:21:21: finde ich ehrlich gesagt eine Unverschämtheit.
00:21:23: Ja, ich sage mal so,
00:21:25: ich kann auf jeden Fall deine Perspektive super verstehen
00:21:27: und kann das auch nachvollziehen
00:21:29: vom Gefühl her, wie sich das anfühlt.
00:21:31: Bei mir persönlich ist das so,
00:21:33: ich denke immer,
00:21:35: Freundschaft ist das Ergebnis von der Leistung,
00:21:37: die ich einbringe.
00:21:39: Und wenn ich eine Freundschaft
00:21:41: oder einen regelmäßigen Kontakt
00:21:43: zu einer Person haben möchte,
00:21:45: dann merke ich das auch bei mir
00:21:47: und auch in meinem Freundeskreis.
00:21:49: Das liegt jetzt an anderen Dingen,
00:21:51: nämlich hauptsächlich daran,
00:21:53: dass ich vielleicht als kinderloser Erwachsener
00:21:55: ein bisschen mehr Zeit habe und Freizeit habe
00:21:57: als Leute, die Kinder haben.
00:21:59: Und viele meiner Freunde haben Kinder
00:22:01: und sind in ihren Ehebeziehungen.
00:22:03: Dementsprechend haben die vielleicht
00:22:05: mehr Zeit oder auch weniger einen Kopf dafür,
00:22:07: über andere nachzudenken,
00:22:09: weil die ständig in ihrem Alltag,
00:22:11: in ihrem Hamsterrad im Alltag laufen.
00:22:13: Und was ich merke ist,
00:22:15: ich muss, wenn ich die Initiative reinbringe,
00:22:17: dass ich Nachrichten sende, dass ich nachfrage,
00:22:19: dass ich versuche anzurufen,
00:22:21: dann kommt auch der Return.
00:22:23: Es geht halt immer darum, wer macht den Anfang.
00:22:25: Und natürlich kann sich das irgendwann doof anfühlen,
00:22:27: wenn jemand sagt, ich bin nicht mehr bereit,
00:22:29: den ersten Schritt zu gehen.
00:22:31: Wenn du was von mir willst, dann schreib mich an.
00:22:33: Auf der einen Seite kann ich verstehen,
00:22:35: für wen mache ich das eigentlich?
00:22:37: Warum soll ich mich für dich interessieren,
00:22:39: wenn du dich offensichtlich gar nicht für mich interessierst?
00:22:41: Aber ich glaube, so ist es nicht.
00:22:43: Ich glaube vielmehr, dass wir Menschen ständig,
00:22:45: und das führt auch wieder zurück zu diesem Thema mit TikTok,
00:22:47: wir sind ständig mit uns selbst beschäftigt.
00:22:49: Wir fragen uns ständig, was habe ich davon?
00:22:51: Was habe ich für einen Vorteil von dem, was ich tue?
00:22:53: Was bringt mir das, dass ich das mache?
00:22:55: Und diese Form des Denkens...
00:22:57: Ja, du hast schon recht, aber in dem Fall
00:22:59: würde ich es jetzt mal nicht sagen bei mir.
00:23:01: Wenn ich da jemanden drei- oder viermal anschreibe per SMS,
00:23:03: die erstens irgendwie
00:23:04: auf zwei Handys auch noch, weil ich nicht weiß,
00:23:06: welches er denn jetzt liest, wenn er kein WhatsApp
00:23:08: mit mir schreiben will, also kann, weil ich es nicht habe,
00:23:10: dann kriege ich erst mal gar keine Antwort,
00:23:12: frage ich nach, ob die SMS angekommen war.
00:23:14: Ja, kam an. Sorry, ich melde mich.
00:23:16: Dann kam wieder nichts. Wie sieht es aus?
00:23:18: Und so weiter, nett zurückgeschrieben.
00:23:20: Ja, ich rufe dich an, und dann passiert aber wieder nichts,
00:23:22: drei Monate lang.
00:23:24: Ich meine, irgendwann hat man einfach keine Lust mehr.
00:23:26: Da geht es gar nicht darum, was habe ich davon,
00:23:28: sondern man möchte sich ab einem gewissen Alter
00:23:30: von diesem menschlichen Ballast trennen,
00:23:32: der im Erlebnis ist.
00:23:34: Der im Umfeld einem nicht gut tut,
00:23:36: weil diese Menschen einfach Energie rauben.
00:23:38: Es gibt auch Menschen, wenn man mit denen
00:23:40: sich verabredet zum Beispiel,
00:23:42: also mit mir kann man sich zum Beispiel verabreden,
00:23:44: wir machen ein Datum aus, das kann auch, ich sage mal,
00:23:46: etwas übertrieben drei Jahre in der Zukunft sein,
00:23:48: schreibe ich mir einen Kalender, und dann können wir uns
00:23:50: kurz vorher nochmal verständigen, dass dieser Termin existiert,
00:23:52: damit wir uns dann treffen, fertig.
00:23:54: Es gibt aber viele Leute,
00:23:56: die können sich einfach nicht festlegen,
00:23:58: was einen Termin angeht.
00:24:00: Und mit solchen Leuten kommuniziere ich auch Termine nicht mehr,
00:24:02: weil ich mit denen keine Termine mehr mache.
00:24:04: Es gibt nur ein Beispiel aus dem Bekanntenkreis.
00:24:06: Eine Freundin, die hat ihren 50. Geburtstag gefeiert.
00:24:10: Ihre besten Freundinnen, drei davon haben zugesagt
00:24:14: und haben dann wieder kurz vorher abgesagt,
00:24:16: was sie sehr geärgert hat.
00:24:18: Die eine hat einen sehr guten Grund gehabt,
00:24:20: ein Todesfall in der Familie.
00:24:22: Die anderen zwei hatten keinen guten Grund gehabt
00:24:24: und seitdem ist sie ein bisschen angepisst, sage ich mal.
00:24:26: Und sie hat auch im Nachhinein nicht erfahren können,
00:24:28: was der Grund gewesen sein soll, der jetzt so gut war.
00:24:30: Also es waren nur schlechte Gründe,
00:24:32: weil die einfach sagten,
00:24:34: heute habe ich vielleicht keine Lust
00:24:36: oder ich habe was anderes vor.
00:24:38: Und da hat jemand einen 50. Geburtstag,
00:24:40: den man sehr gut kennt und der legt da Wert drauf
00:24:42: und da geht man nicht hin.
00:24:44: Und das kann man natürlich auf andere Anlässe,
00:24:46: die nicht ganz so tragend sind, übertragen.
00:24:48: Wenn man einmal nicht hingeht irgendwo, ist okay.
00:24:50: Aber wenn man sich mit jemandem verabredet
00:24:52: und andauernd kommt dieses Geschwurbel
00:24:54: oder die Uhrzeit, die man festlegt,
00:24:56: die wird nicht eingehalten, sondern permanent überzogen.
00:24:58: Und jedes Mal zehn Minuten vorher geht die Diskussion los,
00:25:00: ob man nicht später kommen kann oder so.
00:25:02: Dann fragt man sich,
00:25:04: ob man das überhaupt noch will.
00:25:06: Ich gebe dir da vollkommen recht.
00:25:08: Wir driften ein klein wenig von dem Thema ab.
00:25:11: Ich spanne mal den Bogen zurück,
00:25:13: denn das, was du sagst, passt sehr gut
00:25:15: zu einer anderen extrem wichtigen Thematik in dieser Gesellschaft,
00:25:18: die, wie ich finde, auch extrem stark
00:25:20: mit Datenschutz zusammenhängt,
00:25:22: weil sie extrem stark mit der Art und Weise zusammenhängt,
00:25:25: wie wir heutzutage und wo wir heutzutage
00:25:27: welche Form von Informationen aufnehmen
00:25:29: oder mit ihnen konfrontiert werden
00:25:31: und wie wir damit interagieren.
00:25:33: Dann haben wir auch den Bogen wieder zurück zu TikTok,
00:25:36: weil da interagieren wir mit Informationen
00:25:38: und mit einer Geschwindigkeit,
00:25:40: die die Informationen auf uns einprasseln,
00:25:42: die uns eben auch bestimmte Effekte
00:25:44: psychologisch betrachtet in unserem Kopf auslösen.
00:25:47: Was ich also sehr spannend fände,
00:25:49: also ich würde sehr, sehr gerne über diese gesamte Thematik
00:25:51: Missinformation im Internet
00:25:53: oder überhaupt Informationsaufnahme
00:25:55: im digitalen Zeitalter des 21. Jahrhunderts
00:25:57: können wir gerne mal beim nächsten Mal drüber sprechen.
00:26:00: Und ich denke, das ist auch etwas,
00:26:02: was wir vielleicht serienmäßig fortführen können,
00:26:05: weil da kann man nicht,
00:26:07: also da kann man auch mehrere Jahre drüber reden,
00:26:09: über diese Thematik, besonders wir beide.
00:26:11: Du hast vollkommen recht.
00:26:13: Also wo ich dir wirklich recht geben muss,
00:26:15: das ist ja nicht nur bei TikTok,
00:26:17: du hast ja Instagram, das kenne ich nicht,
00:26:19: weil ich nicht nutze,
00:26:21: man hat es vielleicht einmal aus Versehen aufgerufen,
00:26:23: interessiert mich auch nicht, muss ich sagen.
00:26:25: Facebook bin ich nicht mehr drauf.
00:26:27: Aber es ist tatsächlich so,
00:26:29: insbesondere bei diesen mobilen Spielen,
00:26:31: also auf dem Tablet oder Handy,
00:26:33: diese Werbung, man bezahlt ja sozusagen
00:26:35: bei vielen Spielen nicht mit Geld,
00:26:37: sondern mit Werbung.
00:26:39: Und ich merke das manchmal,
00:26:41: irgendwann denke ich, jetzt reicht es mir einfach,
00:26:43: ich habe andere Dinge in meiner Freizeit zu tun,
00:26:45: als mich die ganze Zeit diesem Gerät zu unterwerfen.
00:26:47: Ich meine, jetzt mal rein wirtschaftlich betrachtet,
00:26:49: das mag beim Angestellten
00:26:51: ein klein bisschen anders sein als beim Selbstständigen,
00:26:53: trifft aber auch zu.
00:26:55: Die ganze Zeit, die man verschwendet vor so einem Gerät,
00:26:57: die hilft einem nicht,
00:26:59: dass man später im Bericht
00:27:01: ein besseres Leben führt.
00:27:03: Wenn man aber ein bisschen Anstrengung investiert,
00:27:05: dann hat man vielleicht die Möglichkeit,
00:27:07: als Selbstständiger zum Beispiel,
00:27:09: zehn Jahre vorher in Rente zu gehen.
00:27:11: Das wird bei mir wahrscheinlich nicht ganz klappen.
00:27:13: Oder eine bessere Rente zu haben,
00:27:15: mehr Geld zu haben in der Rente,
00:27:17: weil man einfach die Zeit produktiv genutzt hat.
00:27:19: Man muss jetzt auch nicht permanent produktiv sein,
00:27:21: man braucht auch Freizeit.
00:27:23: Aber du wirst mir recht geben, dieser Second Screen,
00:27:25: der ist ja im Leben schon verankert.
00:27:27: Man macht den Fernseher an, gleichzeitig hat man sein Tablet an
00:27:29: und guckt dann fünf Stunden abends auf zwei Bildschirme.
00:27:32: Das kann ja nicht das Ziel des Lebens sein.
00:27:34: Es ist auf jeden Fall ein relativ trauriges Ziel eines Lebens,
00:27:41: wenn das das Ziel wäre.
00:27:43: Ich stimme dir absolut zu.
00:27:45: Lass uns darüber ausführlich in der nächsten Folge sprechen
00:27:47: und mal gucken, ob daraus nicht vielleicht
00:27:49: so ein ongoing revival Muster wird, so ein Evergreen.
00:27:53: Weil das ja wirklich ein Ding ist,
00:27:55: das entwickelt sich ja auch weiter.
00:27:57: Ich meine, wir entwickeln uns weiter
00:27:59: und entwickeln sich die Technik weiter
00:28:01: und wir müssen halt immer gucken, wie wir damit übereinkommen.
00:28:04: Der Punkt, den du gerade gebracht hast, den finde ich super spannend.
00:28:07: Also die Zeit, ich bezahle ja quasi mit Zeit.
00:28:09: Und das finde ich so als Abschluss für dieses Thema,
00:28:11: weil genau darum ging es ja bei dem TikTok-Verbot.
00:28:13: Super genial, weil hier wurde ja ein Riegel vorgeschoben,
00:28:17: wurde gesagt, pass auf, ihr versucht die Leute dazu zu zwingen,
00:28:21: mehr Zeit auf eurer Plattform zu verbringen,
00:28:24: als sie es ohnehin schon tun,
00:28:26: weil ihr es attraktiv macht,
00:28:28: weil ihr ihnen einen Mehrwert dafür gibt,
00:28:31: dass sie sich länger auf der Plattform aufhalten,
00:28:33: über die einfache Informationsaufnahme hinaus.
00:28:38: Wie wir mit Informationen umgehen, wie wir die einsetzen,
00:28:41: was die für Auswirkungen auf unseren Kopf
00:28:43: auch psychologisch betrachtet haben,
00:28:45: was es da für Erkenntnisse gibt,
00:28:47: können wir in der nächsten Folge dann beide genau besprechen
00:28:49: und gehen auch nochmal auf dieses Thema
00:28:51: mit den Nachrichten und den Freundschaften
00:28:53: und das Gefühl für eine Freundschaft,
00:28:55: die daraus resultiert, darauf ein.
00:28:56: Weil das ist wirklich ein Thema,
00:28:57: da habe ich unglaublich viele interessante Beiträge
00:29:00: schon zu hören dürfen,
00:29:02: die auch meine Perspektive sehr stark verändert haben.
00:29:05: Was wir auf jeden Fall merken oder festhalten können
00:29:08: von unserer Diskussion jetzt und der Situation
00:29:10: mit dem Digital Services Act und TikTok ist, finde ich,
00:29:13: dass der Digital Services Act, na ja,
00:29:15: zumindest schon mal ein Schritt in eine Richtung ist,
00:29:18: dass wir es schaffen können,
00:29:20: ein bisschen dieser verlorengegangenen,
00:29:22: wie du sie beschrieben hast, Kontrolle darüber,
00:29:24: was tue ich mit meiner Zeit
00:29:26: und wem unterwerfe ich mich, so hast du es gesagt,
00:29:29: ich finde es ein sehr gutes Wort,
00:29:31: zu welcher Zeit, um daraus welches Ergebnis zu bekommen
00:29:35: und was bedeutet das eigentlich für mich und mein Leben?
00:29:37: Ich meine, wir haben unter unseren Zuhörern bestimmt Leute,
00:29:40: die Kinder haben und die sich mit dieser Thematik
00:29:43: eben auch nochmal vielschichtig auf einer anderen Ebene auseinandersetzen müssen.
00:29:46: Nicht nur, wie gehe ich selbst damit um,
00:29:48: welches Vorbild stelle ich da,
00:29:50: sondern eben auch, wie mache ich meinen Kindern klar,
00:29:52: dass wenn sie mich als positives Vorbild,
00:29:54: nehmen wir dich zum Beispiel,
00:29:56: und du hättest Kinder, wärst du ein positives Vorbild
00:29:58: im Umgang mit diesen Diensten, würde ich jetzt sagen,
00:30:00: weil du sie sehr bewusst analysierst,
00:30:02: verstehst und dann einsetzt
00:30:04: oder eben auch bewusst nicht einsetzt.
00:30:06: Das wirkt sich auf Kinder
00:30:08: natürlich auch persönlichkeitsstärkend aus
00:30:10: in den Konfrontationen, die die damit
00:30:12: in ihrem Umfeld zum Beispiel in der Schule haben,
00:30:14: wenn dort ungefragt die Leute das einfach alle nutzen,
00:30:16: weil deren Eltern eben nicht so informiert sind.
00:30:19: Also diese ganze Thematik super spannend
00:30:22: und der Digital Services Act scheint ein Weg zu sein,
00:30:25: über den wir zumindest einen Pack anbekommen,
00:30:28: dass wir wirklich gefährliche und schädigende Features
00:30:31: in diesen Plattformen gezielt attackieren können
00:30:34: und eben nicht allgemein versuchen müssen gegen ein Unternehmen
00:30:37: oder einen Service als Plattform dieses Unternehmens vorzugehen.
00:30:41: Ich glaube, das ist ein großer positiver Schritt,
00:30:43: gesetzgebungstechnisch und rechtlich gesehen.
00:30:46: Und über das ganze andere Zeug, was super spannend ist,
00:30:49: darüber gibt's dann mehr in der nächsten Folge, würde ich sagen.
00:30:53: Ja, ein letzter Satz von mir auch noch, ganz kurz.
00:30:56: Ich finde den DSA insofern auch super, muss ich sagen,
00:30:59: also den Digital Services Act.
00:31:01: Er ist ja eine Regulierung, wie es auf Englisch auch heißt,
00:31:03: Verordnung heißt Regulierung,
00:31:05: die aber im Wesentlichen nur auf die großen Anbieter zielt.
00:31:08: Das heißt, genau so muss es sein.
00:31:10: Regulierung ist normalerweise nämlich für die Kleinen schlecht,
00:31:13: weil die Großen es bezahlen können und leisten können.
00:31:15: Aber in dem Fall ist es so, es betrifft nur die Großen in vielen Punkten
00:31:18: und genau so ist es richtig.
00:31:20: Das ist die Chance, dass die gebrochen werden können endlich.
00:31:22: Und endlich lernen, welche Gesetze hier gelten.
00:31:25: Und für die Umsetzung müssen sie auch noch selber bezahlen,
00:31:29: weil das Gesetz nur wegen ihrer Machenschaften erschaffen werden musste.
00:31:33: Das ist ein komplettes Wealth-System, wenn du so möchtest.
00:31:36: Genau so muss es sein.
00:31:38: Man muss die Verbrecher dafür bezahlen lassen,
00:31:40: dass sie selbst reguliert werden,
00:31:42: damit sie weniger Verbrechen begehen können.
00:31:44: Genau so muss es sein und deswegen hoffe ich auch,
00:31:47: dass die Rechtsprechung an der Stelle stark genug ist
00:31:49: und unser Rechtsverständnis vernünftig genug ist.
00:31:52: Dass wir das so umsetzen können mit diesen Plattformen,
00:31:55: mit diesen großen Plattformen.
00:31:57: Dadurch würde wirklich mal Bewegung auch in den Markt kommen.
00:32:00: Und ja, dann beim nächsten Mal wissen jetzt alle schon Bescheid.
00:32:03: Wir werden die Diskussion weiterführen über die Art von Informationsaufnahme
00:32:07: und die Auswirkungen, die das hat
00:32:09: und wie wir vielleicht ein bisschen mehr Souveränität und Autonomität
00:32:13: in diesem digitalen Zeitalter für uns selbst gewinnen können.
00:32:16: Und ja, ich hoffe, allen Leuten hat es Spaß gemacht.
00:32:19: Ich habe eine Menge gelernt.
00:32:21: Ich hoffe, Klaus, dass du dich mal wieder
00:32:23: in die Gesetzestexte eingelesen hast und mich darüber informiert hast,
00:32:26: sodass ich nur kurze Blogartikel lesen musste.
00:32:29: Das ist super hilfreich und ich danke dir sehr, sehr dafür.
00:32:33: In diesem Sinne vielen Dank, Klaus, für dieses Gespräch.
00:32:36: Liebe Zuhörer da draußen, ich wünsche euch noch einen schönen Tag
00:32:39: und wir hören uns dann hoffentlich nächste Woche wieder.
00:32:42: Tschüss. Ciao, ciao.
00:32:44: Das war Datenschutz Deluxe.
00:32:46: Du willst mehr spannende Themen oder Kontakt zu uns?
00:32:50: Suche Klaus Meffert auf seinem Blog Dr. DSGVO
00:32:54: und Stephan Plesnik auf seinem YouTube-Kanal Datenschutz ist Pflicht.
00:32:58: Bis zum nächsten Mal.
Markus
‧