#34 Chatbots nutzen: Wofür und wofür besser nicht?
Shownotes
Der Podcast rund um das Thema Datenschutz und IT. Mit Dr. Klaus Meffert und Stephan Plesnik.
34 Chatbots nutzen: Wofür und wofür besser nicht?
Chatbots wie ChatGPT oder auch Google Bard erfreuen sich zunehmender Beliebtheit. Manche denken sogar darüber nach, dass Gerichte sich Klageschriften von ChatGPT zusammenfassen lassen sollten. Andere Anwendungsfälle erscheinen unkritischer, weil sensible Daten oder Unzuverlässigkeit von Antworten weniger problematisch sind.
Wann treten rechtliche Probleme auf und wie lassen sie sich vermeiden? Darüber sprechen wir in der aktuellen Episode von Datenschutz Deluxe.
Feedback geben? Fragen stellen? Gerne hier:
https://dr-dsgvo.de
Videokanal von Stephan: https://www.youtube.com/datenschutzistpflicht
Impressum:
https://dr-dsgvo.de/impressum
Inhaltlich verantwortlich ist jeder der Sprecher für seine eigenen Äußerungen.
Transkript anzeigen
00:00:00: Ja, hallo liebe Zuhörer des Datenschutz-Deluxe-Podcasts. Mein Name ist Stephan Plesnik und ich begrüße
00:00:18: euch ganz recht herzlich zu dieser neuen Folge. Mit dabei ist wie immer mein Partner
00:00:23: in Crime, Dr. Klaus Meffert. Und ich begrüße auch dich, Klaus. Wie geht es dir heute Morgen?
00:00:28: Stephan, hallo. Schön, dass wir wieder sprechen. Immer, wenn wir uns unterhalten, geht es mir
00:00:32: natürlich sehr gut und ich bin gespannt auf unser heutiges Thema.
00:00:35: Ja, wunderbar. Bei so einer schleimenden Einleitung können wir ja nur ein perfektes
00:00:41: Thema auswählen. Und zwar haben wir uns überlegt, wir reden heute mal über Chatbots und den
00:00:47: damit verbundenen Datenschutz. Das ist im Übrigen ein Thema, was ich schon vor,
00:00:52: ich weiß nicht, es ist schon ein paar Jahre her, dass ich das auf meinem YouTube-Channel
00:00:57: thematisiert habe. Und deswegen bin ich jetzt mal sehr gespannt, Klaus, was ist eigentlich
00:01:02: deine allgemeine Einstellung zu den Chatbots? Also wie wirken die auf dich als Person? Und
00:01:07: dann natürlich auch die datenschutzrechtliche Einschätzung, wo du da vielleicht Probleme siehst?
00:01:12: Ja, sehr gute Frage. Also grundsätzlich sind natürlich die Entwicklungen ganz enorm. Erstes
00:01:18: Beispiel ist ja ChatGPT. Da hat dann spätestens jeder gemerkt in Deutschland Anfang dieses Jahres,
00:01:23: dass künstliche Intelligenz ein neues Thema ist. Die Erfindung des Feuers so ungefähr,
00:01:27: ja, war jetzt Version 2.0. Also natürlich ganz erstaunliche Fähigkeiten. Touring-Test,
00:01:35: meiner Meinung nach, ganz eindeutig bestanden. Also es gibt keinen Unterschied mehr in vielen
00:01:39: Anwendungsfällen zwischen Mensch und Maschine. Die Maschine sogar, muss man ehrlicherweise sagen,
00:01:43: teilweise deutlich besser in nicht sehr abgegrenzten Bereichen, also weitgehenden
00:01:47: Bereichen, Frage-Antwort-Maschine, Zusammenfassung von Texten und so weiter. Aber wer die Technik ein
00:01:53: bisschen kennt, und das tue ich, der weiß, und das ist das Erstaunliche natürlich auch,
00:01:58: dass KI sich genauso wie ein Mensch verhält. Das heißt, KI ist genauso unzuverlässig wie
00:02:03: ein Mensch. Und der Unterschied ist, dass es bei Menschen eben hoch spezialisierte Modelle gibt,
00:02:09: im Gegensatz zu Chatbots, die der Allgemeinheit zur Verfügung stehen. Die sind nämlich nicht
00:02:13: hoch spezialisiert, sondern generelle Intelligenzen, die vieles können, aber alles nicht super und
00:02:20: sind auch nicht 100% zuverlässig, genau wie der Mensch nicht. Aber der Spezialist,
00:02:23: den sich kaum jemand leisten kann, der ist dann vielleicht doch noch zuverlässiger. Und das
00:02:28: Problem ist, dass diese Chatbots eben von jedem verwendet werden können, teilweise auch kostenlos,
00:02:33: und jeder natürlich diese nutzt und denkt, die Antworten, die da rauskommen, sind richtig. Und
00:02:38: ich muss mir jetzt weniger Arbeit machen. Ich habe jetzt zuletzt gelesen, da wurde vorgeschlagen,
00:02:44: zumindest, dass Gerichte sich die Klageschriften usw. zusammenfassen lassen sollen von Chatbots
00:02:50: und die dann verwenden sollen. Das halte ich für eine sehr schlechte Idee. Und wer sowas
00:02:53: vorschlägt, der ist in einer gewissen Weise auch dumm, muss ich sagen, weil ich finde,
00:02:57: es ist einfach eine Unverschämtheit, diese angebliche Komfortverbesserung zu verwenden,
00:03:02: um dann eine erhöhte Unzuverlässigkeit in bestimmte Prozesse reinzubringen, die hoch
00:03:07: kritisch sind. Also, wo man Chatbots verwenden kann, ist natürlich im privaten Bereich. Wenn
00:03:11: ich irgendwelche Anfragen habe, allgemeine Art, da können wir noch drüber reden, macht es
00:03:15: dann nicht Sinn, einfach eine Suchmaschine zu verwenden. Aber es gibt durchaus im privaten
00:03:19: Bereich viele Fälle, wo man das mal machen kann. Aber im Unternehmensumfeld sehe ich da oder bei
00:03:23: Gerichten sehe ich da teilweise andere Systeme als Vorzug. Vor allem, wenn wir über Chatbots
00:03:29: von Dritten sprechen, wie ChatGPT, Googlebot. Mich würde interessieren, wofür nutzt du denn
00:03:34: eigentlich Chatbots, wenn ich dich jetzt mal so fragen darf und die Rolle umkehren darf,
00:03:38: sozusagen. Das würde mich mal sehr interessieren. Ja, also wofür ich Chatbots nutze. Also,
00:03:43: ich habe natürlich in der Anfangsphase von ChatGPT, weil das ja so ein Megahype war,
00:03:47: dann musste man sich das ja natürlich auch mal angucken. Da habe ich auf jeden Fall mit
00:03:52: ChatGPT zum größten Teil getestet, könnte das helfen, zum Beispiel beim Verfassen von
00:03:58: Videoskripten oder beim Erstellen von Blogartikeln. Und habe dann sehr, sehr schnell festgestellt,
00:04:04: dass wenn ich dem sehr, sehr spezielle Informationen gebe zu einem Thema, wozu ich
00:04:09: zum Beispiel ein Videoskript haben möchte, dass ich ihm sogar die Aufgabe gestellt habe,
00:04:15: den Stil, den Sprachstil meiner Videos als Grundlage zu nehmen. Und dabei habe ich festgestellt,
00:04:22: was das Ding eigentlich macht, ist Abstract for Abstract, Word for Word, irgendwas von
00:04:29: vorhandenen Blogartikeln zu kopieren. Also, es war überhaupt nichts Neugeneriertes,
00:04:33: sondern das Einzige, was quasi Neugeneriert war, wenn du so möchtest, war das Gesamtergebnis,
00:04:38: weil es eine andere Zusammenstellung von Inhalten war, die aber eigentlich essentiell von anderen
00:04:44: Blogs kopiert waren. Also, ich habe dann wirklich mal den Test gemacht und habe einen kompletten
00:04:48: Absatz, den mir ChatGPT gegeben hat, zurück in Google eingegeben und habe sofort beim ersten
00:04:55: Suchergebnis die Webseite gefunden, auf der exakt dieser Abschnitt stand. Also, da war nichts
00:04:59: Neugeneriert, da war keine Intelligenz hinter, sondern das war einfach nur, wenn du so möchtest,
00:05:04: nichts weiter als ein Parametervergleich in der Datenbank und dann das Ausspucken von vorhandenen
00:05:09: Informationen, die bereits eingelesen wurden. Okay, sehr interessant. Also, ich sage mal so,
00:05:14: ich will jetzt ChatGPT nicht verteidigen, aber ich habe durchaus auch schon Ergebnisse gesehen,
00:05:17: wo ich jetzt sagen würde, die sind neuartig. Also, das würde ich schon sagen. Es kann durchaus sein,
00:05:23: dass es Fälle gibt oder Anwendungsfälle an sich, Klassen von Problemen, wo Zitate zurückkommen oder
00:05:29: Satzteile, Teile von Sätzen, die es anderswo gibt, wie du gesagt hast. Dieses Aufnehmen der
00:05:35: vorgegebenen Sprechweise oder Zuhörers oder Lesers sozusagen, das denke ich, funktioniert auch mit
00:05:42: eigenen Worten, aber die Zuverlässigkeit sinkt. Also, ich sage mal so, Kreativität und Zuverlässigkeit
00:05:47: sind zwei Gegensätze, die nicht zusammenkommen. Das heißt, man kann sich überlegen, will ich
00:05:52: entweder eine besonders kreative Antwort haben oder eine besonders zuverlässige Antwort, aber
00:05:56: beides gleichzeitig geht nicht. Und da sind wir, glaube ich, auch schon beim, du hast ja auch schon
00:06:00: Anwendungsfälle jetzt genannt, es gibt ja durchaus Fälle, wo man Chatbots verwenden kann, ohne dass
00:06:05: daraus ein rechtliches Problem oder ein Datenproblem entsteht. Personenbezogene Daten,
00:06:09: Geschäftsgeheimnisse und so weiter, vertrauliche Daten sind ja nicht immer da. Und es geht auch
00:06:14: nicht immer um exakte Antworten. Wenn ich jetzt zum Beispiel über Bildgenerierung nachdenke,
00:06:19: ist jetzt kein Chat, dann ist das Ergebnis, ich sage jetzt mal, beim Bild gibt es jetzt nicht so
00:06:23: die Art von Zuverlässigkeit wie beim Text. Wenn man Menschen generieren lässt, dann wäre es schön,
00:06:26: wenn die Hand natürlich aussieht und fünf Finger hat und nicht nur drei. Aber ansonsten, wenn das
00:06:30: alles so ungefähr so aussieht wie ein Mensch, was ja heute schon super funktioniert, dann kann man
00:06:35: sagen, hat es funktioniert. Beim Text auch diese kreativen Werbebotschaften, da kann ich mir schon
00:06:39: vorstellen, dass es eine Erleichterung ist, weil irgendjemand nimmt ja dieses Ergebnis und verfeinert
00:06:45: es dann noch ein bisschen auch. Es gibt ja nicht unreflektiert irgendwelche Ausgaben des Chatbots
00:06:50: direkt auf die Webseite als Werbebotschaft, das macht ja keiner hoffentlich, sondern guckt dann
00:06:54: vielleicht noch mal drüber. Was wir auch mal gemacht haben, ich habe es für den Kunden gemacht,
00:06:58: über die Schnittstelle von ChatGPT, ist, um Trainingsdaten zu erzeugen für eigene Modelle,
00:07:04: da bin ich auch ein Verfechter von eigenen KIs, lokal laufen lassen, keine Datentransfers zu
00:07:08: dritten. Wenn ich zum Beispiel einen Eingabetext habe und möchte da Varianten haben davon,
00:07:13: dann kann ich mir von ChatGPT sowas generieren lassen. Natürlich reden wir jetzt bei den
00:07:18: Eingabetexten nicht über Texte über Personen oder Sonstiges, sondern einfach lapidare Texte.
00:07:24: Es können auch Fragen sein, da kann ich mir schon Synonyme generieren lassen. Ich muss mir
00:07:28: natürlich das Ergebnis auch anschauen, weil manchmal passt es auch nicht 100 Prozent, aber in
00:07:31: meisten Fällen schon. Da sehe ich dann schon den Einsatz von Chatbots, aber da, wo die meisten,
00:07:36: wenn man sich mal die sozialen Medien anguckt, LinkedIn oder so, den Einsatz sehen, sehe ich
00:07:40: ihn persönlich ehrlich gesagt nicht. Ja, das ist ein spannendes Thema, wo du jetzt gerade auch LinkedIn
00:07:44: erwähnt. Am Anfang hattest du ja gerade eben mal kurz gesagt, von wegen, dass das eben auch Gerichte
00:07:49: und so weiter schon hingehen oder Anwälte und sich davon Klageschriften formulieren lassen.
00:07:53: Bleiben wir doch mal kurz bei diesen beiden Themen, weil ich finde es extrem spannend.
00:07:56: Erstes Thema, Formulieren von Klageschriften in Bezug auf den Datenschutz. Normalerweise haben
00:08:02: wir in Klageschriften, wenn ich die so wie ich die kenne, haben wir den Vermerk und den
00:08:07: Personenbezug im Endeffekt nur in der Einleitung, wo die beiden Klageparteien sozusagen erwähnt
00:08:14: werden. Wer gegen wen und was ist der Gegenstand? Sonst wird ja meistens nur generisch von die
00:08:21: Beklagte und die Klagende gesprochen als Parteien, die verteidigt werden. Jetzt ist es aber ja nun
00:08:26: mal so, in dem Dokument steht ja am Anfang dann drin, wer sind denn diese Parteien? Die werden
00:08:30: ja identifiziert. Und da, denke ich, ist ja alleine schon der Punkt gegeben, hier müsste ja eigentlich
00:08:37: der Anwalt, der diese Klageschrift verfassen lässt und das mit Hilfe eines Chatbots wie zum
00:08:43: Beispiel ChatGPT tut, tendenziell erst mal die Einwilligung holen und die vollständigen
00:08:49: Rattenschwanzgedönse der Aufklärung bezüglich der Verwendung personenbezogener Daten durch
00:08:54: US-amerikanische Unternehmen und so weiter und so fort demjenigen geben. Also diese
00:08:58: Einwilligungspflicht ist ja an der Stelle auf jeden Fall gegeben, weil wir personenbezogene
00:09:02: Daten haben. Auf der anderen, da kann ich mir sogar vorstellen, dass das passiert. Also wenn
00:09:08: ich mir jetzt denke, jemand geht zu einem Anwalt, weil er eine Klage formulieren möchte und so
00:09:12: weiter, dann kann ich mir sehr gut vorstellen, dass diese Information passiert.
00:09:16: Die Frage ist, gibt es einen Anwalt, der überhaupt eine Klageschrift verfasst? Ich hatte ein anderes
00:09:22: Beispiel, aber kennst du jemanden, der eine Klageschrift mit einer KI verfasst?
00:09:25: Nee, ich persönlich nicht. Ich habe nur auch schon davon gehört, dass eben auch in Berichten
00:09:31: sozusagen erzählt wurde, dass sowas getestet wurde und auch getestet wurde, ob zum Beispiel
00:09:37: Gerichtsurteile, die gesprochen wurden mit der Unterstützung, was KI in der Auswertung der
00:09:43: Sachlage angeht, eben zum Beispiel gezeigt werden konnte, was ich sehr beeindruckend fand, dass die
00:09:49: KI bei Falschverurteilungen eine wesentlich geringere Negativquote hatte, was falsche
00:09:58: Verurteilungen angeht. Weil die KI eben nicht, und das haben die dann sehr viel darauf zurückgeführt,
00:10:04: dass zum Beispiel die Uhrzeit am Tag und der Tag in der Woche sehr stark dazu beiträgt, wie Richter
00:10:11: bestimmte Urteile sprechen. Jetzt muss ich dazu nur sagen, das sind alles Informationen, die aus
00:10:16: Amerika kommen. Also da ist ein ganz dicker Disclaimer dran. Ich weiß, unser Rechtssystem ist
00:10:21: halt vielleicht ein bisschen anders aufgestellt. Ich weiß nicht, ob wir davor gefeit sind, ob es
00:10:25: da wirklich so viele Prozesse gibt, die so viel besser sind im Detail. Und weil ich das nicht
00:10:29: weiß, sage ich dazu, das sind Informationen, die habe ich eben aus Blogartikeln, die die
00:10:33: amerikanische Seite behandelt haben und da eben in Studien das versucht haben zu erheben.
00:10:40: Ja, aber mit den 10 Uhr morgens oder so, das habe ich auch schon gelesen. Ich weiß nicht, welches
00:10:44: Land das war, ob es Amerika war oder Deutschland. Spielt ja auch keine Rolle.
00:10:46: Ja, genau das.
00:10:47: Aber vielleicht zwei Sachen dazu. Das eine ist, was richtig und falsch ist. Man regt sich natürlich
00:10:54: über manche Urteile auf und da sind glaube ich 99 Prozent der Deutschen der Meinung, das ist ein
00:10:57: falsches Urteil vielleicht. Aber die Frage ist, was ist richtig und falsch? Ist es so, dass der
00:11:01: Richter tatsächlich falsch geurteilt hat anhand des bestehenden Rechtes? Oder hat er vielleicht
00:11:06: das bestehende Recht einfach nur richtig angewandt und es kam was bei raus, wo jeder sagt, es ist
00:11:09: falsch. Aber dann liegt es eben an den Gesetzen. Also ich hatte ja auch schon einen Fall, da hat
00:11:15: der Richter einfach die Akte nicht gelesen. Da kann man natürlich dann schon vom falschen Urteil
00:11:18: sprechen. Aber solange das nicht von der höchsten Instanz in Deutschland bestätigt wurde, ist es
00:11:22: formal eben kein falsches Urteil. Also unter uns ist es dann vielleicht klar, aber was ist schon
00:11:28: richtig und falsch, das kann man irgendwie gar nicht richtig sagen. Aber der Punkt, den du genannt
00:11:32: hast, diese Zusammenfassung von Ergebnissen, also von Urteilen zum Beispiel oder auch von
00:11:38: Klageschriften. Was ich gelesen hatte, dass jemand vorschlägt, dass Gerichte Klageschriften sich
00:11:43: zusammenfassen lassen können über eine KI, über eine Chats GPT zum Beispiel und haben dann weniger
00:11:48: Arbeit. Das halte ich für grob fahrlässig Unsinn, muss ich sagen. Wer sowas vorschlägt, hat einfach
00:11:54: keine Ahnung oder nicht genug ausprobiert, wie Chatbots funktionieren. Der hat vielleicht 20
00:11:58: mal einen Prompt eingegeben oder vielleicht 100 Mal. Allerdings nicht für juristische Texte,
00:12:02: 100 Mal, sondern für irgendwas. Und dann meint derjenige, dass eine KI zuverlässig funktioniert.
00:12:09: Er hat ein Beispiel genannt und da meint er, weil das richtig ist. Möglicherweise hat er es gar
00:12:13: nicht richtig durchgelesen. Wäre das eine Empfehlung? Also halte ich für groben Unsinn.
00:12:17: Man muss einfach sagen, juristische Texte sind erst mal ungleich dem Text, den ein normaler Mensch
00:12:22: schreibt. Wenn man sich Urteile zum Beispiel anschaut oder juristische Klageschriften.
00:12:26: Stephan, da sind wir uns, glaube ich, einig. Das Vokabular ist erstmal ein komplett anderes.
00:12:30: Außerdem ist die Satzlänge deutlich länger als bei normalen Texten. Und wenn man jetzt noch
00:12:38: berücksichtigt, dass Chat GPT zum ganz kleinen Prozentsatz nur auf deutsche Texte trainiert
00:12:43: wurde und von diesem kleinen Prozentsatz noch viel weniger juristische Texte sind. Dann sind
00:12:49: immer noch sehr viele Texte, aber eben viel, viel weniger als für alle anderen Gebiete,
00:12:53: Englisch und Deutsch allgemein. Dann weiß man, dass diese KI nicht besonders gut trainiert ist
00:12:59: auf diese Texte. Und das muss man einfach wissen, wenn man so ein Chatbot verwendet.
00:13:02: Ja, definitiv. Absolut. Gebe ich dir vollkommen recht. Besonders auch,
00:13:08: da hängt ja auch noch der Rattenschwanz insofern dran, als dass diese Sätze,
00:13:13: die dort formuliert werden, sind ja im Normalfall höchstgradig verschachtelt und bieten super viele
00:13:19: Eventualitäten und Ausschlüsse innerhalb desselben Satzes, damit eben die Aussage sehr präzise ist.
00:13:25: Und das ist genau ein Punkt. Präzise Aussagen, finde ich, kann ich wirklich einem, zumindest
00:13:33: einem ChatGPT in der aktuellen Version nicht zusprechen. Also die Aussagen haben sehr,
00:13:38: sehr häufig extrem vage Formulierungen, die extrem vage bestimmte Dinge umreißen. Aber eine
00:13:45: wirklich präzise Beschreibung, so wie es eben auch in einem juristischen Text, wie du gerade
00:13:48: sagtest, auch absolut notwendig ist. Das sehe ich da absolut nicht. Ich wollte mal kurz auf
00:13:56: den Punkt kommen. Du hattest gerade schon mal angesprochen, Leute, was man bei LinkedIn und
00:14:00: so weiter liest über die Nutzung von solchen Chatbots. Da habe ich letztens was gesehen und
00:14:04: das fand ich sehr spannend, weil da geht es hauptsächlich um das Thema personenbezogene
00:14:08: Daten, zumindest aus meiner Perspektive. Und zwar hat da jemand, der irgendwie Sales-
00:14:15: Automatisierungen für Unternehmen anbietet, einen Test gemacht und hat geguckt, ob die
00:14:20: Sprachrückgabe-Funktion, dieser Sprachassistent von ChatGPT, der jetzt neu ist oder zu dem Zeitpunkt
00:14:26: wenn es neu war, wie gut der funktioniert. Und hat im Endeffekt wirklich, also hat sich dabei
00:14:32: gefilmt, wie er einen Cold Call bei einer unbekannten Person macht. In dem Video von
00:14:37: LinkedIn hat er richtigerweise immer dann, wenn die Person, die dort zu hören ist über das
00:14:45: Telefonat, die Informationen ausgebliebt, wenn es um eine Identifizierbarkeit dieser Person ging.
00:14:51: Das heißt, außer der Stimme als Merkmal, sage ich mal, ist es nicht möglich, über das Video die
00:14:56: Person zu identifizieren, die angerufen wurde. Aber es ist halt interessant, weil im Video sieht
00:15:01: man und hört man, dass diese Person ihre personenbezogenen Daten mit diesem Chatbot tauscht
00:15:08: und in keiner Form, und das ist das Wichtige, weil das ist ja das Experiment, in keiner Form
00:15:13: darüber informiert wird, dass er gerade mit einem Chatbot redet. Und das bis zum Ende des Gesprächs
00:15:19: nicht. Also er hat das gemacht, inklusive bis zu dem Moment, wo er auflegt. Und da habe ich dann
00:15:24: gedacht, das ist ein 1A-Beispiel an alle Unternehmen, wie man das auf keinen Fall machen darf. Weil hier
00:15:32: haben wir eine Datenübertragung personenbezogener Daten, ohne die Information, was mit den Daten
00:15:38: gemacht wird, ohne die Information, dass man diese Daten gerade nicht mit der Person teilt, die der
00:15:43: Chatbot vorgibt zu sein. Denn das ist ganz wichtig. Also der Chatbot hat sich als die Person selbst
00:15:49: ausgegeben. Und dann geht man noch hin und überträgt das an ein US-amerikanisches Unternehmen,
00:15:56: dass das wiederum als Trainingsdaten verwendet und als eigene Veröffentlichung im Statement sagt,
00:16:01: es ist uns nicht möglich, zuverlässig personenbezogene Daten aus den Trainingsdaten zu
00:16:05: filtern. Ja, das kann ja auch niemand. Also muss man tatsächlich sagen, vielleicht komme ich zu
00:16:10: deinem Punkt da nochmal zurück mit dem Urteil oder Klageschrift. Also es stimmt natürlich, was du
00:16:15: sagst, dass am Anfang Kläger und Beklagte genannt sind und das muss man natürlich anonymisieren. Das
00:16:20: wäre ja noch einfach, wenn man weiß, ganz am Anfang steht nur was und das lösche ich einfach oder
00:16:24: mache es XY draus und dann ist es erledigt. So ist es ja nicht, weil wenn jetzt irgendein Rechtsfall
00:16:29: ist, der in einer bestimmten Stadt spielt sozusagen, dann wird die Stadt ja genannt in der
00:16:34: Ursprungsschrift. Die muss ja dann auch rausgenommen werden oder es geht um eine Adresse. An der
00:16:39: Adresse so und so ist das Auto in das andere Auto reingefahren. Ja, dann wird das natürlich auch,
00:16:42: wenn es anonymisiert wird, rausgelöscht und da hat man sehr viel zu tun mit Daten rauslöschen
00:16:47: oder wenn irgendwas, ein Zitat wiedergegeben wird, zum Beispiel jemand beleidigt einen anderen. Ja,
00:16:51: es gibt ja durchaus Schimpfworte, die regional sind. Ja, sie werden besonders häufig, das ist
00:16:57: auch schon eine Eingrenzung. Alleine ein Schimpfwort ist jetzt kein Personenbezug,
00:17:01: aber wenn ich drei, vier, fünf Datenwerte zu einer Person habe und eine ist eine Einschränkung auf
00:17:05: Unterfranken, dann reduziert sich der Personenkreis immer weiter und irgendwann kann man schon vom
00:17:11: Personenbezug sprechen. Und die Frage ist, wer erkennt eigentlich, ob da personenbezogene Daten
00:17:16: da sind und das erkennt man erst mal nicht. Sogar der Mensch erkennt es nicht ohne weiteres. Und
00:17:19: diese, wir hatten ja schon darüber gesprochen, Stephan, in einer der vorigen Folgen, angebliche
00:17:26: Anonymisierungslösungen sind einfach keine Lösungen. Sie können höchstens, ich sage mal 90,
00:17:30: maximal 95 Prozent Zuverlässigkeit erreichen. Das heißt, ich drücke auf den Knopf und am Ende ist
00:17:35: alles anonymisiert. Das ist ein Wunschraum, der nie in Erfüllung gehen wird, außer die
00:17:38: Definition von personenbezogenen Daten wird verändert. Ja, absolut. Das, was du gerade
00:17:45: ansprachst, selbst wenn es nur um eine Beleidigung geht oder so. Gehen wir mal davon aus, jemand
00:17:50: beschimpft mich auf offener Straße und sagt, Plastik, du alte Sau oder du dreckige Sau. Dann
00:17:56: ist das ja die Beschimpfung. Die tritt ja dann in der Klageschrift auch wieder auf, weil es der
00:18:00: inhaltliche Gegenstand der Klage ist. Dementsprechend, da steht ja der Personenbezug drin. Woher soll
00:18:06: ChatGPT oder irgendeine KI aus diesem Satz erkennen, dass Plastik ein Name ist? Das könnte
00:18:14: auch ein Objekt sein oder ein Gegenstand oder der Eigenname von irgendeiner Sache, wo ChatGPT
00:18:21: einfach nur denkt, das habe ich halt bisher noch nicht gelernt, in welchem Bezug das zu
00:18:25: irgendetwas steht. Und nur weil das mal in Bezug zu einem anderen Namen steht, heißt es ja auch
00:18:30: nicht, dass es automatisch Teil des Namens ist und damit personenbezogene Daten darstellt. Es
00:18:35: kann ja auch eine wahllose Aneinanderordnung von Informationen sein, die ChatGPT an einer
00:18:40: anderen Stelle aufgreift, wo das eben anders kombiniert ist. Und all diese Faktoren oder
00:18:44: auch ganz einfach, gehen wir mal davon aus, man hat jetzt nicht so einen exotischen Nachnamen wie
00:18:48: ich, der in Deutschland, glaube ich, nur zweimal, also nur bei meinen Familienmitgliedern direkten
00:18:52: vorkommt, sondern du heißt Müller oder du heißt Meier. Das ist eine Berufsbezeichnung aus der
00:18:59: Altdeutschen, aus dem Mittelhochdeutschen. Dementsprechend kann ChatGPT ja nicht wissen,
00:19:04: dass es gerade nicht um eine Person geht und nicht um die Berufsbezeichnung.
00:19:08: Und bei Müller übrigens auch ein Firmenname. Wenn es um eine Firma geht, Mercedes-Benz
00:19:14: Mitarbeiter, dann wäre es Unsinn, dir das rauszunehmen.
00:19:16: Ja, genau. Genau diese Probleme. Ich meine, wir hatten ja über dieses Ding hier Nele-AI gesprochen
00:19:24: und ich habe mir das letztens noch mal angeguckt, wie die auch schildern, wie die diesen
00:19:27: Personenbezug eigentlich entfernen wollen. Und es ist halt wirklich wieder mal bezeichnet. Das
00:19:31: fand ich sehr spannend bei der Recherche. Ich habe an keiner Stelle eine Information
00:19:36: darüber gefunden, wie wirklich technisch dieser Vorgang abgebildet werden soll. Also,
00:19:40: wie die sich vorstellen, dass sie diese Prompts eben von diesen Dingen bereinigen,
00:19:45: damit die entpersonalisiert sind, dass der Prompt dann verarbeitet wird und dann später bei der
00:19:50: Rückgabe der Antwort wieder personalisiert wird. Und sie sagen, es gibt Einschränkungen. Das finde
00:19:55: ich halt spannend, weil das sind so hanebüchene Einschränkungen. Also, wenn es möglich wäre,
00:19:59: dass wir personenbezogene Daten vorher herausfiltern können oder dass Chatbots diese
00:20:04: zuverlässig erkennen können und dementsprechend herausfiltern können, dann müsste es für einen
00:20:08: Chatbot unheimlich einfach möglich sein, zu wissen, dass der Name Kim Kardashian ein Name
00:20:13: einer Person des öffentlichen Interesses ist und dass diese Person sich selbstständig entschieden
00:20:18: hat, mit ihrem Namen zum Beispiel Werbung zu machen. Das heißt, dieser Name ist kein
00:20:23: personenbezogenes Datum, was in dem Sinne schützenswert ist, weil diese Person diesen
00:20:28: Namen in der Öffentlichkeit als Synonym für ihre öffentliche Tätigkeit, für ihr Business nutzt.
00:20:36: Wenn sie den Namen ändern würde, würde sie ihr Business verlieren. Dementsprechend können wir
00:20:40: nicht davon sprechen, dass dieser Name in irgendeiner Form für sie geschützt ist,
00:20:44: sodass sie komplett frei damit jetzt entscheiden kann, dass jeder das aus seinen Systemen löschen
00:20:48: muss, weil sie sich nun mal dazu entschieden hat, zu einer Person des öffentlichen Lebens zu werden.
00:20:52: Genauso ist das mit Politikern ja auch. Deren Namen dürfen wir ja auch verwenden,
00:20:56: ohne deren Einwilligung, wenn wir darüber schreiben, weil sie eben Personen des öffentlichen
00:21:01: Lebens sind. Und ich bin der Meinung, ein ChatGPT müsste doch dann imstande sein,
00:21:05: sowas zu erkennen, oder nicht? Ja, du hast vollkommen recht. Also erst mal,
00:21:09: es kommt natürlich auf den Kontext an. Man kann über Olaf Scholz als Bundeskanzler den Namen,
00:21:13: kann man ja erwähnen, mit öffentlichen Informationen verknüpfen, dann ist es,
00:21:16: glaube ich, nicht verboten. Verleumdung wäre was anderes und so weiter. Oder den Namen
00:21:20: verknüpfen mit intimen Kenntnissen, weil man Nachbar ist und irgendwas gesehen hat,
00:21:23: was andere nichts angeht. Das wäre wieder schwierig. Aber grundsätzlich ist es so,
00:21:27: wie du sagst. Der Umkehrschluss wäre ja, wenn es möglich wäre, personenbezogene Daten als solche
00:21:31: zu erkennen, könnten Chatbots ja auch und dann entsprechend damit umgehen. So passiert es aber
00:21:36: ja letztendlich nicht. Also um es nochmal zu sagen, es ist ganz erstaunlich, was da passiert
00:21:42: ist mit der KI und man kann das auch durchaus für viele Fälle nutzen, aber eben nicht für sensible
00:21:48: Daten, die vor allem anderen gehören. Wenn ich meine eigenen Daten da reinlade, das ist mein
00:21:52: Thema, kann ich machen, was ich will, aber Daten von anderen Menschen darf ich nur mit deren
00:21:57: Zustimmung, in den meisten Fällen jedenfalls, hochladen oder muss sie informieren vielleicht
00:22:03: und fragen, ob sie damit einverstanden sind. Und ansonsten bin ich dafür und empfehle es auch,
00:22:09: vor allem für Unternehmen und Organisationen, eigene KI-Systeme aufzubauen. Und da merkt man
00:22:15: sehr schnell, habe ich überhaupt einen Nutzen von solchen KI-Systemen oder nutze ich eine KI
00:22:20: einfach nur als Suchmaschine und da sage ich, ja gut, eine Suchmaschine gibt es schon sehr lange,
00:22:24: die können Sie auch weiterhin nutzen, allerdings dann auch wieder nicht, indem Sie einen Vertrag
00:22:28: reinladen, was ja bei einer Suchmaschine eh nicht geht. Das ist nämlich gerade der Punkt. Eine KI
00:22:33: bietet ja viel mehr Möglichkeiten. Ich kann ein Dokument reinladen, einen langen Text und lasse
00:22:36: es mir zusammenfassen. Das kann ich mit einer Suchmaschine nicht machen. Aber dafür würde ich
00:22:40: dann ein eigenes System nur verwenden wollen oder auch, wenn ich über Gerichte nachdenke,
00:22:44: wenn die eine Zusammenfassung haben wollen, dann würde ich das höchstens über ein lokales
00:22:48: KI-System machen lassen, was auch noch auf juristische Texte feintrainiert wurde. Dann
00:22:52: kann das mit einer relativ hohen Zuverlässigkeit klappen und die Daten sind vor allem in einem
00:22:56: System drin, was man selbst betreibt. Das ist schon mal besser oder überhaupt erst die Voraussetzung
00:23:02: dafür, dass das Ganze funktionieren kann. Wenn ich das in Chats GPT hochlade, wie du auch sagst,
00:23:06: Amerika oder sonst wo, der Anbieter macht damit, was er will, dann sehe ich es für schwierig. Und
00:23:10: noch einen Punkt. Wenn ich lese, dass Chats GPT Enterprise rechtskonform ist, ich sage es mal mit
00:23:17: meinen Worten, und alle Datenschutzgesetze einhält, dann frage ich mich, was ist denn,
00:23:20: wenn ich nicht Enterprise-Version habe? Das Gleiche übrigens bei Microsoft Windows. Da
00:23:26: kann ich viel Geld bezahlen, dass alle möglichen Daten nicht übermittelt werden. Da frage ich mich,
00:23:30: heißt es, dass es dann rechtskonform ist und wenn ich nicht viel Geld bezahle, dann nicht? Also
00:23:35: diese Fragen kann sich jeder stellen. Und vielleicht noch ein letztes dazu. Man kann
00:23:39: mit Chats GPT seit Kurzem eigene GPTs generieren. Das heißt, eigene Trainingsdaten verwenden und in
00:23:45: sehr kurzer Zeit das Modell fein trainieren auf seinen eigenen Anwendungsfall. Da kam jetzt heraus,
00:23:50: wenn du das machst, Stephan, und dein Modell reinlädst in Chats GPT, was zum Beispiel deine
00:23:55: Sprache, deinen Sprachstil nachahmt oder sowas, damit es natürlicher klingt, als hättest du es
00:23:58: geschrieben, dann könnten andere aus Chats GPT diese Informationen rauskitzeln, wenn sie nur
00:24:05: höflich nachfragen. Also Datenleck sozusagen. Das heißt, deine intimen Daten, die du als gesichert
00:24:11: ansehen würdest möglicherweise, du bist ja nicht so naiv, aber manche machen sie ja, lässt es in
00:24:16: Chats GPT rein im guten Glauben, dass kein anderer diese Daten sieht, der wird dann bitter enttäuscht
00:24:20: werden. Und mich nervt es wirklich, wenn ich manche lese, ja, jetzt hat ja Microsoft oder
00:24:25: jetzt hat ja OpenAI nachgebessert. Ja, die bessern ihr ganzes Leben lang nach. Das wird nicht besser
00:24:30: am Ende. Die wollen auch gar keine Daten schützen. Die wollen die Daten verwenden, um mehr Geld zu
00:24:34: verdienen. Richtig. Ja, pass auf. Ich finde, das ist super cool. Das ist eine tolle Überleitung.
00:24:40: Ich finde, wir sollten hier zum Ende hin nochmal kurz so eine kleine Zusammenfassung machen von
00:24:45: dem, was unser ganzer Austausch, das ganze Gelaber in der Welt und der ganze Hype um diese Tatsachen
00:24:51: denn jetzt überhaupt mal faktisch so für den Unternehmensalltag bedeutet. Weil KI, du findest
00:24:57: ja zurzeit fast kein Produkt mehr, das nicht damit wirbt, dass jetzt auch KI drin steckt. So, wir
00:25:02: wissen, dass bei Microsoft, einem der Hauptanbieter für wahrscheinlich nahezu jedes Betriebssystem auf
00:25:08: jedem Rechner, der in Unternehmen genutzt wird, KI einsetzt. Wir wissen, dass die bei OpenAI fett
00:25:16: mit im Geschäft sind. Das heißt, die werden auf jeden Fall auch im Hintergrund ChatGPT-Technologie
00:25:20: benutzen, sonst hätten die sich da nicht so fett eingekauft. So, jetzt hast du gerade gesagt, wir
00:25:26: haben mit Windows sowieso schon das Problem, es werden Versionen angeboten bei ChatGPT und bei
00:25:30: Microsoft, die sagen, mit Enterprise ist es rechtskonform. Dann achten wir auf Rechtskonformität.
00:25:37: Das heißt, übersetzt für alle Unternehmer, das Unternehmen sagt öffentlich, und das ist ganz
00:25:43: wichtig, es sagt öffentlich, dass keine Rechtskonformität garantiert ist, wenn man
00:25:48: nicht diese Enterprise-Version nutzt. Ach so, kann man sehen. Das ist wichtig, vor allen Dingen,
00:25:53: weil, jetzt kommt ja das Beste, das heißt ja nicht, dass die Enterprise-Version automatisch
00:25:58: rechtssicher ist oder Rechtssicherheit garantiert. Das heißt, nur damit ist sie möglich. Und wenn
00:26:04: man sich dann anguckt, dass, und nur mal so by the way, Microsoft gar kein kleiner Fisch im
00:26:10: DSGVO-Bußgeldkatalog der letzten Jahre war, man muss halt nur mal genau nachsuchen und gucken,
00:26:16: wie häufig haben die es auf den Deckel bekommen und in welchem Zusammenhang standen die mit
00:26:20: Datenschutzverstößen, dann findet man die nicht rechtskonformen Einsatz von Microsoft-Windows-Produkten
00:26:28: zur Verarbeitung von Kundendaten doch relativ häufig in den letzten zwei Jahren. Und die
00:26:33: Bußgelder, die ausgesprochen wurden, sind auch verdammt nicht niedrig. Ich sage nur 50.000 Euro
00:26:42: und aufwärts. Dementsprechend würde ich das Unternehmen empfehlen, aufzupassen.
00:26:47: Meinst du 50 Millionen oder 50.000? 50.000 ist für Microsoft nicht so viel.
00:26:50: Ne, 50.000 für die Unternehmen, die unrechtmäßig Microsoft-Produkte eingesetzt haben zur
00:26:56: Verarbeitung von Kundendaten. Dass wir Microsoft nicht kommen können mit 50.000, das ist klar. Es
00:27:01: geht eigentlich auch nicht darum, welche Rechtsverstöße Microsoft selber durchführt,
00:27:05: sondern es geht darum, dass die Unternehmen, die deren Produkte einsetzen, für Rechtsverstöße
00:27:10: durch den Einsatz dieser Produkte belangt wurden. Und das ist eben eine Tatsache, die super viele
00:27:16: Unternehmen immer wieder außer Acht lassen. Und ich finde, das ist ziemlich fahrlässig,
00:27:21: gerade wenn man die gesamte Infrastruktur, und das ist in vielen Unternehmen so,
00:27:24: auf Microsoft-Produkten aufbaut, die jetzt nach und nach in Cloud-Produkte alle umgewandelt werden.
00:27:30: Alles ist nur noch Azure, alles kostet nur noch monatlich Geld, ist nur noch gemietet. Und
00:27:34: Microsoft eigentlich jederzeit entscheiden kann, welches Unternehmen es als nächstes wirtschaftlich
00:27:38: lahmlegt, weil es denen einfach mal, keine Ahnung, die Preise erhöht oder die Lizenz sperrt so lange,
00:27:43: wie sie nicht bezahlen und solche Gedönse. Also diese Abhängigkeitsgeschichten auf der
00:27:47: wirtschaftlichen Ebene kommen eben auch noch da rein. Aber der Verstoß in der, sage ich mal,
00:27:52: in der Nutzung von personenbezogenen Daten, Verarbeitung von Kundendaten und vor allen Dingen
00:27:58: auch, und das ist mir so wichtig bei der Datenschutzgrundverordnung, der Respekt gegenüber
00:28:02: der anderen Person. Das ist das, worum es geht. Es geht um nichts anderes als diesen Respekt. Und
00:28:08: wenn ich als Unternehmen sage, Datenschutz ist mir egal, dann heißt das, der Respekt gegenüber
00:28:14: meinem Kunden, meinem Mitarbeiter, meinem Lieferanten ist mir egal. Und dann habt ihr,
00:28:19: nach moralischer Definition, es eben leider auch nicht verdient, dass die euch mit Respekt
00:28:24: behandeln. Das ist so ein Fühlen wieder. Jetzt noch eine Sache für alle Unternehmen, denen Datenschutz
00:28:30: egal ist, habe ich noch eine Botschaft, also denen auch ihre eigenen Geschäftsgeheimnisse
00:28:33: vielleicht egal sind oder die glauben, wenn sie die hochladen, passiert schon nichts. Denen kann
00:28:37: ich sagen, lokale, also unternehmenseigene Systeme, manche nennt es Co-Location oder auch Miethardware,
00:28:42: eigene Hardware, was auch immer, können für viele Anwendungsfälle deutlich bessere Ergebnisse
00:28:48: produzieren als ChatGPT, Google-Bart oder Bing oder auch Bild-Generatoren oder sowas. Das muss
00:28:53: man einfach nur wissen. Da reden wir über den reinen Nutzen. Wem schon der Datenschutz egal ist,
00:28:58: was wirklich traurig genug ist oder auch die eigenen Datengeschäftsgeheimnisse, der soll
00:29:02: darüber nachdenken, wenigstens den Nutzen in den Vordergrund zu stellen. Ja, definitiv. Wenn ich
00:29:08: dem auch nicht zustimmen möchte, weil du hast ja allgesprochen, wenn es schon egal ist und mir ist
00:29:14: es nicht egal, aber du hast natürlich in der Essenz recht, ist dann wenigstens mal darüber
00:29:19: nachdenken, was soll mir der ganze Bums eigentlich bringen, wenn ich ihn dann schon benutze. Also ich
00:29:24: glaube, zusammengefasst können wir sagen, der Einsatz von Chatbots mit KI oder KI im Unternehmen
00:29:30: ist ein äußerst kritisches Feld, das extrem vorsichtig und umsichtig behandelt werden sollte,
00:29:38: denn wenn es leichtsinnig behandelt wird, dann steht einem eben auch nicht der Schutz zu,
00:29:43: dass man im Falle eines Verstoßes gegen die Datenschutz-Grundverordnung, eines Bußgeldes,
00:29:47: das verhängt wird, einer Schadenersatzklage von Betroffenen in irgendeiner Form eine Handhabe hat,
00:29:53: um zu sagen, ja, aber wir haben ja versucht, das Richtige zu tun. Also bitte, liebe Leute,
00:29:57: wenn ihr das schon einsetzen müsst, dann folgt Klaus Rat, macht das mit einer lokalen Lösung,
00:30:02: sodass ihr das selber kontrollieren könnt und dass es auch wirklich euch selbst gehört. Und
00:30:06: wenn ihr die anderen Systeme nutzt, dann verflucht noch mal, lasst euch nicht von
00:30:10: irgendwelchen Anwälten beraten dazu, wie das funktioniert, die von Technik keine Ahnung haben,
00:30:15: sondern holt euch einen Spezialisten für die Entwicklung von Generative AI Modules und so
00:30:20: weiter und fragt den, ob das überhaupt möglich ist, das umzusetzen, was ihr wirklich vorhabt.
00:30:25: Denn in den meisten Fällen ist es halt so, dass diese Chatbots nicht dazu da sind,
00:30:31: personenbezogene Daten von irgendwelchen Daten zu unterscheiden.
00:30:34: So ist es. Ja, so kann man es sagen, Stephan. Und ein guter Schlusspunkt. Rein formal,
00:30:39: man kann halt einfach Probleme nicht einfach wegdiskutieren, die da sind, sondern man muss
00:30:43: sie lösen und lösen kann man sie nicht, indem man ein Dokument draufschmeißt, ein juristisches.
00:30:48: So, das vielleicht zum Schluss von mir. Die EU-US-Privacy-Framework lässt grüßen. Wir
00:30:54: schmeißen mal das dritte Dokument drauf und hoffen, dass es kleben bleibt. Ja, genau das ist es noch.
00:30:59: Absolut. Ja, wunderbar. Klaus, ich danke dir vielmals für diesen kleinen Talk,
00:31:04: allen Zuhörern da draußen. Ich hoffe, es hat euch Spaß gemacht und ihr konntet was davon mitnehmen,
00:31:09: auch für euren Unternehmensalltag. Oder würde ich mich freuen, wenn wir uns beim nächsten Mal
00:31:12: wieder treffen beim Datenschutz Deluxe Podcast. Bleibt uns treu und noch weiter einen schönen Tag.
00:31:18: Tschüss. Das war Datenschutz Deluxe. Du willst mehr spannende Themen oder Kontakt zu uns? Dann
00:31:27: besuche Klaus Meffert auf seinem Blog Dr. DSGVO und Stephan Plesnik auf seinem YouTube-Kanal
00:31:33: Datenschutz ist Pflicht. Bis zum nächsten Mal.
00:31:39:
Sabine Mayer
‧