#34 Chatbots nutzen: Wofür und wofür besser nicht?

Shownotes

Der Podcast rund um das Thema Datenschutz und IT. Mit Dr. Klaus Meffert und Stephan Plesnik.

34 Chatbots nutzen: Wofür und wofür besser nicht?


Chatbots wie ChatGPT oder auch Google Bard erfreuen sich zunehmender Beliebtheit. Manche denken sogar darüber nach, dass Gerichte sich Klageschriften von ChatGPT zusammenfassen lassen sollten. Andere Anwendungsfälle erscheinen unkritischer, weil sensible Daten oder Unzuverlässigkeit von Antworten weniger problematisch sind. Wann treten rechtliche Probleme auf und wie lassen sie sich vermeiden? Darüber sprechen wir in der aktuellen Episode von Datenschutz Deluxe.
Feedback geben? Fragen stellen? Gerne hier:
https://dr-dsgvo.de
Videokanal von Stephan: https://www.youtube.com/datenschutzistpflicht

Impressum:
https://dr-dsgvo.de/impressum
Inhaltlich verantwortlich ist jeder der Sprecher für seine eigenen Äußerungen.

Transkript anzeigen

00:00:00: Ja, hallo liebe Zuhörer des Datenschutz-Deluxe-Podcasts. Mein Name ist Stephan Plesnik und ich begrüße

00:00:18: euch ganz recht herzlich zu dieser neuen Folge. Mit dabei ist wie immer mein Partner

00:00:23: in Crime, Dr. Klaus Meffert. Und ich begrüße auch dich, Klaus. Wie geht es dir heute Morgen?

00:00:28: Stephan, hallo. Schön, dass wir wieder sprechen. Immer, wenn wir uns unterhalten, geht es mir

00:00:32: natürlich sehr gut und ich bin gespannt auf unser heutiges Thema.

00:00:35: Ja, wunderbar. Bei so einer schleimenden Einleitung können wir ja nur ein perfektes

00:00:41: Thema auswählen. Und zwar haben wir uns überlegt, wir reden heute mal über Chatbots und den

00:00:47: damit verbundenen Datenschutz. Das ist im Übrigen ein Thema, was ich schon vor,

00:00:52: ich weiß nicht, es ist schon ein paar Jahre her, dass ich das auf meinem YouTube-Channel

00:00:57: thematisiert habe. Und deswegen bin ich jetzt mal sehr gespannt, Klaus, was ist eigentlich

00:01:02: deine allgemeine Einstellung zu den Chatbots? Also wie wirken die auf dich als Person? Und

00:01:07: dann natürlich auch die datenschutzrechtliche Einschätzung, wo du da vielleicht Probleme siehst?

00:01:12: Ja, sehr gute Frage. Also grundsätzlich sind natürlich die Entwicklungen ganz enorm. Erstes

00:01:18: Beispiel ist ja ChatGPT. Da hat dann spätestens jeder gemerkt in Deutschland Anfang dieses Jahres,

00:01:23: dass künstliche Intelligenz ein neues Thema ist. Die Erfindung des Feuers so ungefähr,

00:01:27: ja, war jetzt Version 2.0. Also natürlich ganz erstaunliche Fähigkeiten. Touring-Test,

00:01:35: meiner Meinung nach, ganz eindeutig bestanden. Also es gibt keinen Unterschied mehr in vielen

00:01:39: Anwendungsfällen zwischen Mensch und Maschine. Die Maschine sogar, muss man ehrlicherweise sagen,

00:01:43: teilweise deutlich besser in nicht sehr abgegrenzten Bereichen, also weitgehenden

00:01:47: Bereichen, Frage-Antwort-Maschine, Zusammenfassung von Texten und so weiter. Aber wer die Technik ein

00:01:53: bisschen kennt, und das tue ich, der weiß, und das ist das Erstaunliche natürlich auch,

00:01:58: dass KI sich genauso wie ein Mensch verhält. Das heißt, KI ist genauso unzuverlässig wie

00:02:03: ein Mensch. Und der Unterschied ist, dass es bei Menschen eben hoch spezialisierte Modelle gibt,

00:02:09: im Gegensatz zu Chatbots, die der Allgemeinheit zur Verfügung stehen. Die sind nämlich nicht

00:02:13: hoch spezialisiert, sondern generelle Intelligenzen, die vieles können, aber alles nicht super und

00:02:20: sind auch nicht 100% zuverlässig, genau wie der Mensch nicht. Aber der Spezialist,

00:02:23: den sich kaum jemand leisten kann, der ist dann vielleicht doch noch zuverlässiger. Und das

00:02:28: Problem ist, dass diese Chatbots eben von jedem verwendet werden können, teilweise auch kostenlos,

00:02:33: und jeder natürlich diese nutzt und denkt, die Antworten, die da rauskommen, sind richtig. Und

00:02:38: ich muss mir jetzt weniger Arbeit machen. Ich habe jetzt zuletzt gelesen, da wurde vorgeschlagen,

00:02:44: zumindest, dass Gerichte sich die Klageschriften usw. zusammenfassen lassen sollen von Chatbots

00:02:50: und die dann verwenden sollen. Das halte ich für eine sehr schlechte Idee. Und wer sowas

00:02:53: vorschlägt, der ist in einer gewissen Weise auch dumm, muss ich sagen, weil ich finde,

00:02:57: es ist einfach eine Unverschämtheit, diese angebliche Komfortverbesserung zu verwenden,

00:03:02: um dann eine erhöhte Unzuverlässigkeit in bestimmte Prozesse reinzubringen, die hoch

00:03:07: kritisch sind. Also, wo man Chatbots verwenden kann, ist natürlich im privaten Bereich. Wenn

00:03:11: ich irgendwelche Anfragen habe, allgemeine Art, da können wir noch drüber reden, macht es

00:03:15: dann nicht Sinn, einfach eine Suchmaschine zu verwenden. Aber es gibt durchaus im privaten

00:03:19: Bereich viele Fälle, wo man das mal machen kann. Aber im Unternehmensumfeld sehe ich da oder bei

00:03:23: Gerichten sehe ich da teilweise andere Systeme als Vorzug. Vor allem, wenn wir über Chatbots

00:03:29: von Dritten sprechen, wie ChatGPT, Googlebot. Mich würde interessieren, wofür nutzt du denn

00:03:34: eigentlich Chatbots, wenn ich dich jetzt mal so fragen darf und die Rolle umkehren darf,

00:03:38: sozusagen. Das würde mich mal sehr interessieren. Ja, also wofür ich Chatbots nutze. Also,

00:03:43: ich habe natürlich in der Anfangsphase von ChatGPT, weil das ja so ein Megahype war,

00:03:47: dann musste man sich das ja natürlich auch mal angucken. Da habe ich auf jeden Fall mit

00:03:52: ChatGPT zum größten Teil getestet, könnte das helfen, zum Beispiel beim Verfassen von

00:03:58: Videoskripten oder beim Erstellen von Blogartikeln. Und habe dann sehr, sehr schnell festgestellt,

00:04:04: dass wenn ich dem sehr, sehr spezielle Informationen gebe zu einem Thema, wozu ich

00:04:09: zum Beispiel ein Videoskript haben möchte, dass ich ihm sogar die Aufgabe gestellt habe,

00:04:15: den Stil, den Sprachstil meiner Videos als Grundlage zu nehmen. Und dabei habe ich festgestellt,

00:04:22: was das Ding eigentlich macht, ist Abstract for Abstract, Word for Word, irgendwas von

00:04:29: vorhandenen Blogartikeln zu kopieren. Also, es war überhaupt nichts Neugeneriertes,

00:04:33: sondern das Einzige, was quasi Neugeneriert war, wenn du so möchtest, war das Gesamtergebnis,

00:04:38: weil es eine andere Zusammenstellung von Inhalten war, die aber eigentlich essentiell von anderen

00:04:44: Blogs kopiert waren. Also, ich habe dann wirklich mal den Test gemacht und habe einen kompletten

00:04:48: Absatz, den mir ChatGPT gegeben hat, zurück in Google eingegeben und habe sofort beim ersten

00:04:55: Suchergebnis die Webseite gefunden, auf der exakt dieser Abschnitt stand. Also, da war nichts

00:04:59: Neugeneriert, da war keine Intelligenz hinter, sondern das war einfach nur, wenn du so möchtest,

00:05:04: nichts weiter als ein Parametervergleich in der Datenbank und dann das Ausspucken von vorhandenen

00:05:09: Informationen, die bereits eingelesen wurden. Okay, sehr interessant. Also, ich sage mal so,

00:05:14: ich will jetzt ChatGPT nicht verteidigen, aber ich habe durchaus auch schon Ergebnisse gesehen,

00:05:17: wo ich jetzt sagen würde, die sind neuartig. Also, das würde ich schon sagen. Es kann durchaus sein,

00:05:23: dass es Fälle gibt oder Anwendungsfälle an sich, Klassen von Problemen, wo Zitate zurückkommen oder

00:05:29: Satzteile, Teile von Sätzen, die es anderswo gibt, wie du gesagt hast. Dieses Aufnehmen der

00:05:35: vorgegebenen Sprechweise oder Zuhörers oder Lesers sozusagen, das denke ich, funktioniert auch mit

00:05:42: eigenen Worten, aber die Zuverlässigkeit sinkt. Also, ich sage mal so, Kreativität und Zuverlässigkeit

00:05:47: sind zwei Gegensätze, die nicht zusammenkommen. Das heißt, man kann sich überlegen, will ich

00:05:52: entweder eine besonders kreative Antwort haben oder eine besonders zuverlässige Antwort, aber

00:05:56: beides gleichzeitig geht nicht. Und da sind wir, glaube ich, auch schon beim, du hast ja auch schon

00:06:00: Anwendungsfälle jetzt genannt, es gibt ja durchaus Fälle, wo man Chatbots verwenden kann, ohne dass

00:06:05: daraus ein rechtliches Problem oder ein Datenproblem entsteht. Personenbezogene Daten,

00:06:09: Geschäftsgeheimnisse und so weiter, vertrauliche Daten sind ja nicht immer da. Und es geht auch

00:06:14: nicht immer um exakte Antworten. Wenn ich jetzt zum Beispiel über Bildgenerierung nachdenke,

00:06:19: ist jetzt kein Chat, dann ist das Ergebnis, ich sage jetzt mal, beim Bild gibt es jetzt nicht so

00:06:23: die Art von Zuverlässigkeit wie beim Text. Wenn man Menschen generieren lässt, dann wäre es schön,

00:06:26: wenn die Hand natürlich aussieht und fünf Finger hat und nicht nur drei. Aber ansonsten, wenn das

00:06:30: alles so ungefähr so aussieht wie ein Mensch, was ja heute schon super funktioniert, dann kann man

00:06:35: sagen, hat es funktioniert. Beim Text auch diese kreativen Werbebotschaften, da kann ich mir schon

00:06:39: vorstellen, dass es eine Erleichterung ist, weil irgendjemand nimmt ja dieses Ergebnis und verfeinert

00:06:45: es dann noch ein bisschen auch. Es gibt ja nicht unreflektiert irgendwelche Ausgaben des Chatbots

00:06:50: direkt auf die Webseite als Werbebotschaft, das macht ja keiner hoffentlich, sondern guckt dann

00:06:54: vielleicht noch mal drüber. Was wir auch mal gemacht haben, ich habe es für den Kunden gemacht,

00:06:58: über die Schnittstelle von ChatGPT, ist, um Trainingsdaten zu erzeugen für eigene Modelle,

00:07:04: da bin ich auch ein Verfechter von eigenen KIs, lokal laufen lassen, keine Datentransfers zu

00:07:08: dritten. Wenn ich zum Beispiel einen Eingabetext habe und möchte da Varianten haben davon,

00:07:13: dann kann ich mir von ChatGPT sowas generieren lassen. Natürlich reden wir jetzt bei den

00:07:18: Eingabetexten nicht über Texte über Personen oder Sonstiges, sondern einfach lapidare Texte.

00:07:24: Es können auch Fragen sein, da kann ich mir schon Synonyme generieren lassen. Ich muss mir

00:07:28: natürlich das Ergebnis auch anschauen, weil manchmal passt es auch nicht 100 Prozent, aber in

00:07:31: meisten Fällen schon. Da sehe ich dann schon den Einsatz von Chatbots, aber da, wo die meisten,

00:07:36: wenn man sich mal die sozialen Medien anguckt, LinkedIn oder so, den Einsatz sehen, sehe ich

00:07:40: ihn persönlich ehrlich gesagt nicht. Ja, das ist ein spannendes Thema, wo du jetzt gerade auch LinkedIn

00:07:44: erwähnt. Am Anfang hattest du ja gerade eben mal kurz gesagt, von wegen, dass das eben auch Gerichte

00:07:49: und so weiter schon hingehen oder Anwälte und sich davon Klageschriften formulieren lassen.

00:07:53: Bleiben wir doch mal kurz bei diesen beiden Themen, weil ich finde es extrem spannend.

00:07:56: Erstes Thema, Formulieren von Klageschriften in Bezug auf den Datenschutz. Normalerweise haben

00:08:02: wir in Klageschriften, wenn ich die so wie ich die kenne, haben wir den Vermerk und den

00:08:07: Personenbezug im Endeffekt nur in der Einleitung, wo die beiden Klageparteien sozusagen erwähnt

00:08:14: werden. Wer gegen wen und was ist der Gegenstand? Sonst wird ja meistens nur generisch von die

00:08:21: Beklagte und die Klagende gesprochen als Parteien, die verteidigt werden. Jetzt ist es aber ja nun

00:08:26: mal so, in dem Dokument steht ja am Anfang dann drin, wer sind denn diese Parteien? Die werden

00:08:30: ja identifiziert. Und da, denke ich, ist ja alleine schon der Punkt gegeben, hier müsste ja eigentlich

00:08:37: der Anwalt, der diese Klageschrift verfassen lässt und das mit Hilfe eines Chatbots wie zum

00:08:43: Beispiel ChatGPT tut, tendenziell erst mal die Einwilligung holen und die vollständigen

00:08:49: Rattenschwanzgedönse der Aufklärung bezüglich der Verwendung personenbezogener Daten durch

00:08:54: US-amerikanische Unternehmen und so weiter und so fort demjenigen geben. Also diese

00:08:58: Einwilligungspflicht ist ja an der Stelle auf jeden Fall gegeben, weil wir personenbezogene

00:09:02: Daten haben. Auf der anderen, da kann ich mir sogar vorstellen, dass das passiert. Also wenn

00:09:08: ich mir jetzt denke, jemand geht zu einem Anwalt, weil er eine Klage formulieren möchte und so

00:09:12: weiter, dann kann ich mir sehr gut vorstellen, dass diese Information passiert.

00:09:16: Die Frage ist, gibt es einen Anwalt, der überhaupt eine Klageschrift verfasst? Ich hatte ein anderes

00:09:22: Beispiel, aber kennst du jemanden, der eine Klageschrift mit einer KI verfasst?

00:09:25: Nee, ich persönlich nicht. Ich habe nur auch schon davon gehört, dass eben auch in Berichten

00:09:31: sozusagen erzählt wurde, dass sowas getestet wurde und auch getestet wurde, ob zum Beispiel

00:09:37: Gerichtsurteile, die gesprochen wurden mit der Unterstützung, was KI in der Auswertung der

00:09:43: Sachlage angeht, eben zum Beispiel gezeigt werden konnte, was ich sehr beeindruckend fand, dass die

00:09:49: KI bei Falschverurteilungen eine wesentlich geringere Negativquote hatte, was falsche

00:09:58: Verurteilungen angeht. Weil die KI eben nicht, und das haben die dann sehr viel darauf zurückgeführt,

00:10:04: dass zum Beispiel die Uhrzeit am Tag und der Tag in der Woche sehr stark dazu beiträgt, wie Richter

00:10:11: bestimmte Urteile sprechen. Jetzt muss ich dazu nur sagen, das sind alles Informationen, die aus

00:10:16: Amerika kommen. Also da ist ein ganz dicker Disclaimer dran. Ich weiß, unser Rechtssystem ist

00:10:21: halt vielleicht ein bisschen anders aufgestellt. Ich weiß nicht, ob wir davor gefeit sind, ob es

00:10:25: da wirklich so viele Prozesse gibt, die so viel besser sind im Detail. Und weil ich das nicht

00:10:29: weiß, sage ich dazu, das sind Informationen, die habe ich eben aus Blogartikeln, die die

00:10:33: amerikanische Seite behandelt haben und da eben in Studien das versucht haben zu erheben.

00:10:40: Ja, aber mit den 10 Uhr morgens oder so, das habe ich auch schon gelesen. Ich weiß nicht, welches

00:10:44: Land das war, ob es Amerika war oder Deutschland. Spielt ja auch keine Rolle.

00:10:46: Ja, genau das.

00:10:47: Aber vielleicht zwei Sachen dazu. Das eine ist, was richtig und falsch ist. Man regt sich natürlich

00:10:54: über manche Urteile auf und da sind glaube ich 99 Prozent der Deutschen der Meinung, das ist ein

00:10:57: falsches Urteil vielleicht. Aber die Frage ist, was ist richtig und falsch? Ist es so, dass der

00:11:01: Richter tatsächlich falsch geurteilt hat anhand des bestehenden Rechtes? Oder hat er vielleicht

00:11:06: das bestehende Recht einfach nur richtig angewandt und es kam was bei raus, wo jeder sagt, es ist

00:11:09: falsch. Aber dann liegt es eben an den Gesetzen. Also ich hatte ja auch schon einen Fall, da hat

00:11:15: der Richter einfach die Akte nicht gelesen. Da kann man natürlich dann schon vom falschen Urteil

00:11:18: sprechen. Aber solange das nicht von der höchsten Instanz in Deutschland bestätigt wurde, ist es

00:11:22: formal eben kein falsches Urteil. Also unter uns ist es dann vielleicht klar, aber was ist schon

00:11:28: richtig und falsch, das kann man irgendwie gar nicht richtig sagen. Aber der Punkt, den du genannt

00:11:32: hast, diese Zusammenfassung von Ergebnissen, also von Urteilen zum Beispiel oder auch von

00:11:38: Klageschriften. Was ich gelesen hatte, dass jemand vorschlägt, dass Gerichte Klageschriften sich

00:11:43: zusammenfassen lassen können über eine KI, über eine Chats GPT zum Beispiel und haben dann weniger

00:11:48: Arbeit. Das halte ich für grob fahrlässig Unsinn, muss ich sagen. Wer sowas vorschlägt, hat einfach

00:11:54: keine Ahnung oder nicht genug ausprobiert, wie Chatbots funktionieren. Der hat vielleicht 20

00:11:58: mal einen Prompt eingegeben oder vielleicht 100 Mal. Allerdings nicht für juristische Texte,

00:12:02: 100 Mal, sondern für irgendwas. Und dann meint derjenige, dass eine KI zuverlässig funktioniert.

00:12:09: Er hat ein Beispiel genannt und da meint er, weil das richtig ist. Möglicherweise hat er es gar

00:12:13: nicht richtig durchgelesen. Wäre das eine Empfehlung? Also halte ich für groben Unsinn.

00:12:17: Man muss einfach sagen, juristische Texte sind erst mal ungleich dem Text, den ein normaler Mensch

00:12:22: schreibt. Wenn man sich Urteile zum Beispiel anschaut oder juristische Klageschriften.

00:12:26: Stephan, da sind wir uns, glaube ich, einig. Das Vokabular ist erstmal ein komplett anderes.

00:12:30: Außerdem ist die Satzlänge deutlich länger als bei normalen Texten. Und wenn man jetzt noch

00:12:38: berücksichtigt, dass Chat GPT zum ganz kleinen Prozentsatz nur auf deutsche Texte trainiert

00:12:43: wurde und von diesem kleinen Prozentsatz noch viel weniger juristische Texte sind. Dann sind

00:12:49: immer noch sehr viele Texte, aber eben viel, viel weniger als für alle anderen Gebiete,

00:12:53: Englisch und Deutsch allgemein. Dann weiß man, dass diese KI nicht besonders gut trainiert ist

00:12:59: auf diese Texte. Und das muss man einfach wissen, wenn man so ein Chatbot verwendet.

00:13:02: Ja, definitiv. Absolut. Gebe ich dir vollkommen recht. Besonders auch,

00:13:08: da hängt ja auch noch der Rattenschwanz insofern dran, als dass diese Sätze,

00:13:13: die dort formuliert werden, sind ja im Normalfall höchstgradig verschachtelt und bieten super viele

00:13:19: Eventualitäten und Ausschlüsse innerhalb desselben Satzes, damit eben die Aussage sehr präzise ist.

00:13:25: Und das ist genau ein Punkt. Präzise Aussagen, finde ich, kann ich wirklich einem, zumindest

00:13:33: einem ChatGPT in der aktuellen Version nicht zusprechen. Also die Aussagen haben sehr,

00:13:38: sehr häufig extrem vage Formulierungen, die extrem vage bestimmte Dinge umreißen. Aber eine

00:13:45: wirklich präzise Beschreibung, so wie es eben auch in einem juristischen Text, wie du gerade

00:13:48: sagtest, auch absolut notwendig ist. Das sehe ich da absolut nicht. Ich wollte mal kurz auf

00:13:56: den Punkt kommen. Du hattest gerade schon mal angesprochen, Leute, was man bei LinkedIn und

00:14:00: so weiter liest über die Nutzung von solchen Chatbots. Da habe ich letztens was gesehen und

00:14:04: das fand ich sehr spannend, weil da geht es hauptsächlich um das Thema personenbezogene

00:14:08: Daten, zumindest aus meiner Perspektive. Und zwar hat da jemand, der irgendwie Sales-

00:14:15: Automatisierungen für Unternehmen anbietet, einen Test gemacht und hat geguckt, ob die

00:14:20: Sprachrückgabe-Funktion, dieser Sprachassistent von ChatGPT, der jetzt neu ist oder zu dem Zeitpunkt

00:14:26: wenn es neu war, wie gut der funktioniert. Und hat im Endeffekt wirklich, also hat sich dabei

00:14:32: gefilmt, wie er einen Cold Call bei einer unbekannten Person macht. In dem Video von

00:14:37: LinkedIn hat er richtigerweise immer dann, wenn die Person, die dort zu hören ist über das

00:14:45: Telefonat, die Informationen ausgebliebt, wenn es um eine Identifizierbarkeit dieser Person ging.

00:14:51: Das heißt, außer der Stimme als Merkmal, sage ich mal, ist es nicht möglich, über das Video die

00:14:56: Person zu identifizieren, die angerufen wurde. Aber es ist halt interessant, weil im Video sieht

00:15:01: man und hört man, dass diese Person ihre personenbezogenen Daten mit diesem Chatbot tauscht

00:15:08: und in keiner Form, und das ist das Wichtige, weil das ist ja das Experiment, in keiner Form

00:15:13: darüber informiert wird, dass er gerade mit einem Chatbot redet. Und das bis zum Ende des Gesprächs

00:15:19: nicht. Also er hat das gemacht, inklusive bis zu dem Moment, wo er auflegt. Und da habe ich dann

00:15:24: gedacht, das ist ein 1A-Beispiel an alle Unternehmen, wie man das auf keinen Fall machen darf. Weil hier

00:15:32: haben wir eine Datenübertragung personenbezogener Daten, ohne die Information, was mit den Daten

00:15:38: gemacht wird, ohne die Information, dass man diese Daten gerade nicht mit der Person teilt, die der

00:15:43: Chatbot vorgibt zu sein. Denn das ist ganz wichtig. Also der Chatbot hat sich als die Person selbst

00:15:49: ausgegeben. Und dann geht man noch hin und überträgt das an ein US-amerikanisches Unternehmen,

00:15:56: dass das wiederum als Trainingsdaten verwendet und als eigene Veröffentlichung im Statement sagt,

00:16:01: es ist uns nicht möglich, zuverlässig personenbezogene Daten aus den Trainingsdaten zu

00:16:05: filtern. Ja, das kann ja auch niemand. Also muss man tatsächlich sagen, vielleicht komme ich zu

00:16:10: deinem Punkt da nochmal zurück mit dem Urteil oder Klageschrift. Also es stimmt natürlich, was du

00:16:15: sagst, dass am Anfang Kläger und Beklagte genannt sind und das muss man natürlich anonymisieren. Das

00:16:20: wäre ja noch einfach, wenn man weiß, ganz am Anfang steht nur was und das lösche ich einfach oder

00:16:24: mache es XY draus und dann ist es erledigt. So ist es ja nicht, weil wenn jetzt irgendein Rechtsfall

00:16:29: ist, der in einer bestimmten Stadt spielt sozusagen, dann wird die Stadt ja genannt in der

00:16:34: Ursprungsschrift. Die muss ja dann auch rausgenommen werden oder es geht um eine Adresse. An der

00:16:39: Adresse so und so ist das Auto in das andere Auto reingefahren. Ja, dann wird das natürlich auch,

00:16:42: wenn es anonymisiert wird, rausgelöscht und da hat man sehr viel zu tun mit Daten rauslöschen

00:16:47: oder wenn irgendwas, ein Zitat wiedergegeben wird, zum Beispiel jemand beleidigt einen anderen. Ja,

00:16:51: es gibt ja durchaus Schimpfworte, die regional sind. Ja, sie werden besonders häufig, das ist

00:16:57: auch schon eine Eingrenzung. Alleine ein Schimpfwort ist jetzt kein Personenbezug,

00:17:01: aber wenn ich drei, vier, fünf Datenwerte zu einer Person habe und eine ist eine Einschränkung auf

00:17:05: Unterfranken, dann reduziert sich der Personenkreis immer weiter und irgendwann kann man schon vom

00:17:11: Personenbezug sprechen. Und die Frage ist, wer erkennt eigentlich, ob da personenbezogene Daten

00:17:16: da sind und das erkennt man erst mal nicht. Sogar der Mensch erkennt es nicht ohne weiteres. Und

00:17:19: diese, wir hatten ja schon darüber gesprochen, Stephan, in einer der vorigen Folgen, angebliche

00:17:26: Anonymisierungslösungen sind einfach keine Lösungen. Sie können höchstens, ich sage mal 90,

00:17:30: maximal 95 Prozent Zuverlässigkeit erreichen. Das heißt, ich drücke auf den Knopf und am Ende ist

00:17:35: alles anonymisiert. Das ist ein Wunschraum, der nie in Erfüllung gehen wird, außer die

00:17:38: Definition von personenbezogenen Daten wird verändert. Ja, absolut. Das, was du gerade

00:17:45: ansprachst, selbst wenn es nur um eine Beleidigung geht oder so. Gehen wir mal davon aus, jemand

00:17:50: beschimpft mich auf offener Straße und sagt, Plastik, du alte Sau oder du dreckige Sau. Dann

00:17:56: ist das ja die Beschimpfung. Die tritt ja dann in der Klageschrift auch wieder auf, weil es der

00:18:00: inhaltliche Gegenstand der Klage ist. Dementsprechend, da steht ja der Personenbezug drin. Woher soll

00:18:06: ChatGPT oder irgendeine KI aus diesem Satz erkennen, dass Plastik ein Name ist? Das könnte

00:18:14: auch ein Objekt sein oder ein Gegenstand oder der Eigenname von irgendeiner Sache, wo ChatGPT

00:18:21: einfach nur denkt, das habe ich halt bisher noch nicht gelernt, in welchem Bezug das zu

00:18:25: irgendetwas steht. Und nur weil das mal in Bezug zu einem anderen Namen steht, heißt es ja auch

00:18:30: nicht, dass es automatisch Teil des Namens ist und damit personenbezogene Daten darstellt. Es

00:18:35: kann ja auch eine wahllose Aneinanderordnung von Informationen sein, die ChatGPT an einer

00:18:40: anderen Stelle aufgreift, wo das eben anders kombiniert ist. Und all diese Faktoren oder

00:18:44: auch ganz einfach, gehen wir mal davon aus, man hat jetzt nicht so einen exotischen Nachnamen wie

00:18:48: ich, der in Deutschland, glaube ich, nur zweimal, also nur bei meinen Familienmitgliedern direkten

00:18:52: vorkommt, sondern du heißt Müller oder du heißt Meier. Das ist eine Berufsbezeichnung aus der

00:18:59: Altdeutschen, aus dem Mittelhochdeutschen. Dementsprechend kann ChatGPT ja nicht wissen,

00:19:04: dass es gerade nicht um eine Person geht und nicht um die Berufsbezeichnung.

00:19:08: Und bei Müller übrigens auch ein Firmenname. Wenn es um eine Firma geht, Mercedes-Benz

00:19:14: Mitarbeiter, dann wäre es Unsinn, dir das rauszunehmen.

00:19:16: Ja, genau. Genau diese Probleme. Ich meine, wir hatten ja über dieses Ding hier Nele-AI gesprochen

00:19:24: und ich habe mir das letztens noch mal angeguckt, wie die auch schildern, wie die diesen

00:19:27: Personenbezug eigentlich entfernen wollen. Und es ist halt wirklich wieder mal bezeichnet. Das

00:19:31: fand ich sehr spannend bei der Recherche. Ich habe an keiner Stelle eine Information

00:19:36: darüber gefunden, wie wirklich technisch dieser Vorgang abgebildet werden soll. Also,

00:19:40: wie die sich vorstellen, dass sie diese Prompts eben von diesen Dingen bereinigen,

00:19:45: damit die entpersonalisiert sind, dass der Prompt dann verarbeitet wird und dann später bei der

00:19:50: Rückgabe der Antwort wieder personalisiert wird. Und sie sagen, es gibt Einschränkungen. Das finde

00:19:55: ich halt spannend, weil das sind so hanebüchene Einschränkungen. Also, wenn es möglich wäre,

00:19:59: dass wir personenbezogene Daten vorher herausfiltern können oder dass Chatbots diese

00:20:04: zuverlässig erkennen können und dementsprechend herausfiltern können, dann müsste es für einen

00:20:08: Chatbot unheimlich einfach möglich sein, zu wissen, dass der Name Kim Kardashian ein Name

00:20:13: einer Person des öffentlichen Interesses ist und dass diese Person sich selbstständig entschieden

00:20:18: hat, mit ihrem Namen zum Beispiel Werbung zu machen. Das heißt, dieser Name ist kein

00:20:23: personenbezogenes Datum, was in dem Sinne schützenswert ist, weil diese Person diesen

00:20:28: Namen in der Öffentlichkeit als Synonym für ihre öffentliche Tätigkeit, für ihr Business nutzt.

00:20:36: Wenn sie den Namen ändern würde, würde sie ihr Business verlieren. Dementsprechend können wir

00:20:40: nicht davon sprechen, dass dieser Name in irgendeiner Form für sie geschützt ist,

00:20:44: sodass sie komplett frei damit jetzt entscheiden kann, dass jeder das aus seinen Systemen löschen

00:20:48: muss, weil sie sich nun mal dazu entschieden hat, zu einer Person des öffentlichen Lebens zu werden.

00:20:52: Genauso ist das mit Politikern ja auch. Deren Namen dürfen wir ja auch verwenden,

00:20:56: ohne deren Einwilligung, wenn wir darüber schreiben, weil sie eben Personen des öffentlichen

00:21:01: Lebens sind. Und ich bin der Meinung, ein ChatGPT müsste doch dann imstande sein,

00:21:05: sowas zu erkennen, oder nicht? Ja, du hast vollkommen recht. Also erst mal,

00:21:09: es kommt natürlich auf den Kontext an. Man kann über Olaf Scholz als Bundeskanzler den Namen,

00:21:13: kann man ja erwähnen, mit öffentlichen Informationen verknüpfen, dann ist es,

00:21:16: glaube ich, nicht verboten. Verleumdung wäre was anderes und so weiter. Oder den Namen

00:21:20: verknüpfen mit intimen Kenntnissen, weil man Nachbar ist und irgendwas gesehen hat,

00:21:23: was andere nichts angeht. Das wäre wieder schwierig. Aber grundsätzlich ist es so,

00:21:27: wie du sagst. Der Umkehrschluss wäre ja, wenn es möglich wäre, personenbezogene Daten als solche

00:21:31: zu erkennen, könnten Chatbots ja auch und dann entsprechend damit umgehen. So passiert es aber

00:21:36: ja letztendlich nicht. Also um es nochmal zu sagen, es ist ganz erstaunlich, was da passiert

00:21:42: ist mit der KI und man kann das auch durchaus für viele Fälle nutzen, aber eben nicht für sensible

00:21:48: Daten, die vor allem anderen gehören. Wenn ich meine eigenen Daten da reinlade, das ist mein

00:21:52: Thema, kann ich machen, was ich will, aber Daten von anderen Menschen darf ich nur mit deren

00:21:57: Zustimmung, in den meisten Fällen jedenfalls, hochladen oder muss sie informieren vielleicht

00:22:03: und fragen, ob sie damit einverstanden sind. Und ansonsten bin ich dafür und empfehle es auch,

00:22:09: vor allem für Unternehmen und Organisationen, eigene KI-Systeme aufzubauen. Und da merkt man

00:22:15: sehr schnell, habe ich überhaupt einen Nutzen von solchen KI-Systemen oder nutze ich eine KI

00:22:20: einfach nur als Suchmaschine und da sage ich, ja gut, eine Suchmaschine gibt es schon sehr lange,

00:22:24: die können Sie auch weiterhin nutzen, allerdings dann auch wieder nicht, indem Sie einen Vertrag

00:22:28: reinladen, was ja bei einer Suchmaschine eh nicht geht. Das ist nämlich gerade der Punkt. Eine KI

00:22:33: bietet ja viel mehr Möglichkeiten. Ich kann ein Dokument reinladen, einen langen Text und lasse

00:22:36: es mir zusammenfassen. Das kann ich mit einer Suchmaschine nicht machen. Aber dafür würde ich

00:22:40: dann ein eigenes System nur verwenden wollen oder auch, wenn ich über Gerichte nachdenke,

00:22:44: wenn die eine Zusammenfassung haben wollen, dann würde ich das höchstens über ein lokales

00:22:48: KI-System machen lassen, was auch noch auf juristische Texte feintrainiert wurde. Dann

00:22:52: kann das mit einer relativ hohen Zuverlässigkeit klappen und die Daten sind vor allem in einem

00:22:56: System drin, was man selbst betreibt. Das ist schon mal besser oder überhaupt erst die Voraussetzung

00:23:02: dafür, dass das Ganze funktionieren kann. Wenn ich das in Chats GPT hochlade, wie du auch sagst,

00:23:06: Amerika oder sonst wo, der Anbieter macht damit, was er will, dann sehe ich es für schwierig. Und

00:23:10: noch einen Punkt. Wenn ich lese, dass Chats GPT Enterprise rechtskonform ist, ich sage es mal mit

00:23:17: meinen Worten, und alle Datenschutzgesetze einhält, dann frage ich mich, was ist denn,

00:23:20: wenn ich nicht Enterprise-Version habe? Das Gleiche übrigens bei Microsoft Windows. Da

00:23:26: kann ich viel Geld bezahlen, dass alle möglichen Daten nicht übermittelt werden. Da frage ich mich,

00:23:30: heißt es, dass es dann rechtskonform ist und wenn ich nicht viel Geld bezahle, dann nicht? Also

00:23:35: diese Fragen kann sich jeder stellen. Und vielleicht noch ein letztes dazu. Man kann

00:23:39: mit Chats GPT seit Kurzem eigene GPTs generieren. Das heißt, eigene Trainingsdaten verwenden und in

00:23:45: sehr kurzer Zeit das Modell fein trainieren auf seinen eigenen Anwendungsfall. Da kam jetzt heraus,

00:23:50: wenn du das machst, Stephan, und dein Modell reinlädst in Chats GPT, was zum Beispiel deine

00:23:55: Sprache, deinen Sprachstil nachahmt oder sowas, damit es natürlicher klingt, als hättest du es

00:23:58: geschrieben, dann könnten andere aus Chats GPT diese Informationen rauskitzeln, wenn sie nur

00:24:05: höflich nachfragen. Also Datenleck sozusagen. Das heißt, deine intimen Daten, die du als gesichert

00:24:11: ansehen würdest möglicherweise, du bist ja nicht so naiv, aber manche machen sie ja, lässt es in

00:24:16: Chats GPT rein im guten Glauben, dass kein anderer diese Daten sieht, der wird dann bitter enttäuscht

00:24:20: werden. Und mich nervt es wirklich, wenn ich manche lese, ja, jetzt hat ja Microsoft oder

00:24:25: jetzt hat ja OpenAI nachgebessert. Ja, die bessern ihr ganzes Leben lang nach. Das wird nicht besser

00:24:30: am Ende. Die wollen auch gar keine Daten schützen. Die wollen die Daten verwenden, um mehr Geld zu

00:24:34: verdienen. Richtig. Ja, pass auf. Ich finde, das ist super cool. Das ist eine tolle Überleitung.

00:24:40: Ich finde, wir sollten hier zum Ende hin nochmal kurz so eine kleine Zusammenfassung machen von

00:24:45: dem, was unser ganzer Austausch, das ganze Gelaber in der Welt und der ganze Hype um diese Tatsachen

00:24:51: denn jetzt überhaupt mal faktisch so für den Unternehmensalltag bedeutet. Weil KI, du findest

00:24:57: ja zurzeit fast kein Produkt mehr, das nicht damit wirbt, dass jetzt auch KI drin steckt. So, wir

00:25:02: wissen, dass bei Microsoft, einem der Hauptanbieter für wahrscheinlich nahezu jedes Betriebssystem auf

00:25:08: jedem Rechner, der in Unternehmen genutzt wird, KI einsetzt. Wir wissen, dass die bei OpenAI fett

00:25:16: mit im Geschäft sind. Das heißt, die werden auf jeden Fall auch im Hintergrund ChatGPT-Technologie

00:25:20: benutzen, sonst hätten die sich da nicht so fett eingekauft. So, jetzt hast du gerade gesagt, wir

00:25:26: haben mit Windows sowieso schon das Problem, es werden Versionen angeboten bei ChatGPT und bei

00:25:30: Microsoft, die sagen, mit Enterprise ist es rechtskonform. Dann achten wir auf Rechtskonformität.

00:25:37: Das heißt, übersetzt für alle Unternehmer, das Unternehmen sagt öffentlich, und das ist ganz

00:25:43: wichtig, es sagt öffentlich, dass keine Rechtskonformität garantiert ist, wenn man

00:25:48: nicht diese Enterprise-Version nutzt. Ach so, kann man sehen. Das ist wichtig, vor allen Dingen,

00:25:53: weil, jetzt kommt ja das Beste, das heißt ja nicht, dass die Enterprise-Version automatisch

00:25:58: rechtssicher ist oder Rechtssicherheit garantiert. Das heißt, nur damit ist sie möglich. Und wenn

00:26:04: man sich dann anguckt, dass, und nur mal so by the way, Microsoft gar kein kleiner Fisch im

00:26:10: DSGVO-Bußgeldkatalog der letzten Jahre war, man muss halt nur mal genau nachsuchen und gucken,

00:26:16: wie häufig haben die es auf den Deckel bekommen und in welchem Zusammenhang standen die mit

00:26:20: Datenschutzverstößen, dann findet man die nicht rechtskonformen Einsatz von Microsoft-Windows-Produkten

00:26:28: zur Verarbeitung von Kundendaten doch relativ häufig in den letzten zwei Jahren. Und die

00:26:33: Bußgelder, die ausgesprochen wurden, sind auch verdammt nicht niedrig. Ich sage nur 50.000 Euro

00:26:42: und aufwärts. Dementsprechend würde ich das Unternehmen empfehlen, aufzupassen.

00:26:47: Meinst du 50 Millionen oder 50.000? 50.000 ist für Microsoft nicht so viel.

00:26:50: Ne, 50.000 für die Unternehmen, die unrechtmäßig Microsoft-Produkte eingesetzt haben zur

00:26:56: Verarbeitung von Kundendaten. Dass wir Microsoft nicht kommen können mit 50.000, das ist klar. Es

00:27:01: geht eigentlich auch nicht darum, welche Rechtsverstöße Microsoft selber durchführt,

00:27:05: sondern es geht darum, dass die Unternehmen, die deren Produkte einsetzen, für Rechtsverstöße

00:27:10: durch den Einsatz dieser Produkte belangt wurden. Und das ist eben eine Tatsache, die super viele

00:27:16: Unternehmen immer wieder außer Acht lassen. Und ich finde, das ist ziemlich fahrlässig,

00:27:21: gerade wenn man die gesamte Infrastruktur, und das ist in vielen Unternehmen so,

00:27:24: auf Microsoft-Produkten aufbaut, die jetzt nach und nach in Cloud-Produkte alle umgewandelt werden.

00:27:30: Alles ist nur noch Azure, alles kostet nur noch monatlich Geld, ist nur noch gemietet. Und

00:27:34: Microsoft eigentlich jederzeit entscheiden kann, welches Unternehmen es als nächstes wirtschaftlich

00:27:38: lahmlegt, weil es denen einfach mal, keine Ahnung, die Preise erhöht oder die Lizenz sperrt so lange,

00:27:43: wie sie nicht bezahlen und solche Gedönse. Also diese Abhängigkeitsgeschichten auf der

00:27:47: wirtschaftlichen Ebene kommen eben auch noch da rein. Aber der Verstoß in der, sage ich mal,

00:27:52: in der Nutzung von personenbezogenen Daten, Verarbeitung von Kundendaten und vor allen Dingen

00:27:58: auch, und das ist mir so wichtig bei der Datenschutzgrundverordnung, der Respekt gegenüber

00:28:02: der anderen Person. Das ist das, worum es geht. Es geht um nichts anderes als diesen Respekt. Und

00:28:08: wenn ich als Unternehmen sage, Datenschutz ist mir egal, dann heißt das, der Respekt gegenüber

00:28:14: meinem Kunden, meinem Mitarbeiter, meinem Lieferanten ist mir egal. Und dann habt ihr,

00:28:19: nach moralischer Definition, es eben leider auch nicht verdient, dass die euch mit Respekt

00:28:24: behandeln. Das ist so ein Fühlen wieder. Jetzt noch eine Sache für alle Unternehmen, denen Datenschutz

00:28:30: egal ist, habe ich noch eine Botschaft, also denen auch ihre eigenen Geschäftsgeheimnisse

00:28:33: vielleicht egal sind oder die glauben, wenn sie die hochladen, passiert schon nichts. Denen kann

00:28:37: ich sagen, lokale, also unternehmenseigene Systeme, manche nennt es Co-Location oder auch Miethardware,

00:28:42: eigene Hardware, was auch immer, können für viele Anwendungsfälle deutlich bessere Ergebnisse

00:28:48: produzieren als ChatGPT, Google-Bart oder Bing oder auch Bild-Generatoren oder sowas. Das muss

00:28:53: man einfach nur wissen. Da reden wir über den reinen Nutzen. Wem schon der Datenschutz egal ist,

00:28:58: was wirklich traurig genug ist oder auch die eigenen Datengeschäftsgeheimnisse, der soll

00:29:02: darüber nachdenken, wenigstens den Nutzen in den Vordergrund zu stellen. Ja, definitiv. Wenn ich

00:29:08: dem auch nicht zustimmen möchte, weil du hast ja allgesprochen, wenn es schon egal ist und mir ist

00:29:14: es nicht egal, aber du hast natürlich in der Essenz recht, ist dann wenigstens mal darüber

00:29:19: nachdenken, was soll mir der ganze Bums eigentlich bringen, wenn ich ihn dann schon benutze. Also ich

00:29:24: glaube, zusammengefasst können wir sagen, der Einsatz von Chatbots mit KI oder KI im Unternehmen

00:29:30: ist ein äußerst kritisches Feld, das extrem vorsichtig und umsichtig behandelt werden sollte,

00:29:38: denn wenn es leichtsinnig behandelt wird, dann steht einem eben auch nicht der Schutz zu,

00:29:43: dass man im Falle eines Verstoßes gegen die Datenschutz-Grundverordnung, eines Bußgeldes,

00:29:47: das verhängt wird, einer Schadenersatzklage von Betroffenen in irgendeiner Form eine Handhabe hat,

00:29:53: um zu sagen, ja, aber wir haben ja versucht, das Richtige zu tun. Also bitte, liebe Leute,

00:29:57: wenn ihr das schon einsetzen müsst, dann folgt Klaus Rat, macht das mit einer lokalen Lösung,

00:30:02: sodass ihr das selber kontrollieren könnt und dass es auch wirklich euch selbst gehört. Und

00:30:06: wenn ihr die anderen Systeme nutzt, dann verflucht noch mal, lasst euch nicht von

00:30:10: irgendwelchen Anwälten beraten dazu, wie das funktioniert, die von Technik keine Ahnung haben,

00:30:15: sondern holt euch einen Spezialisten für die Entwicklung von Generative AI Modules und so

00:30:20: weiter und fragt den, ob das überhaupt möglich ist, das umzusetzen, was ihr wirklich vorhabt.

00:30:25: Denn in den meisten Fällen ist es halt so, dass diese Chatbots nicht dazu da sind,

00:30:31: personenbezogene Daten von irgendwelchen Daten zu unterscheiden.

00:30:34: So ist es. Ja, so kann man es sagen, Stephan. Und ein guter Schlusspunkt. Rein formal,

00:30:39: man kann halt einfach Probleme nicht einfach wegdiskutieren, die da sind, sondern man muss

00:30:43: sie lösen und lösen kann man sie nicht, indem man ein Dokument draufschmeißt, ein juristisches.

00:30:48: So, das vielleicht zum Schluss von mir. Die EU-US-Privacy-Framework lässt grüßen. Wir

00:30:54: schmeißen mal das dritte Dokument drauf und hoffen, dass es kleben bleibt. Ja, genau das ist es noch.

00:30:59: Absolut. Ja, wunderbar. Klaus, ich danke dir vielmals für diesen kleinen Talk,

00:31:04: allen Zuhörern da draußen. Ich hoffe, es hat euch Spaß gemacht und ihr konntet was davon mitnehmen,

00:31:09: auch für euren Unternehmensalltag. Oder würde ich mich freuen, wenn wir uns beim nächsten Mal

00:31:12: wieder treffen beim Datenschutz Deluxe Podcast. Bleibt uns treu und noch weiter einen schönen Tag.

00:31:18: Tschüss. Das war Datenschutz Deluxe. Du willst mehr spannende Themen oder Kontakt zu uns? Dann

00:31:27: besuche Klaus Meffert auf seinem Blog Dr. DSGVO und Stephan Plesnik auf seinem YouTube-Kanal

00:31:33: Datenschutz ist Pflicht. Bis zum nächsten Mal.

00:31:39:

Neuer Kommentar

Dein Name oder Pseudonym (wird öffentlich angezeigt)
Mindestens 10 Zeichen
Durch das Abschicken des Formulars stimmst du zu, dass der Wert unter "Name oder Pseudonym" gespeichert wird und öffentlich angezeigt werden kann. Wir speichern keine IP-Adressen oder andere personenbezogene Daten. Die Nutzung deines echten Namens ist freiwillig.