#38 Microsoft Copilot: Versicherung bei Urheberrechtsverletzungen?
Shownotes
Der Podcast rund um das Thema Datenschutz und IT. Mit Dr. Klaus Meffert und Stephan Plesnik.
38 Microsoft Copilot: Versicherung bei Urheberrechtsverletzungen?
Microsoft verspricht, für Kunden einzuspringen, die mit Copilot Werke (Quellcode, Bilder, Texte..) erstellt haben und deswegen Urheberrechtsprobleme erfahren. In Wahrheit greift diese Versicherung in vielen Fällen nicht. Weiterhin verhindert sie NICHT die Probleme, die entstehen, wenn ein Copilot-Werk nicht mehr verwendet werden darf.
Dies und einiges mehr in der aktuellen Episode von Datenschutz Deluxe.
Feedback geben? Fragen stellen? Gerne hier:
https://dr-dsgvo.de
Videokanal von Stephan: https://www.youtube.com/datenschutzistpflicht
Impressum:
https://dr-dsgvo.de/impressum
Inhaltlich verantwortlich ist jeder der Sprecher für seine eigenen Äußerungen.
Transkript anzeigen
00:00:00: Datenschutz Deluxe, der Podcast rund um das Thema Datenschutz und IT
00:00:08: mit Dr. Klaus Meffert und Stephan Plesnik.
00:00:30: Hallo und herzlich willkommen, liebe Zuhörer. Hier ist wieder der Datenschutz Deluxe Podcast.
00:00:43: Mein Name ist Stephan Plesnik und ich begrüße euch recht herzlich.
00:00:46: Bei mir ist wie immer Dr. Klaus Meffert. Lieber Klaus, wie geht es dir?
00:00:51: Mir geht es wie immer gut, wenn wir sprechen. Stephan, wie geht es dir?
00:00:56: Mir geht es auch hervorragend. Und zwar hauptsächlich,
00:01:00: weil wir heute an das Thema, hatten wir ja schon angekündigt,
00:01:02: anknüpfen wollen vom letzten Mal. Da ging es ja um Nutzungsrechte
00:01:08: bei der Nutzung von Generative AI und was da alles so im Argen sein kann.
00:01:13: Und da ist was ganz Interessantes passiert.
00:01:17: Nämlich Microsoft hat selber eine große Ankündigung gemacht zu ihrem Copilot
00:01:22: und den damit verbundenen Copyright bzw. Urheberrechts- oder Nutzungsrechte
00:01:30: Verletzungen, die da entstehen können, wenn Nutzer von Microsoft über den Copilot
00:01:37: Inhalte generieren lassen. Und was Microsoft da sagt, auf ihrem eigenen Blog,
00:01:43: Stand 7. September 2023, ist, dass sie alle Rechtskosten, die eventuell entstehen,
00:01:53: wenn jemand einklagt, übernehmen würden. Bedeutet, wir benutzen den Microsoft Copilot,
00:01:59: wir generieren darüber irgendwelche Dinge, verwenden diese Dinge und jetzt kommt jemand
00:02:04: und sagt, hey, das ist aber so nicht richtig, das gehört eigentlich mir,
00:02:08: das dürftet ihr so nicht verwenden, da habe ich ein Nutzungsrecht
00:02:12: bzw. einen Urheberrechtsanspruch drauf. Und dann sagt Microsoft, kein Problem,
00:02:17: liebes Unternehmen, wir übernehmen für dich ab jetzt die Rechtskosten,
00:02:22: die daraus entstehen, aus diesem Rechtsstreit. Und für mich sieht das ein bisschen so aus,
00:02:29: als wenn da ein Gigant mit unendlich viel Geld so ziemlich seine Marktmacht ausnutzt,
00:02:36: weil wer gegen Microsoft klagt, als einzelner Künstler oder so, der hat ja wahrscheinlich
00:02:43: relativ schlechte Karten. Wie siehst du das, Klaus?
00:02:46: Ja, also zunächst mal, ich habe mich auch kurz eingelesen in dieses Thema. Ich kenne jetzt nicht
00:02:52: die genauen Details bei Microsoft, denn da hängt es auch von den Nutzungsbedingungen ab. Also zunächst
00:02:59: mal, Microsoft übernimmt nur, muss man sagen, aber immerhin ja natürlich, die Kosten eines Rechtsstreits,
00:03:06: die Konsequenzen aus dem Rechtsstreit, die der, wenn der Kläger denn gewinnt, gegen den,
00:03:11: der Copilot-generierte Werke genutzt hat, die übernimmt Microsoft nicht. So habe ich es jedenfalls
00:03:16: verstanden. Das heißt, du nimmst ein Bild, was mit Copilot generiert wurde oder ein Programmcode,
00:03:23: nehmen wir mal ein Bild, das kann man sich besser vorstellen, setzt es auf deine Webseite,
00:03:27: druckst es auf deine Visitenkarten, beklipst es auf deine Webseite, druckst es auf deine Visitenkarten,
00:03:29: druckst es auf deine Visitenkarten, druckst es auf deine Visitenkarten, druckst es auf deine Visitenkarten,
00:03:29: schiebst deinen Firmenwagen damit, ja, und dann klagt jemand gegen dich, weil du, weil er sagt,
00:03:35: das ist sein Bild. Das ist zu ähnlich zu seinem Bild. Und dann übernimmt Microsoft die Kosten,
00:03:42: um einen Anwalt zu bezahlen und die Gerichtskosten, um deine Klage zu versuchen abzuwehren.
00:03:47: Wenn du jetzt, wenn du jetzt aber verlierst und das Gericht sagt, du darfst dieses Bild nicht mehr verwenden,
00:03:53: dann musst du, so habe ich das verstanden, auf eigene Kosten dein Auto, von deinem Auto den Aufkleber abkratzen,
00:03:59: die Visitenkarten wegschmeißen und neue drucken, die Webseite überarbeiten und wenn du auch Social Media Posts gemacht hast,
00:04:05: die in aller Welt schon sind, dann musst du die alle zurückholen. Das ist mein Kenntnisstand.
00:04:10: Also es ist natürlich so, wie du sagst, Microsoft tut so, also versucht quasi sein eigenes Produkt in den Markt zu pressen,
00:04:18: indem es die Sorgen von Menschen lindern will. Und wie du sagst, ich finde auch, Microsoft nutzt da seine Marktmacht,
00:04:27: sagt natürlich gleichzeitig, wir sehen gar nichts.
00:04:29: Ich glaube gar nicht, dass es Urheberrechtsprobleme gibt mit KI-generierten Werken, aber trotzdem zur Sicherheit helfen wir euch, wenn was passiert.
00:04:35: Das ist natürlich Unsinn, weil, ich weiß es ja selbst, KI-generierte Bilder insbesondere, die sind sehr oft sehr ähnlich oder sogar nahezu gleich mit Originalwerken.
00:04:48: Marvel Comics insbesondere als Beispiel, weil wenn du als Suchbegriff Marvel oder Spider-Man eingibst oder sowas,
00:04:53: da gibt es halt nicht so viele andere Dinge als von Marvel, diese eine Figur, die da rauskommt im Endeffekt.
00:04:59: Die ist eben populär ist in der KI. Und die sieht halt eins zu eins oder exakt so aus.
00:05:04: Ich meine, ob der Spider-Man jetzt auf dem grauen Gebäude sitzt an der Wand oder auf dem grünen Gebäude, das ändert jetzt am Urheberrechtsschutz gar nichts, sage ich jetzt mal.
00:05:14: Oder ob der Spider-Man jetzt 1,60 Meter groß ist oder 1,50 Meter auf dem Bild, angenommenerweise natürlich, wenn man es hochskalieren würde.
00:05:22: Das spielt keine Rolle für den Urheberrechtsschutz. Es ist sehr nah dran am Originalwerk zum Verwechseln ähnlich, muss man sagen.
00:05:28: Und damit ist das Urheberrecht verletzt. Das ist vollkommen egal, ob das eine KI generiert hat oder ein Mensch.
00:05:33: Das Urheberrecht gilt immer in Deutschland jedenfalls. Also für dich als Urheber, egal wie der andere, der dein Bild nachgemacht hat, wie er es nachgemacht hat.
00:05:42: Ich meine, es wäre noch schöner. Angenommen, du bist der Urheber von Spider-Man, dann gehe ich her und sage, ja, ich habe ja Spider-Man mit einer KI generiert.
00:05:50: Da greift ja das Urheberrecht nicht. Das wäre ja Unsinn, oder?
00:05:52: Also ich meine, da kann man schon die verquerte Logik von Microsoft. Ich habe es, wie gesagt, nur gelesen.
00:05:57: Ich gehe davon aus, dass die Quelle hier seriös ist, die ich habe, ein deutsches Medium.
00:06:00: Aber man sieht daran, Microsoft ist da wieder mal, finde ich, ein asoziales Unternehmen.
00:06:07: Ja, ich finde das insofern auch interessant, weil Sie sagen ja, Sie hätten sogenannte Guardrails and Mitigations, die das Unternehmen quasi vorher implementiert haben muss.
00:06:23: Und das ist halt so ein Punkt.
00:06:24: Und wenn man sich dieses Werk durchlesen möchte, was man natürlich kann, dann ist man auf jeden Fall erstmal beschäftigt zu verstehen, was man überhaupt tun muss.
00:06:36: Und es hat halt auch damit zu tun, dass man bestimmte Dinge in diesem Copilot implementieren muss, in der Funktionalität von diesem Copilot.
00:06:45: Und nur dann greift das. Also die Standardvariante des Copilot, die einfach mal so jetzt in jedem Windows genutzt werden könnte,
00:06:54: die bietet also diesen Rechtsschutz gar nicht.
00:06:57: Man muss also vorher noch einen zusätzlichen Schritt gehen, bevor dann dieses Vertragswerk, über das Microsoft da spricht, dann überhaupt gilt.
00:07:06: Und wenn man das implementiert hat, dann ist es genau wie du sagst, dann übernehmen sie nur die Kosten des Rechtsstreits.
00:07:13: Also sie versuchen sozusagen im Endeffekt an der Stelle dann zu sagen, naja gut, wenn dann jemand klagt, dann übernehmen wir die Kosten dafür.
00:07:20: Die Wahrscheinlichkeit, dass jemand klagt, ist halt aufgrund dieser Tatsache relativ...
00:07:24: relativ viel geringer, weil wer hat schon Chancen, Microsoft in einem Rechtsstreit als einzelne Person irgendwie beizukommen?
00:07:31: Im Zweifel können die ja alles so lange hinauszögern und immer wieder verargumentieren, dass einem halt selber das Geld ausgeht, um dagegen zu klagen.
00:07:40: Besonders wenn ich jetzt darüber nachdenke, dass du halt irgendein freier Künstler bist, dessen Nutzungsrechte oder Urheberrechte dort verletzt werden.
00:07:49: Im Falle, den du beschreibst von Marvel jetzt zum Beispiel, finde ich, geht es ja nochmal ein ganzes Stück weiter.
00:07:54: Weil es gibt ja jetzt schon Webseiten wie Huggingface.co, wo du einfach eingeben kannst eine Story und du schreibst einfach...
00:08:06: Ich habe das jetzt gerade parallel mal gemacht aus Joke und habe gesagt, ich gebe mal einen Spider-Man-Sitting-on-Bed-Typing-in-Laptop und der hat mir einfach ein komplettes Comic generiert.
00:08:15: Also ein komplettes Comic aus diesen Informationen. Es sieht halt eins zu eins aus wie ein Original-Marvel-Comic.
00:08:22: Also es ist wirklich zu 100% Comic.
00:08:24: Es könnte das so ein Comic sein.
00:08:27: Und da sehe ich genau die Problematik, die du auch beschreibst.
00:08:30: Wir können halt den Unterschied nicht mehr machen, ob die AI das generiert hat oder ob es ein Original-Content ist.
00:08:37: Und ich finde es halt eigentlich ziemlich fahrlässig, was Microsoft da tut.
00:08:40: Weil es lädt ja eigentlich dazu ein, diese Verletzungen zu begehen.
00:08:44: Das erste, die Huggingface.co, ist die populärste KI-Plattform grundsätzlich.
00:08:49: Das ist das erste für jeden, der es interessiert.
00:08:51: Allerdings, also klar, wie du es jetzt gemacht hast, kann natürlich jeder.
00:08:54: Wenn er da entsprechende Spaces, heißt es, also Anwendungen findet, kann er die nutzen.
00:08:58: Ansonsten ist es sehr stark auf Entwickler ausgerichtet, weil es eben sehr technisch ist.
00:09:02: Für mich sehr gut. Ich wollte es nur mal erwähnen.
00:09:04: Dann das zweite, diese sogenannte Versicherung, die da Microsoft anbietet.
00:09:09: Also ich weiß jetzt erstmal nicht, ob es eine Versicherung ist oder ob Microsoft einfach nur die Kosten...
00:09:13: Das ist ja ein Unterschied, ja. Ich meine, ob man dann einen Vertrag abschließt mit Versicherungsbedingungen oder wie, das ist keine Ahnung.
00:09:18: Ja.
00:09:19: Im Endeffekt ist es ja auch egal.
00:09:21: Aber Microsoft sagt, wie bei einer normalen Versicherung.
00:09:24: Versicherungsversicherung allerdings auch.
00:09:26: Beispielsweise bei der Hausratversicherung ist es, glaube ich, so.
00:09:30: Sie müssen alle möglichen Vorkehrungen, die wir Ihnen jetzt nennen, getroffen haben, damit der Versicherungsschutz greift.
00:09:37: Und bei der Hausrat- oder Gebäudeversicherung ist es, glaube ich, wenn man da zum Beispiel kein Rückschlagventil drin hat in dem Abfluss im Keller
00:09:45: und da kommt Wasser rein, dann greift der Versicherungsschutz nicht.
00:09:49: Wenn man aber ein Rückschlagventil drin hat, dann kann eigentlich so gut wie nie was passieren, sage ich jetzt mal.
00:09:53: Ja, als Beispiel.
00:09:54: Das heißt, viele Versicherungen, die nehmen den Kunden so stark in die Pflicht, dass es die Frage ist, ob die Versicherung überhaupt nötig ist.
00:10:02: Bei Microsoft zum Beispiel ist es so, ich habe es jetzt gerade nachgeguckt, da gibt es Verpflichtungen, die der Kunde einhalten muss.
00:10:09: Und da wird dann geprüft bei einer Urheberrechtsverletzung, von Microsoft wird das geprüft, hat der Kunde denn eigentlich unsere Bedingungen eingehalten?
00:10:16: Und wenn nein, dann greift diese Versicherung gar nicht.
00:10:18: Ist ja okay grundsätzlich, ja.
00:10:20: Ich meine, es sollte nur einfach jeder wissen.
00:10:22: Klar.
00:10:23: Denn eine Bedingung ist zum Beispiel, dass der Kunde, wenn er zum Beispiel diesen Prompt, den du da eben verwendet hast, ja, den dürfte der Kunde gar nicht verwenden.
00:10:32: Der müsste nämlich noch hinten dran schreiben, einen sogenannten Metaprompt, der Copyright-Verletzungen verhindern soll.
00:10:41: Hier haben sie als Beispiel genannt in Englisch, to avoid copyright infringements.
00:10:45: So, wenn du das nicht dahingeschrieben hast, dann kannst du diese Versicherung auch gar nicht in Anspruch nehmen.
00:10:50: Das heißt, du bist dann der Dumme.
00:10:52: Das ist nur mal so nebenbei gesagt.
00:10:54: Und dann ist es auch so, man klagt natürlich nicht gegen Microsoft, sondern man klagt natürlich gegen den Urheberrechtsverletzer.
00:11:00: Also gegen dich in dem Fall, wenn du diesen Spider-Man auf deinem Auto drauf hättest.
00:11:04: Genau.
00:11:05: Kann sein natürlich, klar, wenn die Bedingungen alle eingehalten wurden von dir, Microsoft-Bedingungen eingehalten wurden, dass Microsoft dir dann zur Seite springt.
00:11:12: Aber zunächst mal weiß keiner, dass du von Microsoft protegiert wirst, was ja zu deinem Nachteil ist, muss man ja sagen in dem Fall, wenn du mal die Rolle des Sünders übernehmen möchtest.
00:11:21: Ja.
00:11:22: Denn wenn jeder wüsste, dass du von Microsoft vertreten wirst, dann würdest du vielleicht 50% weniger Klagen kriegen.
00:11:29: Ich sage es mal vereinfacht jetzt natürlich, man kann diese Zahlen nur imaginär zusammenstellen.
00:11:34: Aber das heißt, du kriegst erstmal die volle Bandbreite ab.
00:11:37: Und dann bist du erstmal, wie gesagt, das Beste, was dir passieren kann, ist, dass deine Gerichtskosten und die Anwaltskosten übernommen werden.
00:11:44: Und wenn du, also ich meine, bei Urheberrechtsverletzungen ist es oft sehr eindeutig, vor allem bei generativer KI.
00:11:51: Da guckt man sich den Original Spider-Man an, dann guckt man sich das an, was du da generiert hast und dann sieht man, dass das sehr ähnlich ist.
00:11:56: Da muss man, das ist ein No-Brainer.
00:11:58: Da würde ich jetzt mal persönlich sagen, ich kenne mich da bei Urheberrechtsthemen vor Gericht nicht aus.
00:12:02: Aber nach dem, was ich so gelesen und gehört habe, würde ich mal sagen, es ist ziemlich eindeutig, dass du da ein Problem kriegst vom Gericht.
00:12:09: Dass du nämlich das nicht mehr, dass du es unterlassen musst, dieses Werk zukünftig zu verwenden.
00:12:14: Und die Kosten, die dann entstehen, haben wir ja vorhin drüber gesprochen, Visitenkarten wegschmeißen, Webseite überarbeiten, Social-Media-Posts alle zurückholen.
00:12:20: Aufkleber vom Auto abkratzen, Neues alles erzeugen.
00:12:24: Die sind deutlich höher wahrscheinlich.
00:12:26: Und der Ärger, das wirkt ja nach, als das, was Microsoft übernimmt.
00:12:30: Und es muss alles in kurzer Zeit passieren, wohlgemerkt.
00:12:33: Ich weiß nicht, ob du schon mal versucht hast, im Internet Inhalte, die du rausgeschickt hast in alle Welt, innerhalb von sieben Tagen zu vernichten wieder.
00:12:40: Das geht. Ich musste das schon mal machen, auch für Kunden.
00:12:44: Aber das kostet sehr, sehr viel Zeit und funktioniert auch nicht immer.
00:12:49: Okay.
00:12:50: Also, wenn es nicht funktioniert, manche Suchmaschinen bieten zum Beispiel diese Auslistungsmöglichkeit gar nicht explizit an.
00:12:55: Die machen das nur alle ein, zwei Monate mit dem Regelneulauf.
00:12:58: Da musst du das dokumentieren, dass du das versucht hast, bestmöglich.
00:13:03: Und dann, falls der Gegner dann nochmal sagt, nee, du hast aber jetzt immer noch nicht alles richtig gemacht, dann sagst du, ich habe es aber versucht.
00:13:09: Hier sind meine Beweise.
00:13:10: Dann kann es sein, dass es nochmal vor Gericht geht und da ist dann Microsoft schon längst draußen.
00:13:13: Also, wie du gesagt hast, ist eine Frechheit eigentlich von Microsoft.
00:13:17: Und unabhängig davon, wie gesagt.
00:13:19: Natürlich gibt es Urheberrechtsverletzungen, wenn du ein Original so 98 Prozent gleich machst.
00:13:24: Und vielleicht ein Punkt noch.
00:13:26: Microsoft schreibt ja, das ist ja erstmal gut, diese Guardrails, die du erwähnt hast.
00:13:30: Das heißt, Sicherheitsvorkehrungen, die in die KI eingebaut werden.
00:13:35: Und ich weiß auch, wie das technisch funktioniert.
00:13:37: Ich habe es schon selbst programmiert.
00:13:39: Man vergleicht eben das generativ erzeugte Bild, also den Output des KI-Modells, von Copilot in dem Fall, mit allen Eingabebildern.
00:13:48: Das sind 10 Milliarden zum Beispiel, die im Trainingsdatensatz der KI vorhanden sind.
00:13:53: Diese Bilder müssen gar nicht in Rohdaten gespeichert werden, sondern nur die sogenannten Einbettungen, Embeddings, also Zahlenreihen.
00:13:59: Das heißt, die Struktur des Bildes, so wie du bei dir im Gehirn ein Bild abspeicherst, so wird es in der KI auch abgespeichert.
00:14:05: In den Neuronen als Gewichte.
00:14:08: Und dann wird geguckt, ist eins der Eingabebilder zu ähnlich mit, mindestens eins der Eingabebilder zu ähnlich mit dem Ausgabebild.
00:14:17: Und wenn ja, dann wird das Ausgabebild vernichtet.
00:14:19: Problem dabei, jetzt nehmen wir mal an den Spider-Man wieder.
00:14:23: Klar kann man den Spider-Man erkennen als zu ähnlich.
00:14:28: Aber, wenn der Spider-Man nur eine von 100, ich übertreibe jetzt ein bisschen, von 100 Figuren ist oder 100 Dinge, die auf dem Bild zu sehen sind, auf dem Output-Bild.
00:14:37: Und der Spider-Man ist so winzig klein und alles andere ist anders.
00:14:41: Dann kann dieser Spider-Man nicht unbedingt erkannt werden.
00:14:46: Als im Original vorhanden.
00:14:48: Zu ähnlich sozusagen ist er dann nicht.
00:14:51: Das heißt, er ist weit genug entfernt nach Meinung der KI.
00:14:53: Jetzt weiß ich aber, dass es für die Größe eines Bildes eigentlich fast egal ist bei einer Urheberrechtsverletzung.
00:14:59: Das heißt, auch Icons können Urheberrechtsverletzungen hervorrufen.
00:15:03: Und ich meine, ein Icon in einem Bild mit 7000 anderen Sachen ist trotzdem ein Icon in einem Bild, was eine Urheberrechtsverletzung darstellt.
00:15:12: Und insofern kann man diese Guardrails gar nicht so ausgleichen.
00:15:15: Klar.
00:15:16: Das heißt, die KI muss gestalten, dass es ein Problem ist.
00:15:19: Kein Problem ist.
00:15:20: Das ist ja krass.
00:15:21: Dass es kein Problem ist.
00:15:22: Ja.
00:15:23: Ja, das ist ja krass.
00:15:24: Das heißt also, im Endeffekt spielt dabei auch das Verhältnis, in dem der Output generiert wurde, eine große Rolle dafür, ob die KI das richtig interpretieren kann überhaupt.
00:15:36: Und ob sie dann überhaupt Rücksicht darauf nehmen kann.
00:15:39: Das ist eine Sache, die ich nicht wusste.
00:15:41: Ich dachte, die KI wäre dann irgendwie intelligenter als ein Mensch.
00:15:45: Weil die ja irgendwie besser sowas scannen können.
00:15:47: Weil wir Menschen übersehen ja Dinge schon mal häufig.
00:15:50: Jetzt hätte ich eigentlich gedacht, dass eine KI dann das weniger übersieht.
00:15:53: Aber die sind ja an der Stelle noch menschlicher.
00:15:55: Kann sie auch.
00:15:56: Das ist ja krass.
00:15:57: Also sie kann natürlich mehr scannen und erkennt auch mehr.
00:16:00: Die Frage ist, ob der Ähnlichkeitswert, der ermittelt wird, hoch genug ist, um eine Copyright-Verletzung automatisiert annehmen zu können.
00:16:08: Weil wenn zu oft eine Copyright-Verletzung angenommen wird wiederum, dann werden ja alle Outputs, also dann werden die Kunden unzufrieden.
00:16:14: Weil dann sagen die alle, ja Copilot generiert ja nur Copyright-verletzende Werke.
00:16:20: Das finde ich jetzt super spannend, weil das ist eigentlich ein cooler Anknüpfungspunkt, wo ich jetzt gerade mal darüber nachdenke.
00:16:25: Datenschutz, personenbezogene Daten.
00:16:28: Wenn wir jetzt mal davon ausgehen, wir haben ein Bild, wo Menschen drauf sichtbar sind.
00:16:32: Wirkt sich das dann für zum Beispiel eine KI, die bestimmte Informationen verpixeln soll, weil Menschengesichter erkennbar sind, dann ähnlich aus?
00:16:43: Oder kann die KI an der Stelle mit anderen Mechanismen, zum Beispiel jetzt wenn ich ein Bild habe mit einer Gruppe von Menschen und deren Köpfe sind aber jetzt, vielleicht ist einer eher prominent und andere im Hintergrund sind irgendwie kleiner.
00:16:56: Wirkt sich das dann genau so aus?
00:16:58: Nicht unbedingt. Also man kann diese Menschengesichter schon erkennen.
00:17:03: Wenn sie ein bisschen größer sind, hilft es natürlich.
00:17:05: Das ist analog zu Überwachungsvideos.
00:17:07: Wenn eine Überwachungskamera sehr schlechte Qualität hat, schwarz-weiß noch, weil es in der Nacht ist und dann noch weit weg von dem Objekt.
00:17:12: Ja.
00:17:13: Wo der Einbrecher vielleicht gerade ist, dann wird es natürlich immer schwieriger.
00:17:17: Aber grundsätzlich ist die Position und die Größe eines Objektes für die KI kein Problem.
00:17:22: Das ist ja das Schöne, muss man sagen.
00:17:25: Das ist invariant bezüglich Größe und Position und auch Farbgebung.
00:17:29: Das heißt, eine KI kann schon erkennen, ob da ein Gesicht oder ein Mensch ist, unabhängig davon, wie groß, in welcher Position und so weiter dieses Objekt sich befindet.
00:17:40: Okay, das heißt also an der Stelle.
00:17:42: An der Stelle könnte man sagen, wir können mit KI so eine Bildinterpretation von so Videoaufnahmen und so weiter, würde an der Stelle bis zu einem gewissen Grad funktionieren.
00:17:54: Aber dieser Grad ist eigentlich relativ hoch, sodass also ab dem Moment, wo eigentlich auch für einen Menschen nicht mehr zu erkennen ist, dass es ein Mensch ist oder welcher Mensch es ist, auch da würde die KI erst scheitern.
00:18:06: Naja, also ob es ein Mensch ist, kann man schon meistens erkennen.
00:18:10: Es kommt auf das Modell an.
00:18:11: Ja.
00:18:12: Wie gut es trainiert ist, ob es auf Menschen trainiert ist oder ein allgemeines.
00:18:14: Also das kann man schon bis zum sehr guten Grad.
00:18:16: Ich habe es sogar schon gemacht für eine 3SAT Sendung, die ausgestrahlt wird im März, glaube ich.
00:18:22: Da geht es um Sicherheit im Museumsbereich, Grünes Gewölbe und so weiter.
00:18:26: Und da wurde ich interviewt relativ lange und auch habe da eine KI programmiert, die zu originalen Überwachungsvideos die Menschen, also Einbrecher in dem Fall, markiert.
00:18:36: Das klappt sehr gut.
00:18:37: Es gibt einzelne Fälle, wo es nicht geklappt hat.
00:18:39: Da war aber wirklich.
00:18:40: Der Mensch sehr weit weg, sehr stark verschwommen mit dem Vordergrund, Balustrade und so weiter.
00:18:46: Und das KI-Modell war auch gar nicht fein trainiert auf diesen Fall.
00:18:49: Das heißt, ich habe einfach ein Basismodell genommen, das ein bisschen optimiert.
00:18:52: Das heißt, da hätte man noch viel mehr machen können.
00:18:54: Das geht schon alles.
00:18:55: Nur wie gesagt, es geht ja auch nicht immer um Spider-Man.
00:18:59: Es geht ja oft auch einfach um Formen.
00:19:02: Und da sagt man ja nicht, diese Form ist, also wie soll ich sagen, Spider-Man weiß jeder.
00:19:07: Wenn dann Spider-Man drauf ist, ist eine Urheberrechtsverletzung.
00:19:09: Aber wenn da jetzt die Form eines Künstlers 4711 drauf ist, ja, ich weiß ja gar nicht mal, dass es diese Form anderswo gibt.
00:19:17: Und was soll die KI mir da melden sozusagen?
00:19:20: Das ist das Problem.
00:19:22: Da müsste ich mir ja angucken, die Bilder.
00:19:24: Das könnte man machen übrigens.
00:19:26: Nur der Punkt ist halt, wenn, ja, Urheberrecht ist ja auch eine Ermessenssache, wenn man vor Gericht steht.
00:19:34: Wird der Richter das genauso beurteilen wie das KI-Modell?
00:19:37: Ja.
00:19:38: Wenn man diese Guardrails implementiert?
00:19:41: Ja, ich glaube natürlich nicht.
00:19:43: Jeder Richter macht das anders nach eigenem Gutdünken.
00:19:46: Und ein KI-Modell ist ja kein Richter.
00:19:48: Also natürlich ist es ein automatisierter Richter.
00:19:51: Aber was zählt, ist der Richter vor Gericht und nicht das KI-Modell.
00:19:57: Ja, ja, definitiv.
00:19:59: Definitiv.
00:20:01: Was genau, also wenn ich jetzt mal so gucke.
00:20:06: Einfach nur so diese Copilot-Geschichte.
00:20:09: Wenn ich mir jetzt vorstelle, die ist jetzt implementiert in den ganzen Windows-Produkten.
00:20:16: Und ich kann die nutzen.
00:20:19: Da steht direkt dabei mit Bing.
00:20:22: Das ist also irgendwie auch mit der Suchmaschine von denen verknüpft.
00:20:26: Jetzt weiß man ja von Windows, dass die, sag ich mal, in einem nicht unbeträchtlichen Maße Telemetriedaten übertragen.
00:20:35: Also Informationen über alles Mögliche, was ich mit meinem Rechner tue.
00:20:39: Wenn ich das denn nicht über bestimmte Datenschutzeinstellungshebel unterbinde.
00:20:44: Und wer weiß, ob das dann wirklich berücksichtigt wird von Microsoft an der Stelle.
00:20:49: Oder ob die die Daten trotzdem abgreifen.
00:20:51: Wenn ich also so wenig Kontrolle darüber habe, was ich an personenbezogenen Daten, an Dingen über mich preisgebe.
00:20:59: Alleine über die Nutzung meines Betriebssystems.
00:21:01: Und ich nutze jetzt diese KI.
00:21:04: Spielen dann nicht alle diese Daten mit in die Trainingsdaten der KI rein?
00:21:09: Dass dadurch gelernt wird, wie das Verhalten der Nutzer ist?
00:21:14: Um daraus bessere Rückgaben für die Prompts zu erzeugen?
00:21:19: Ja, da bin ich mir sicher, dass das Microsoft macht.
00:21:21: Ich meine, das sieht man ja auch daran, dass Microsoft mit dem neuen Outlook sagt,
00:21:27: wir werden alle deine Daten, alle deine Mails in unsere KI einfließen lassen.
00:21:32: Und dafür nutzen wir deinen Benutzernamen und deinen Benutzernamen.
00:21:33: Und dafür nutzen wir deinen Benutzernamen und deinen Benutzernamen.
00:21:34: Und dafür nutzen wir deinen Benutzernamen und deinen Benutzernamen.
00:21:35: Und dafür nutzen wir deine Benutzernamen und deinen Benutzernamen.
00:21:36: Und dafür nutzen wir deine Benutzernamen und deine Benutzernamen.
00:21:37: Und dafür nutzen wir deine Benutzernamen und deine Benutzernamen.
00:21:38: Und dafür nutzen wir deine Benutzernamen und deine Benutzernamen.
00:21:39: Und dafür nutzen wir deine Benutzernamen und deine Benutzernamen.
00:21:40: Und dafür nutzen wir deine Benutzernamen und deine Benutzernamen.
00:21:41: Und dafür nutzen wir deine Benutzernamen und deine Benutzernamen.
00:21:42: Und dafür nutzen wir deine Benutzernamen und deine Benutzernamen.
00:21:43: Und dafür nutzen wir deine Benutzernamen und deine Benutzernamen.
00:21:44: Und dafür nutzen wir deine Benutzernamen und deine Benutzernamen.
00:21:45: Und dafür nutzen wir deine Benutzernamen und deine Benutzernamen.
00:21:46: Und dafür nutzen wir deine Benutzernamen und deine Benutzernamen.
00:21:47: Und dafür nutzen wir deine Benutzernamen und deine Benutzernamen.
00:21:48: Und dafür nutzen wir deine Benutzernamen und deine Benutzernamen.
00:21:49: Und dafür nutzen wir deine Benutzernamen und deine Benutzernamen.
00:21:50: Und dafür nutzen wir deine Benutzernamen und deine Benutzernamen.
00:21:51: Und dafür nutzen wir deine Benutzernamen und deine Benutzernamen.
00:21:52: Und dafür nutzen wir deine Benutzernamen und deine Benutzernamen.
00:21:53: Und dafür nutzen wir deine Benutzernamen und deine Benutzernamen.
00:21:54: Und dafür nutzen wir deine Benutzernamen und deine Benutzernamen.
00:21:55: Und dafür nutzen wir deine Benutzernamen und deine Benutzernamen.
00:21:56: Und dafür nutzen wir deine Benutzernamen und deine Benutzernamen.
00:21:57: Und dafür nutzen wir deine Benutzernamen und deine Benutzernamen.
00:21:58: Und dafür nutzen wir deine Benutzernamen und deine Benutzernamen.
00:21:59: Und dafür nutzen wir deine Benutzernamen und deine Benutzernamen.
00:22:00: Und dafür nutzen wir deine Benutzernamen und deine Benutzernamen.
00:22:01: Und dafür nutzen wir deine Benutzernamen und deine Benutzernamen.
00:22:02: Und dafür nutzen wir deine Benutzernamen und deine Benutzernamen.
00:22:03: Und dafür nutzen wir deine Benutzernamen und deine Benutzernamen.
00:22:04: Und dafür nutzen wir deine Benutzernamen und deine Benutzernamen.
00:22:05: Und dafür nutzen wir deine Benutzernamen und deine Benutzernamen.
00:22:06: Und dafür nutzen wir deine Benutzernamen und deine Benutzernamen.
00:22:07: Und dafür nutzen wir deine Benutzernamen und deine Benutzernamen.
00:22:08: Und dafür nutzen wir deine Benutzernamen und deine Benutzernamen.
00:22:09: Und dafür nutzen wir deine Benutzernamen und deine Benutzernamen.
00:22:10: schließen muss. Ich persönlich kann
00:22:13: damit umgehen, nur größere Unternehmen, die
00:22:14: Microsoft-Jünger schon mittlerweile
00:22:17: sind oder sein müssen, die davon
00:22:19: abhängig sind von Microsoft,
00:22:20: die haben dann dieses Problem. Also ich sage
00:22:22: natürlich, ich sage mal rein
00:22:25: objektiv, wenn man mal die Gesetze weglässt,
00:22:27: ist es natürlich das Beste, wenn man
00:22:29: möglichst viele Daten in ein KI-Modell
00:22:30: einfließen lässt. Umso mehr,
00:22:33: umso besser. Wobei, also
00:22:35: das muss man wirklich sagen,
00:22:36: wobei irgendwann braucht man auch nicht mehr
00:22:38: so viele Daten. Wobei der Punkt ist, die Varianz.
00:22:41: Wenn du jetzt
00:22:41: 50 Nutzer hast, die ein Sprachmodell befragen,
00:22:45: dann wird wahrscheinlich, gibt es bestimmt
00:22:47: 30 Nutzertypen,
00:22:49: die unterschiedliche Fragearten
00:22:51: haben von der sprachlichen Formulierung her.
00:22:53: Der eine zum Beispiel sagt,
00:22:55: was sind Cookies?
00:22:56: Der andere sagt, sag mir mal,
00:22:59: was Cookies sind. Oder
00:23:00: was meinst du sind Cookies?
00:23:02: Das ist alles dieselbe Frage,
00:23:04: Frage von der Semantik her,
00:23:07: aber sprachlich komplett anders formuliert. Und ich weiß
00:23:08: gar nicht, das waren jetzt nur meine Ideen,
00:23:11: wenn du jetzt was sagen solltest
00:23:12: oder irgendjemand, den ich nicht kenne, wie der
00:23:14: dieses KI-Modell nach Cookies befragt, weiß ich nicht.
00:23:17: Und das kann man halt natürlich sehr schön rausfinden,
00:23:19: wenn man einfach alles mitprotokolliert
00:23:20: und 100.000 oder 3 Millionen
00:23:22: User hat, dann weiß man eben alles.
00:23:25: Dann gibt es keine Frage. Also wenn dann jemand
00:23:26: nach Cookies fragt und anders als 3 Millionen Nutzer,
00:23:29: dann muss er irgendeinen Dachschaden haben
00:23:30: oder vielleicht kann er die Sprache nicht richtig.
00:23:32: Also was anderes bleibt dann ja schon fast nicht mehr übrig.
00:23:36: diese Verhaltensanalyse ist
00:23:38: halt wirklich extrem. Also man kann halt
00:23:40: anhand des Verhaltens einer Person
00:23:42: auch sehr schön herausfinden, welche Persona er
00:23:44: verkörpert.
00:23:46: Ich bin so eher der analytische Typ
00:23:49: und da gibt es welche, die sind
00:23:50: eher emotionsgetrieben und so weiter.
00:23:53: Und dann sind die Menschen natürlich auch viel
00:23:54: zugänglicher für Werbung. Man weiß
00:23:56: auch bei Wahlen und so weiter.
00:23:58: Das wurde ja gemacht bei der
00:24:00: Trump-Wahl. Cambridge Analytica hast du glaube ich auch schon
00:24:02: erwähnt letztens. Also
00:24:03: Microsoft weiß
00:24:06: dann alles über uns. Ich möchte nochmal anfügen,
00:24:08: der
00:24:10: Gründer von Aleph Alpha,
00:24:12: Andrulis heißt der glaube ich, der hat ja gesagt,
00:24:15: wir sind dumm,
00:24:17: wenn wir Microsoft alle unsere Daten geben.
00:24:18: Ich sehe es genauso. Ich habe es auch vorher schon so gesagt.
00:24:20: Da brauche ich seine Aussage nicht, um das zu wissen,
00:24:22: sondern ich finde es gut, dass er es gesagt hat.
00:24:24: Ich bin derselben Meinung schon immer gewesen.
00:24:26: Und wir sollten einfach mal drüber nachdenken,
00:24:28: dass wir nicht noch mehr Abhängigkeit generieren,
00:24:31: indem wir unsere Daten an
00:24:32: Microsoft und Google weiter kostenlos liefern.
00:24:34: Und die freuen sich ohne Ende, weil
00:24:36: sie hunderte von Milliarden jedes Jahr
00:24:38: und irgendwann gibt es nur noch diese
00:24:40: zwei Konzerne, weil mit KI
00:24:42: kann man dann halt in ein paar Jahren einfach
00:24:44: alles machen. Da kann ich auch Erfindungen
00:24:46: generieren. Und alles kann ich damit
00:24:48: machen. Alles.
00:24:51: Das ist insofern
00:24:52: finde ich sehr
00:24:54: kritisch zu betrachten.
00:24:57: Auch wenn man jetzt mal davon ausgeht,
00:24:59: wir reden immer so viel beim
00:25:00: Datenschutz über Werbung. Aber wenn ich mir
00:25:02: jetzt mal überlege, wie sehr
00:25:04: ja auch das Verhalten von Menschen
00:25:06: kontrollierbar und lenkbar wird.
00:25:08: Schauen wir mal,
00:25:08: nach China, nach Shenzhen, wo wir
00:25:10: Social Credit Scoring Systeme
00:25:13: haben, wo halt
00:25:14: genauestens protokolliert wird, wenn einer bei Rot
00:25:16: über die Ampel geht, wird er auf großen
00:25:18: Werbetafeln gezeigt, sein Vergehen gezeigt
00:25:21: und gezeigt, wie viele Abzüge er
00:25:22: im Social Scoring bekommt. Und mit
00:25:24: einmal kann man aus dem Land nicht mehr
00:25:26: ausreisen, man darf irgendwelche Verträge
00:25:28: nicht mehr unterschreiben und so weiter. Also eine komplett
00:25:30: kontrollierte Gesellschaft. Und wenn
00:25:32: ich mir jetzt überlege,
00:25:34: dass wir gerade bereitwillig
00:25:36: dabei sind, diese Informationen an
00:25:38: Privatunternehmen zu vergeben. Also wir
00:25:40: vergeben die noch nicht mal an eine Form
00:25:42: einer Regierung, die in unserem Land auch
00:25:44: für bestimmte Infrastruktur oder so
00:25:46: sorgt, sondern wir übergeben die wirklich
00:25:48: an ein kapitalgetriebenes
00:25:50: Privatunternehmen. Und
00:25:52: dieses Unternehmen
00:25:53: bietet sogar ja jetzt aktuell
00:25:56: schon Services an, dass
00:25:58: man als Unternehmensvorstand
00:26:00: bestimmte Richtlinien erlassen kann,
00:26:02: dass protokolliert wird, wie fleißig
00:26:04: und sinnvoll arbeiten denn
00:26:06: die Mitarbeiter am Arbeitsplatz.
00:26:07: Wenn man das jetzt
00:26:08: kombiniert, dass ich nicht nur noch,
00:26:10: dass ich nicht nur Zeit tracken kann und
00:26:13: welche Programme benutzt wurden, sondern
00:26:15: dass ich auch noch genau weiß, was
00:26:16: innerhalb eines Programms getan wurde
00:26:18: und dann über KI auswerten kann, ob das
00:26:21: sinnhaft ist zum Ziel, das ich
00:26:23: mit meinem Unternehmen verfolge. Damit
00:26:25: machen wir die Menschen, die in den
00:26:27: Unternehmen arbeiten, vollständig
00:26:29: unmündig. Wir machen die im Endeffekt zu
00:26:32: Maschinen. Also wir versuchen
00:26:35: den Menschen genau das abzuerziehen,
00:26:38: weil wir die Menschen, die in den Unternehmen arbeiten,
00:26:38: dass wir eigentlich von den
00:26:40: Menschen wollen, nämlich die Kreativität
00:26:41: und das Mitdenken wird dadurch immer
00:26:43: stärker eingedämmt, weil wir uns jetzt
00:26:45: dann darauf verlassen können, dass die
00:26:46: KI für uns ja schon genug denkt.
00:26:48: Ja, genau. Jetzt noch zu dem letzten
00:26:50: Punkt, den du gesagt hast, will ich noch
00:26:52: eine Sache sagen, weil Microsoft, habe
00:26:54: ich jetzt auch wieder auf der Microsoft
00:26:56: Seite gelesen, was die Pflichten des
00:26:58: Kunden sind, der Copilot benutzt, damit
00:26:59: er überhaupt einen Anspruch hat, dass
00:27:01: Microsoft ihm beisteht bei einer Klage
00:27:03: gegen ihn, Urheberrechtsklage.
00:27:05: Und zwar muss der Kunde
00:27:06: vorher, wenn er sich für eine Urheberrechtsklage
00:27:08: bezieht, ein Red Teaming gemacht haben,
00:27:12: sogenanntes Red Teaming. Das heißt, er muss
00:27:14: versucht haben, das KI-Modell vom Copilot
00:27:17: zu quälen und zu versuchen, ob da nicht
00:27:20: doch irgendwelches problematisches Material
00:27:22: rauskommt. Das muss er selbst in einem
00:27:24: eigenen Report festhalten. Er muss testen
00:27:27: und er muss diesen Report, also das heißt,
00:27:29: er muss erst mal prüfen, kommt da eigentlich
00:27:32: was raus, was ich als Mensch für
00:27:34: bedenklich halten würde. Und das muss er
00:27:36: dokumentieren.
00:27:38: Ja, wunderbar.
00:27:38: Und wenn dann eine Klage kommt, muss der
00:27:40: Kunde diesen, diese Dokumentation, diesen
00:27:42: Report an Microsoft geben, um, damit
00:27:44: Microsoft das dann verwenden kann im
00:27:45: Sinne des Kunden vor Gericht, um zu
00:27:47: sagen, wir haben doch alles getan. Der
00:27:48: Punkt ist, wenn ich mir schon so viel
00:27:51: Mühe gebe, dann brauche ich auch keine
00:27:53: Versicherung mehr. Also weil dieser Fall,
00:27:55: dass dann was passiert und vor allem die
00:27:57: Kosten dafür, sage ich, sind deutlich
00:27:59: höher, wenn man mal über größere Unternehmen
00:28:01: denkt, weil bei kleineren, kleineren Unternehmen
00:28:03: kann sowas ja gar nicht leisten.
00:28:04: Wahrscheinlich auch diese Zusatzversicherung
00:28:06: gar nicht bezahlen. Ich weiß nicht, was die
00:28:08: kostet, ist ja alles relativ günstig, aber
00:28:09: dieser Aufwand.
00:28:10: Geschweige denn zu verstehen, was das
00:28:13: eigentlich alles heißt.
00:28:14: Zu verstehen, da kann ich auch ein eigenes
00:28:17: KI-Modell nutzen oder mir eins mieten in
00:28:19: Europa, in Deutschland, was nicht von
00:28:21: Microsoft, weil es ja von einem rein
00:28:23: europäischen Anbieter, deutschen Anbieter
00:28:25: vielleicht sogar, wo ich quasi
00:28:28: automatisiert diese ganzen Prüfungen
00:28:29: bekomme und wo ich mir, wo ich dann sogar
00:28:32: eine Ausgabe kriege. Das, guckt ihr mal
00:28:35: die Bilder an, die sind möglicherweise
00:28:36: ähnlich. Und das ist das, was ich dann
00:28:38: an die Backe klebe. Und das ist deutlich
00:28:40: schneller, als wenn ich mir diesen ganzen
00:28:42: Mumpitz, den Microsoft hier vorschreibt, an
00:28:44: die Backe klebe.
00:28:46: Also es ist die weitere Öffnung der Büchse
00:28:49: der Pandora an einer anderen Stelle
00:28:51: wieder mal. Und man kann nur jedem
00:28:53: Unternehmer empfehlen, erklärt es ganz
00:28:57: transparent. Und wenn ihr das nicht
00:28:59: könnt, lasst am besten die Finger davon.
00:29:01: Wenn ihr es könnt, dann bitte sorgt dafür,
00:29:05: dass ihr von jedem Nutzer die informierte,
00:29:07: eine Einwilligung habt, dass ihr diesen
00:29:09: Mist nutzen dürft. Und ich meine mit diesem
00:29:11: Mist nicht den Copilot. Ich meine Microsoft
00:29:14: Windows und jede Applikation dieses
00:29:16: Unternehmens. Denn überall stecken, steckt
00:29:19: ja jetzt dieser Mist drin, der da im
00:29:22: Hintergrund irgendwelche Daten vernudelt.
00:29:24: Du hast gerade schon das neue Outlook
00:29:26: angesprochen. Dreimal dürfen wir raten,
00:29:28: warum es das neue Teams gibt. Ja, also
00:29:30: alle diese Sachen bieten genau diese
00:29:33: Angriffspunkte und genau diese
00:29:35: Problematiken.
00:29:36: Und ein Unternehmen kann sich zumindest
00:29:39: in Europa, wenn wir jetzt mal die
00:29:41: Datenschutz-Grundverordnung nehmen, nur
00:29:43: davor schützen, indem ihr wirklich eine
00:29:45: transparente, freiwillig informierte
00:29:47: Einwilligung dieses Nutzers habt. Und da
00:29:49: möchte ich mal ein Unternehmen finden,
00:29:51: das schafft, das einem ganz
00:29:54: normalen Mitarbeiter, der einfach nur
00:29:56: seinen Office-PC verwendet oder seinen
00:29:58: Office-Laptop mit Windows verwendet, klar
00:30:00: zu machen, wie das genau abläuft und was
00:30:02: das genau für Implikationen bedeuten
00:30:04: kann.
00:30:05: Das wäre, finde ich, sogar mal ein
00:30:07: spannendes Thema. Man könnte ja wirklich
00:30:09: mal versuchen, so eine Art Lackmustest
00:30:11: dafür zu erarbeiten. Wie kann ich einem
00:30:13: DAO klar machen, dass das problematisch
00:30:17: ist? Also welche Worte muss ich benutzen?
00:30:19: Ich denke da so ein bisschen an so eine
00:30:21: Folge von John Oliver, wo es um
00:30:24: die NSA-Affäre und Edward Snowden
00:30:29: ging. Und der hat dann eben herausgefunden,
00:30:32: dass die Leute keine Ahnung davon haben,
00:30:34: was Datenverarbeitung ist und was man
00:30:36: damit machen kann. Aber als er die Leute
00:30:37: gefragt hat, ob die es cool fänden, wenn
00:30:39: Nacktfotos von ihnen von der Regierung
00:30:41: gesehen würden, dann waren sie mit einem
00:30:43: Mal alle dagegen. Also man muss halt nur
00:30:46: den richtigen Hebel finden, um den Leuten
00:30:48: klar zu machen, dass das ein Thema ist,
00:30:50: das relevant ist für sie. Wäre vielleicht
00:30:53: spannend, sowas mal zu überlegen, ob man
00:30:55: sowas herstellen kann, weil das könnte
00:30:57: vielleicht wirklich vielen Unternehmen
00:30:58: in dieser kritischen Situation helfen.
00:31:01: Ja, stimmt.
00:31:02: Also zu empfehlen ist es auf jeden
00:31:04: Fall nicht, den Copilot einzusetzen.
00:31:06: Das ist ganz klar, weil, ja, das ist ja
00:31:10: krass. Also du kannst ja noch nicht mal
00:31:13: die Voraussetzungen erfüllen, damit
00:31:15: Microsoft diesen Schutz, den sie anpreisen
00:31:17: in ihrem Blog, dann auch wirklich später
00:31:20: umsetzen für dich. Das ist ja irre.
00:31:22: Also ich sag mal, das betrifft ja auch
00:31:25: Code-Generierung, dieses Red-Teaming und
00:31:27: so weiter. Aber andererseits bei Code-
00:31:29: generierung ist die Wahrscheinlichkeit,
00:31:31: dass jemand dagegen klagt, nicht so hoch,
00:31:33: wenn man den Code nicht gerade Open Source
00:31:35: macht, was ja die meisten Firmen gerade
00:31:37: nicht machen. Das ist ja dein Asset.
00:31:39: Und da ist es allerdings so, zunächst mal
00:31:42: kann man den Code auch mit eigenen KI-
00:31:44: Modellen sehr gut trainieren und zwar
00:31:45: sogar besser als Copilot, sage ich, weil
00:31:48: jede Firma hat ihren eigenen Code-Stil
00:31:51: oder ihre eigenen Grundsätze und
00:31:53: Richtlinien, Entwickler, die auf
00:31:55: bestimmte Sachen Wert legen. Das kann man
00:31:57: einem eigenen Modell viel besser
00:31:58: beibringen. Und zum Zweiten kann ich da
00:32:00: auch Sicherheitsthemen viel besser
00:32:02: einfließen lassen, als wenn ich so eine
00:32:04: Generierung von so einer allgemeinen
00:32:06: Allerwelts-KI, sag ich mal, die ist
00:32:08: bestimmt toll, wenn man die Funktionalität
00:32:10: ansieht. Aber die Eingriffsmöglichkeiten
00:32:12: sind halt relativ gering. Man sollte es
00:32:13: einfach mal perspektivisch betrachten.
00:32:14: Wenn ich nur über drei Monate nachdenke,
00:32:16: dann ist es natürlich günstiger,
00:32:17: irgendwas Vorgefertigtes zu nehmen. Aber
00:32:19: darüber hinaus, die Welt ist sehr
00:32:21: schnelllebig, habe ich mit einem eigenen
00:32:23: System, was viel besser spezialisierbar
00:32:25: ist, viel bessere Ergebnisse und kann
00:32:28: das Ding auch im Endeffekt wahrscheinlich
00:32:30: günstiger nutzen. Wenn ich mir nämlich
00:32:32: vorstelle, dass ich, wenn ich zum
00:32:34: Beispiel einen eigenen Server habe oder
00:32:35: einen gemietet habe, dann kann ich den
00:32:37: ja 24-7 laufen lassen, ohne dass er mehr
00:32:39: kostet. Wenn ich aber Microsoft Co-Pilot
00:32:41: nutze, das wird irgendwann in ein
00:32:43: Pay-Per-Use-Modell übergehen, genau wie
00:32:46: alles. Ich meine, ich will nur Spotify
00:32:48: erwähnen. Die wollen jetzt einfach drei
00:32:50: Euro mehr pro Monat haben. Einfach so.
00:32:52: Und wenn du aus Versehen falsch klickst,
00:32:54: hast du es auch noch angenommen, obwohl es,
00:32:55: sag ich, recht niedrig ist. Da gibt es ja
00:32:57: auch ein Urteil, glaube ich, dazu. Aber ich
00:32:59: will nur sagen, man ist komplett abhängig
00:33:01: von diesem Konzern und abhängig, wer sich
00:33:03: freiwillig abhängig macht, ich sage jetzt
00:33:05: mal ganz deutlich, den halte ich für dumm.
00:33:07: Ja, also das muss ich wirklich einfach mal
00:33:09: so sagen und mit dummen Menschen habe ich
00:33:12: selten gerne zu tun.
00:33:16: Das ist definitiv, also da bin ich voll
00:33:19: deiner Meinung. Es bleibt halt, es bleibt
00:33:23: halt wieder bei dieser Sache, die meisten
00:33:26: Menschen werden es einfach machen, weil
00:33:28: sie sich einfach gar nicht informieren
00:33:30: können und denken, oh ja, dann ist das
00:33:32: halt so, spielt ja keine Rolle, gibt mir
00:33:34: ja irgendeinen Mehrwert, ohne darüber
00:33:36: nachzudenken, was die Konsequenzen später
00:33:38: sein können. Die Leute, die sich unseren
00:33:40: Podcast anhören, gehören hoffentlich zu
00:33:42: den Leuten, die darüber nachdenken. Ich
00:33:44: glaube, sonst würden sie auch gar nicht
00:33:45: zuhören, schon gar nicht über die Länge
00:33:47: der Zeit, die wir darüber diskutieren
00:33:48: können. Aber ich denke, was so eine Sache
00:33:52: ist für mich, wir sollten vielleicht
00:33:54: noch mal gemeinsam ein bisschen genauer
00:33:56: zum Beispiel auf dieses Thema neues
00:33:58: Outlook gucken.
00:33:59: Oder das neue Teams, also was steckt
00:34:02: denn wirklich hinter den Services, den
00:34:04: so viele Menschen tagtäglich nutzen und
00:34:07: wo Unternehmer sich überhaupt keine
00:34:09: Gedanken darüber machen, dass sie ihren
00:34:11: Mitarbeitern da eine Wahlmöglichkeit
00:34:14: stellen müssen. Ja, also man kann nicht
00:34:16: einfach sagen, hier neues Outlook und wir
00:34:19: nutzen das jetzt alle, sondern jeder
00:34:20: Nutzer, jeder Mensch hat die freie
00:34:23: Entscheidung zu sagen, nein, das nutze ich
00:34:25: nicht. Und dann muss man eine Alternative
00:34:27: bereitstellen.
00:34:29: Man kann ja nicht einfach sagen, das machst
00:34:31: du schon. Das muss man als Unternehmer, glaube
00:34:33: ich, auch wissen.
00:34:34: Ja, der Arbeitgeber haftet natürlich
00:34:36: dafür, was mit den Daten seines
00:34:38: Angestellten passiert, die er auf
00:34:40: Veranlassung sozusagen an Microsoft
00:34:42: weitergibt. Da können wir gerne mal
00:34:44: drüber sprechen. Wir sind am Ende der
00:34:45: Zeit, Stephan, du hast es gesagt. Ich sage
00:34:47: mal so, aus meiner Sicht, es war sehr
00:34:49: spannend und ich fand unseren Austausch
00:34:51: sehr gut. Ich bin kein Microsoft-Freund
00:34:54: mehr. Ganz früher war ich es mal, da gab
00:34:56: es ja auch gar keine großen Probleme,
00:34:57: die aufgeworfen wurden. Und jetzt sind wir
00:34:58: aufgeworfen wurden 1995 oder so. Aber ich
00:35:02: sage mal so, wenn es geht, vermeide ich
00:35:03: Microsoft. Und wir können auch gerne mal
00:35:05: drüber reden, wie man das machen kann. Ich
00:35:06: habe nämlich da ein Modell gefunden, was
00:35:08: praktikabel ist und gleichzeitig die
00:35:10: Vorzüge von Windows beibehält.
00:35:13: Aha, wunderbar. Das ist doch eine spannende
00:35:15: Vorausschau. Dann würde ich sagen, liebe
00:35:17: Zuhörer, freut euch auf die nächste Woche,
00:35:19: wenn wir dann alle gemeinsam lernen
00:35:21: können, wie Klaus das Microsoft-Problem
00:35:24: für uns löst. Und in diesem Sinne würde
00:35:27: ich sagen, danke dir, Klaus. Hat wieder
00:35:29: mal sehr viel Spaß gemacht, viel gelernt
00:35:31: und an alle da draußen, macht euch noch
00:35:32: einen schönen Tag. Ciao, ciao. Tschüss.
Neuer Kommentar