#38 Microsoft Copilot: Versicherung bei Urheberrechtsverletzungen?

Shownotes

Der Podcast rund um das Thema Datenschutz und IT. Mit Dr. Klaus Meffert und Stephan Plesnik.

38 Microsoft Copilot: Versicherung bei Urheberrechtsverletzungen?

Microsoft verspricht, für Kunden einzuspringen, die mit Copilot Werke (Quellcode, Bilder, Texte..) erstellt haben und deswegen Urheberrechtsprobleme erfahren. In Wahrheit greift diese Versicherung in vielen Fällen nicht. Weiterhin verhindert sie NICHT die Probleme, die entstehen, wenn ein Copilot-Werk nicht mehr verwendet werden darf.
Dies und einiges mehr in der aktuellen Episode von Datenschutz Deluxe.

Feedback geben? Fragen stellen? Gerne hier:
https://dr-dsgvo.de
Videokanal von Stephan: https://www.youtube.com/datenschutzistpflicht
Impressum:
https://dr-dsgvo.de/impressum
Inhaltlich verantwortlich ist jeder der Sprecher für seine eigenen Äußerungen.

Transkript anzeigen

00:00:00: Datenschutz Deluxe, der Podcast rund um das Thema Datenschutz und IT

00:00:08: mit Dr. Klaus Meffert und Stephan Plesnik.

00:00:30: Hallo und herzlich willkommen, liebe Zuhörer. Hier ist wieder der Datenschutz Deluxe Podcast.

00:00:43: Mein Name ist Stephan Plesnik und ich begrüße euch recht herzlich.

00:00:46: Bei mir ist wie immer Dr. Klaus Meffert. Lieber Klaus, wie geht es dir?

00:00:51: Mir geht es wie immer gut, wenn wir sprechen. Stephan, wie geht es dir?

00:00:56: Mir geht es auch hervorragend. Und zwar hauptsächlich,

00:01:00: weil wir heute an das Thema, hatten wir ja schon angekündigt,

00:01:02: anknüpfen wollen vom letzten Mal. Da ging es ja um Nutzungsrechte

00:01:08: bei der Nutzung von Generative AI und was da alles so im Argen sein kann.

00:01:13: Und da ist was ganz Interessantes passiert.

00:01:17: Nämlich Microsoft hat selber eine große Ankündigung gemacht zu ihrem Copilot

00:01:22: und den damit verbundenen Copyright bzw. Urheberrechts- oder Nutzungsrechte

00:01:30: Verletzungen, die da entstehen können, wenn Nutzer von Microsoft über den Copilot

00:01:37: Inhalte generieren lassen. Und was Microsoft da sagt, auf ihrem eigenen Blog,

00:01:43: Stand 7. September 2023, ist, dass sie alle Rechtskosten, die eventuell entstehen,

00:01:53: wenn jemand einklagt, übernehmen würden. Bedeutet, wir benutzen den Microsoft Copilot,

00:01:59: wir generieren darüber irgendwelche Dinge, verwenden diese Dinge und jetzt kommt jemand

00:02:04: und sagt, hey, das ist aber so nicht richtig, das gehört eigentlich mir,

00:02:08: das dürftet ihr so nicht verwenden, da habe ich ein Nutzungsrecht

00:02:12: bzw. einen Urheberrechtsanspruch drauf. Und dann sagt Microsoft, kein Problem,

00:02:17: liebes Unternehmen, wir übernehmen für dich ab jetzt die Rechtskosten,

00:02:22: die daraus entstehen, aus diesem Rechtsstreit. Und für mich sieht das ein bisschen so aus,

00:02:29: als wenn da ein Gigant mit unendlich viel Geld so ziemlich seine Marktmacht ausnutzt,

00:02:36: weil wer gegen Microsoft klagt, als einzelner Künstler oder so, der hat ja wahrscheinlich

00:02:43: relativ schlechte Karten. Wie siehst du das, Klaus?

00:02:46: Ja, also zunächst mal, ich habe mich auch kurz eingelesen in dieses Thema. Ich kenne jetzt nicht

00:02:52: die genauen Details bei Microsoft, denn da hängt es auch von den Nutzungsbedingungen ab. Also zunächst

00:02:59: mal, Microsoft übernimmt nur, muss man sagen, aber immerhin ja natürlich, die Kosten eines Rechtsstreits,

00:03:06: die Konsequenzen aus dem Rechtsstreit, die der, wenn der Kläger denn gewinnt, gegen den,

00:03:11: der Copilot-generierte Werke genutzt hat, die übernimmt Microsoft nicht. So habe ich es jedenfalls

00:03:16: verstanden. Das heißt, du nimmst ein Bild, was mit Copilot generiert wurde oder ein Programmcode,

00:03:23: nehmen wir mal ein Bild, das kann man sich besser vorstellen, setzt es auf deine Webseite,

00:03:27: druckst es auf deine Visitenkarten, beklipst es auf deine Webseite, druckst es auf deine Visitenkarten,

00:03:29: druckst es auf deine Visitenkarten, druckst es auf deine Visitenkarten, druckst es auf deine Visitenkarten,

00:03:29: schiebst deinen Firmenwagen damit, ja, und dann klagt jemand gegen dich, weil du, weil er sagt,

00:03:35: das ist sein Bild. Das ist zu ähnlich zu seinem Bild. Und dann übernimmt Microsoft die Kosten,

00:03:42: um einen Anwalt zu bezahlen und die Gerichtskosten, um deine Klage zu versuchen abzuwehren.

00:03:47: Wenn du jetzt, wenn du jetzt aber verlierst und das Gericht sagt, du darfst dieses Bild nicht mehr verwenden,

00:03:53: dann musst du, so habe ich das verstanden, auf eigene Kosten dein Auto, von deinem Auto den Aufkleber abkratzen,

00:03:59: die Visitenkarten wegschmeißen und neue drucken, die Webseite überarbeiten und wenn du auch Social Media Posts gemacht hast,

00:04:05: die in aller Welt schon sind, dann musst du die alle zurückholen. Das ist mein Kenntnisstand.

00:04:10: Also es ist natürlich so, wie du sagst, Microsoft tut so, also versucht quasi sein eigenes Produkt in den Markt zu pressen,

00:04:18: indem es die Sorgen von Menschen lindern will. Und wie du sagst, ich finde auch, Microsoft nutzt da seine Marktmacht,

00:04:27: sagt natürlich gleichzeitig, wir sehen gar nichts.

00:04:29: Ich glaube gar nicht, dass es Urheberrechtsprobleme gibt mit KI-generierten Werken, aber trotzdem zur Sicherheit helfen wir euch, wenn was passiert.

00:04:35: Das ist natürlich Unsinn, weil, ich weiß es ja selbst, KI-generierte Bilder insbesondere, die sind sehr oft sehr ähnlich oder sogar nahezu gleich mit Originalwerken.

00:04:48: Marvel Comics insbesondere als Beispiel, weil wenn du als Suchbegriff Marvel oder Spider-Man eingibst oder sowas,

00:04:53: da gibt es halt nicht so viele andere Dinge als von Marvel, diese eine Figur, die da rauskommt im Endeffekt.

00:04:59: Die ist eben populär ist in der KI. Und die sieht halt eins zu eins oder exakt so aus.

00:05:04: Ich meine, ob der Spider-Man jetzt auf dem grauen Gebäude sitzt an der Wand oder auf dem grünen Gebäude, das ändert jetzt am Urheberrechtsschutz gar nichts, sage ich jetzt mal.

00:05:14: Oder ob der Spider-Man jetzt 1,60 Meter groß ist oder 1,50 Meter auf dem Bild, angenommenerweise natürlich, wenn man es hochskalieren würde.

00:05:22: Das spielt keine Rolle für den Urheberrechtsschutz. Es ist sehr nah dran am Originalwerk zum Verwechseln ähnlich, muss man sagen.

00:05:28: Und damit ist das Urheberrecht verletzt. Das ist vollkommen egal, ob das eine KI generiert hat oder ein Mensch.

00:05:33: Das Urheberrecht gilt immer in Deutschland jedenfalls. Also für dich als Urheber, egal wie der andere, der dein Bild nachgemacht hat, wie er es nachgemacht hat.

00:05:42: Ich meine, es wäre noch schöner. Angenommen, du bist der Urheber von Spider-Man, dann gehe ich her und sage, ja, ich habe ja Spider-Man mit einer KI generiert.

00:05:50: Da greift ja das Urheberrecht nicht. Das wäre ja Unsinn, oder?

00:05:52: Also ich meine, da kann man schon die verquerte Logik von Microsoft. Ich habe es, wie gesagt, nur gelesen.

00:05:57: Ich gehe davon aus, dass die Quelle hier seriös ist, die ich habe, ein deutsches Medium.

00:06:00: Aber man sieht daran, Microsoft ist da wieder mal, finde ich, ein asoziales Unternehmen.

00:06:07: Ja, ich finde das insofern auch interessant, weil Sie sagen ja, Sie hätten sogenannte Guardrails and Mitigations, die das Unternehmen quasi vorher implementiert haben muss.

00:06:23: Und das ist halt so ein Punkt.

00:06:24: Und wenn man sich dieses Werk durchlesen möchte, was man natürlich kann, dann ist man auf jeden Fall erstmal beschäftigt zu verstehen, was man überhaupt tun muss.

00:06:36: Und es hat halt auch damit zu tun, dass man bestimmte Dinge in diesem Copilot implementieren muss, in der Funktionalität von diesem Copilot.

00:06:45: Und nur dann greift das. Also die Standardvariante des Copilot, die einfach mal so jetzt in jedem Windows genutzt werden könnte,

00:06:54: die bietet also diesen Rechtsschutz gar nicht.

00:06:57: Man muss also vorher noch einen zusätzlichen Schritt gehen, bevor dann dieses Vertragswerk, über das Microsoft da spricht, dann überhaupt gilt.

00:07:06: Und wenn man das implementiert hat, dann ist es genau wie du sagst, dann übernehmen sie nur die Kosten des Rechtsstreits.

00:07:13: Also sie versuchen sozusagen im Endeffekt an der Stelle dann zu sagen, naja gut, wenn dann jemand klagt, dann übernehmen wir die Kosten dafür.

00:07:20: Die Wahrscheinlichkeit, dass jemand klagt, ist halt aufgrund dieser Tatsache relativ...

00:07:24: relativ viel geringer, weil wer hat schon Chancen, Microsoft in einem Rechtsstreit als einzelne Person irgendwie beizukommen?

00:07:31: Im Zweifel können die ja alles so lange hinauszögern und immer wieder verargumentieren, dass einem halt selber das Geld ausgeht, um dagegen zu klagen.

00:07:40: Besonders wenn ich jetzt darüber nachdenke, dass du halt irgendein freier Künstler bist, dessen Nutzungsrechte oder Urheberrechte dort verletzt werden.

00:07:49: Im Falle, den du beschreibst von Marvel jetzt zum Beispiel, finde ich, geht es ja nochmal ein ganzes Stück weiter.

00:07:54: Weil es gibt ja jetzt schon Webseiten wie Huggingface.co, wo du einfach eingeben kannst eine Story und du schreibst einfach...

00:08:06: Ich habe das jetzt gerade parallel mal gemacht aus Joke und habe gesagt, ich gebe mal einen Spider-Man-Sitting-on-Bed-Typing-in-Laptop und der hat mir einfach ein komplettes Comic generiert.

00:08:15: Also ein komplettes Comic aus diesen Informationen. Es sieht halt eins zu eins aus wie ein Original-Marvel-Comic.

00:08:22: Also es ist wirklich zu 100% Comic.

00:08:24: Es könnte das so ein Comic sein.

00:08:27: Und da sehe ich genau die Problematik, die du auch beschreibst.

00:08:30: Wir können halt den Unterschied nicht mehr machen, ob die AI das generiert hat oder ob es ein Original-Content ist.

00:08:37: Und ich finde es halt eigentlich ziemlich fahrlässig, was Microsoft da tut.

00:08:40: Weil es lädt ja eigentlich dazu ein, diese Verletzungen zu begehen.

00:08:44: Das erste, die Huggingface.co, ist die populärste KI-Plattform grundsätzlich.

00:08:49: Das ist das erste für jeden, der es interessiert.

00:08:51: Allerdings, also klar, wie du es jetzt gemacht hast, kann natürlich jeder.

00:08:54: Wenn er da entsprechende Spaces, heißt es, also Anwendungen findet, kann er die nutzen.

00:08:58: Ansonsten ist es sehr stark auf Entwickler ausgerichtet, weil es eben sehr technisch ist.

00:09:02: Für mich sehr gut. Ich wollte es nur mal erwähnen.

00:09:04: Dann das zweite, diese sogenannte Versicherung, die da Microsoft anbietet.

00:09:09: Also ich weiß jetzt erstmal nicht, ob es eine Versicherung ist oder ob Microsoft einfach nur die Kosten...

00:09:13: Das ist ja ein Unterschied, ja. Ich meine, ob man dann einen Vertrag abschließt mit Versicherungsbedingungen oder wie, das ist keine Ahnung.

00:09:18: Ja.

00:09:19: Im Endeffekt ist es ja auch egal.

00:09:21: Aber Microsoft sagt, wie bei einer normalen Versicherung.

00:09:24: Versicherungsversicherung allerdings auch.

00:09:26: Beispielsweise bei der Hausratversicherung ist es, glaube ich, so.

00:09:30: Sie müssen alle möglichen Vorkehrungen, die wir Ihnen jetzt nennen, getroffen haben, damit der Versicherungsschutz greift.

00:09:37: Und bei der Hausrat- oder Gebäudeversicherung ist es, glaube ich, wenn man da zum Beispiel kein Rückschlagventil drin hat in dem Abfluss im Keller

00:09:45: und da kommt Wasser rein, dann greift der Versicherungsschutz nicht.

00:09:49: Wenn man aber ein Rückschlagventil drin hat, dann kann eigentlich so gut wie nie was passieren, sage ich jetzt mal.

00:09:53: Ja, als Beispiel.

00:09:54: Das heißt, viele Versicherungen, die nehmen den Kunden so stark in die Pflicht, dass es die Frage ist, ob die Versicherung überhaupt nötig ist.

00:10:02: Bei Microsoft zum Beispiel ist es so, ich habe es jetzt gerade nachgeguckt, da gibt es Verpflichtungen, die der Kunde einhalten muss.

00:10:09: Und da wird dann geprüft bei einer Urheberrechtsverletzung, von Microsoft wird das geprüft, hat der Kunde denn eigentlich unsere Bedingungen eingehalten?

00:10:16: Und wenn nein, dann greift diese Versicherung gar nicht.

00:10:18: Ist ja okay grundsätzlich, ja.

00:10:20: Ich meine, es sollte nur einfach jeder wissen.

00:10:22: Klar.

00:10:23: Denn eine Bedingung ist zum Beispiel, dass der Kunde, wenn er zum Beispiel diesen Prompt, den du da eben verwendet hast, ja, den dürfte der Kunde gar nicht verwenden.

00:10:32: Der müsste nämlich noch hinten dran schreiben, einen sogenannten Metaprompt, der Copyright-Verletzungen verhindern soll.

00:10:41: Hier haben sie als Beispiel genannt in Englisch, to avoid copyright infringements.

00:10:45: So, wenn du das nicht dahingeschrieben hast, dann kannst du diese Versicherung auch gar nicht in Anspruch nehmen.

00:10:50: Das heißt, du bist dann der Dumme.

00:10:52: Das ist nur mal so nebenbei gesagt.

00:10:54: Und dann ist es auch so, man klagt natürlich nicht gegen Microsoft, sondern man klagt natürlich gegen den Urheberrechtsverletzer.

00:11:00: Also gegen dich in dem Fall, wenn du diesen Spider-Man auf deinem Auto drauf hättest.

00:11:04: Genau.

00:11:05: Kann sein natürlich, klar, wenn die Bedingungen alle eingehalten wurden von dir, Microsoft-Bedingungen eingehalten wurden, dass Microsoft dir dann zur Seite springt.

00:11:12: Aber zunächst mal weiß keiner, dass du von Microsoft protegiert wirst, was ja zu deinem Nachteil ist, muss man ja sagen in dem Fall, wenn du mal die Rolle des Sünders übernehmen möchtest.

00:11:21: Ja.

00:11:22: Denn wenn jeder wüsste, dass du von Microsoft vertreten wirst, dann würdest du vielleicht 50% weniger Klagen kriegen.

00:11:29: Ich sage es mal vereinfacht jetzt natürlich, man kann diese Zahlen nur imaginär zusammenstellen.

00:11:34: Aber das heißt, du kriegst erstmal die volle Bandbreite ab.

00:11:37: Und dann bist du erstmal, wie gesagt, das Beste, was dir passieren kann, ist, dass deine Gerichtskosten und die Anwaltskosten übernommen werden.

00:11:44: Und wenn du, also ich meine, bei Urheberrechtsverletzungen ist es oft sehr eindeutig, vor allem bei generativer KI.

00:11:51: Da guckt man sich den Original Spider-Man an, dann guckt man sich das an, was du da generiert hast und dann sieht man, dass das sehr ähnlich ist.

00:11:56: Da muss man, das ist ein No-Brainer.

00:11:58: Da würde ich jetzt mal persönlich sagen, ich kenne mich da bei Urheberrechtsthemen vor Gericht nicht aus.

00:12:02: Aber nach dem, was ich so gelesen und gehört habe, würde ich mal sagen, es ist ziemlich eindeutig, dass du da ein Problem kriegst vom Gericht.

00:12:09: Dass du nämlich das nicht mehr, dass du es unterlassen musst, dieses Werk zukünftig zu verwenden.

00:12:14: Und die Kosten, die dann entstehen, haben wir ja vorhin drüber gesprochen, Visitenkarten wegschmeißen, Webseite überarbeiten, Social-Media-Posts alle zurückholen.

00:12:20: Aufkleber vom Auto abkratzen, Neues alles erzeugen.

00:12:24: Die sind deutlich höher wahrscheinlich.

00:12:26: Und der Ärger, das wirkt ja nach, als das, was Microsoft übernimmt.

00:12:30: Und es muss alles in kurzer Zeit passieren, wohlgemerkt.

00:12:33: Ich weiß nicht, ob du schon mal versucht hast, im Internet Inhalte, die du rausgeschickt hast in alle Welt, innerhalb von sieben Tagen zu vernichten wieder.

00:12:40: Das geht. Ich musste das schon mal machen, auch für Kunden.

00:12:44: Aber das kostet sehr, sehr viel Zeit und funktioniert auch nicht immer.

00:12:49: Okay.

00:12:50: Also, wenn es nicht funktioniert, manche Suchmaschinen bieten zum Beispiel diese Auslistungsmöglichkeit gar nicht explizit an.

00:12:55: Die machen das nur alle ein, zwei Monate mit dem Regelneulauf.

00:12:58: Da musst du das dokumentieren, dass du das versucht hast, bestmöglich.

00:13:03: Und dann, falls der Gegner dann nochmal sagt, nee, du hast aber jetzt immer noch nicht alles richtig gemacht, dann sagst du, ich habe es aber versucht.

00:13:09: Hier sind meine Beweise.

00:13:10: Dann kann es sein, dass es nochmal vor Gericht geht und da ist dann Microsoft schon längst draußen.

00:13:13: Also, wie du gesagt hast, ist eine Frechheit eigentlich von Microsoft.

00:13:17: Und unabhängig davon, wie gesagt.

00:13:19: Natürlich gibt es Urheberrechtsverletzungen, wenn du ein Original so 98 Prozent gleich machst.

00:13:24: Und vielleicht ein Punkt noch.

00:13:26: Microsoft schreibt ja, das ist ja erstmal gut, diese Guardrails, die du erwähnt hast.

00:13:30: Das heißt, Sicherheitsvorkehrungen, die in die KI eingebaut werden.

00:13:35: Und ich weiß auch, wie das technisch funktioniert.

00:13:37: Ich habe es schon selbst programmiert.

00:13:39: Man vergleicht eben das generativ erzeugte Bild, also den Output des KI-Modells, von Copilot in dem Fall, mit allen Eingabebildern.

00:13:48: Das sind 10 Milliarden zum Beispiel, die im Trainingsdatensatz der KI vorhanden sind.

00:13:53: Diese Bilder müssen gar nicht in Rohdaten gespeichert werden, sondern nur die sogenannten Einbettungen, Embeddings, also Zahlenreihen.

00:13:59: Das heißt, die Struktur des Bildes, so wie du bei dir im Gehirn ein Bild abspeicherst, so wird es in der KI auch abgespeichert.

00:14:05: In den Neuronen als Gewichte.

00:14:08: Und dann wird geguckt, ist eins der Eingabebilder zu ähnlich mit, mindestens eins der Eingabebilder zu ähnlich mit dem Ausgabebild.

00:14:17: Und wenn ja, dann wird das Ausgabebild vernichtet.

00:14:19: Problem dabei, jetzt nehmen wir mal an den Spider-Man wieder.

00:14:23: Klar kann man den Spider-Man erkennen als zu ähnlich.

00:14:28: Aber, wenn der Spider-Man nur eine von 100, ich übertreibe jetzt ein bisschen, von 100 Figuren ist oder 100 Dinge, die auf dem Bild zu sehen sind, auf dem Output-Bild.

00:14:37: Und der Spider-Man ist so winzig klein und alles andere ist anders.

00:14:41: Dann kann dieser Spider-Man nicht unbedingt erkannt werden.

00:14:46: Als im Original vorhanden.

00:14:48: Zu ähnlich sozusagen ist er dann nicht.

00:14:51: Das heißt, er ist weit genug entfernt nach Meinung der KI.

00:14:53: Jetzt weiß ich aber, dass es für die Größe eines Bildes eigentlich fast egal ist bei einer Urheberrechtsverletzung.

00:14:59: Das heißt, auch Icons können Urheberrechtsverletzungen hervorrufen.

00:15:03: Und ich meine, ein Icon in einem Bild mit 7000 anderen Sachen ist trotzdem ein Icon in einem Bild, was eine Urheberrechtsverletzung darstellt.

00:15:12: Und insofern kann man diese Guardrails gar nicht so ausgleichen.

00:15:15: Klar.

00:15:16: Das heißt, die KI muss gestalten, dass es ein Problem ist.

00:15:19: Kein Problem ist.

00:15:20: Das ist ja krass.

00:15:21: Dass es kein Problem ist.

00:15:22: Ja.

00:15:23: Ja, das ist ja krass.

00:15:24: Das heißt also, im Endeffekt spielt dabei auch das Verhältnis, in dem der Output generiert wurde, eine große Rolle dafür, ob die KI das richtig interpretieren kann überhaupt.

00:15:36: Und ob sie dann überhaupt Rücksicht darauf nehmen kann.

00:15:39: Das ist eine Sache, die ich nicht wusste.

00:15:41: Ich dachte, die KI wäre dann irgendwie intelligenter als ein Mensch.

00:15:45: Weil die ja irgendwie besser sowas scannen können.

00:15:47: Weil wir Menschen übersehen ja Dinge schon mal häufig.

00:15:50: Jetzt hätte ich eigentlich gedacht, dass eine KI dann das weniger übersieht.

00:15:53: Aber die sind ja an der Stelle noch menschlicher.

00:15:55: Kann sie auch.

00:15:56: Das ist ja krass.

00:15:57: Also sie kann natürlich mehr scannen und erkennt auch mehr.

00:16:00: Die Frage ist, ob der Ähnlichkeitswert, der ermittelt wird, hoch genug ist, um eine Copyright-Verletzung automatisiert annehmen zu können.

00:16:08: Weil wenn zu oft eine Copyright-Verletzung angenommen wird wiederum, dann werden ja alle Outputs, also dann werden die Kunden unzufrieden.

00:16:14: Weil dann sagen die alle, ja Copilot generiert ja nur Copyright-verletzende Werke.

00:16:20: Das finde ich jetzt super spannend, weil das ist eigentlich ein cooler Anknüpfungspunkt, wo ich jetzt gerade mal darüber nachdenke.

00:16:25: Datenschutz, personenbezogene Daten.

00:16:28: Wenn wir jetzt mal davon ausgehen, wir haben ein Bild, wo Menschen drauf sichtbar sind.

00:16:32: Wirkt sich das dann für zum Beispiel eine KI, die bestimmte Informationen verpixeln soll, weil Menschengesichter erkennbar sind, dann ähnlich aus?

00:16:43: Oder kann die KI an der Stelle mit anderen Mechanismen, zum Beispiel jetzt wenn ich ein Bild habe mit einer Gruppe von Menschen und deren Köpfe sind aber jetzt, vielleicht ist einer eher prominent und andere im Hintergrund sind irgendwie kleiner.

00:16:56: Wirkt sich das dann genau so aus?

00:16:58: Nicht unbedingt. Also man kann diese Menschengesichter schon erkennen.

00:17:03: Wenn sie ein bisschen größer sind, hilft es natürlich.

00:17:05: Das ist analog zu Überwachungsvideos.

00:17:07: Wenn eine Überwachungskamera sehr schlechte Qualität hat, schwarz-weiß noch, weil es in der Nacht ist und dann noch weit weg von dem Objekt.

00:17:12: Ja.

00:17:13: Wo der Einbrecher vielleicht gerade ist, dann wird es natürlich immer schwieriger.

00:17:17: Aber grundsätzlich ist die Position und die Größe eines Objektes für die KI kein Problem.

00:17:22: Das ist ja das Schöne, muss man sagen.

00:17:25: Das ist invariant bezüglich Größe und Position und auch Farbgebung.

00:17:29: Das heißt, eine KI kann schon erkennen, ob da ein Gesicht oder ein Mensch ist, unabhängig davon, wie groß, in welcher Position und so weiter dieses Objekt sich befindet.

00:17:40: Okay, das heißt also an der Stelle.

00:17:42: An der Stelle könnte man sagen, wir können mit KI so eine Bildinterpretation von so Videoaufnahmen und so weiter, würde an der Stelle bis zu einem gewissen Grad funktionieren.

00:17:54: Aber dieser Grad ist eigentlich relativ hoch, sodass also ab dem Moment, wo eigentlich auch für einen Menschen nicht mehr zu erkennen ist, dass es ein Mensch ist oder welcher Mensch es ist, auch da würde die KI erst scheitern.

00:18:06: Naja, also ob es ein Mensch ist, kann man schon meistens erkennen.

00:18:10: Es kommt auf das Modell an.

00:18:11: Ja.

00:18:12: Wie gut es trainiert ist, ob es auf Menschen trainiert ist oder ein allgemeines.

00:18:14: Also das kann man schon bis zum sehr guten Grad.

00:18:16: Ich habe es sogar schon gemacht für eine 3SAT Sendung, die ausgestrahlt wird im März, glaube ich.

00:18:22: Da geht es um Sicherheit im Museumsbereich, Grünes Gewölbe und so weiter.

00:18:26: Und da wurde ich interviewt relativ lange und auch habe da eine KI programmiert, die zu originalen Überwachungsvideos die Menschen, also Einbrecher in dem Fall, markiert.

00:18:36: Das klappt sehr gut.

00:18:37: Es gibt einzelne Fälle, wo es nicht geklappt hat.

00:18:39: Da war aber wirklich.

00:18:40: Der Mensch sehr weit weg, sehr stark verschwommen mit dem Vordergrund, Balustrade und so weiter.

00:18:46: Und das KI-Modell war auch gar nicht fein trainiert auf diesen Fall.

00:18:49: Das heißt, ich habe einfach ein Basismodell genommen, das ein bisschen optimiert.

00:18:52: Das heißt, da hätte man noch viel mehr machen können.

00:18:54: Das geht schon alles.

00:18:55: Nur wie gesagt, es geht ja auch nicht immer um Spider-Man.

00:18:59: Es geht ja oft auch einfach um Formen.

00:19:02: Und da sagt man ja nicht, diese Form ist, also wie soll ich sagen, Spider-Man weiß jeder.

00:19:07: Wenn dann Spider-Man drauf ist, ist eine Urheberrechtsverletzung.

00:19:09: Aber wenn da jetzt die Form eines Künstlers 4711 drauf ist, ja, ich weiß ja gar nicht mal, dass es diese Form anderswo gibt.

00:19:17: Und was soll die KI mir da melden sozusagen?

00:19:20: Das ist das Problem.

00:19:22: Da müsste ich mir ja angucken, die Bilder.

00:19:24: Das könnte man machen übrigens.

00:19:26: Nur der Punkt ist halt, wenn, ja, Urheberrecht ist ja auch eine Ermessenssache, wenn man vor Gericht steht.

00:19:34: Wird der Richter das genauso beurteilen wie das KI-Modell?

00:19:37: Ja.

00:19:38: Wenn man diese Guardrails implementiert?

00:19:41: Ja, ich glaube natürlich nicht.

00:19:43: Jeder Richter macht das anders nach eigenem Gutdünken.

00:19:46: Und ein KI-Modell ist ja kein Richter.

00:19:48: Also natürlich ist es ein automatisierter Richter.

00:19:51: Aber was zählt, ist der Richter vor Gericht und nicht das KI-Modell.

00:19:57: Ja, ja, definitiv.

00:19:59: Definitiv.

00:20:01: Was genau, also wenn ich jetzt mal so gucke.

00:20:06: Einfach nur so diese Copilot-Geschichte.

00:20:09: Wenn ich mir jetzt vorstelle, die ist jetzt implementiert in den ganzen Windows-Produkten.

00:20:16: Und ich kann die nutzen.

00:20:19: Da steht direkt dabei mit Bing.

00:20:22: Das ist also irgendwie auch mit der Suchmaschine von denen verknüpft.

00:20:26: Jetzt weiß man ja von Windows, dass die, sag ich mal, in einem nicht unbeträchtlichen Maße Telemetriedaten übertragen.

00:20:35: Also Informationen über alles Mögliche, was ich mit meinem Rechner tue.

00:20:39: Wenn ich das denn nicht über bestimmte Datenschutzeinstellungshebel unterbinde.

00:20:44: Und wer weiß, ob das dann wirklich berücksichtigt wird von Microsoft an der Stelle.

00:20:49: Oder ob die die Daten trotzdem abgreifen.

00:20:51: Wenn ich also so wenig Kontrolle darüber habe, was ich an personenbezogenen Daten, an Dingen über mich preisgebe.

00:20:59: Alleine über die Nutzung meines Betriebssystems.

00:21:01: Und ich nutze jetzt diese KI.

00:21:04: Spielen dann nicht alle diese Daten mit in die Trainingsdaten der KI rein?

00:21:09: Dass dadurch gelernt wird, wie das Verhalten der Nutzer ist?

00:21:14: Um daraus bessere Rückgaben für die Prompts zu erzeugen?

00:21:19: Ja, da bin ich mir sicher, dass das Microsoft macht.

00:21:21: Ich meine, das sieht man ja auch daran, dass Microsoft mit dem neuen Outlook sagt,

00:21:27: wir werden alle deine Daten, alle deine Mails in unsere KI einfließen lassen.

00:21:32: Und dafür nutzen wir deinen Benutzernamen und deinen Benutzernamen.

00:21:33: Und dafür nutzen wir deinen Benutzernamen und deinen Benutzernamen.

00:21:34: Und dafür nutzen wir deinen Benutzernamen und deinen Benutzernamen.

00:21:35: Und dafür nutzen wir deine Benutzernamen und deinen Benutzernamen.

00:21:36: Und dafür nutzen wir deine Benutzernamen und deine Benutzernamen.

00:21:37: Und dafür nutzen wir deine Benutzernamen und deine Benutzernamen.

00:21:38: Und dafür nutzen wir deine Benutzernamen und deine Benutzernamen.

00:21:39: Und dafür nutzen wir deine Benutzernamen und deine Benutzernamen.

00:21:40: Und dafür nutzen wir deine Benutzernamen und deine Benutzernamen.

00:21:41: Und dafür nutzen wir deine Benutzernamen und deine Benutzernamen.

00:21:42: Und dafür nutzen wir deine Benutzernamen und deine Benutzernamen.

00:21:43: Und dafür nutzen wir deine Benutzernamen und deine Benutzernamen.

00:21:44: Und dafür nutzen wir deine Benutzernamen und deine Benutzernamen.

00:21:45: Und dafür nutzen wir deine Benutzernamen und deine Benutzernamen.

00:21:46: Und dafür nutzen wir deine Benutzernamen und deine Benutzernamen.

00:21:47: Und dafür nutzen wir deine Benutzernamen und deine Benutzernamen.

00:21:48: Und dafür nutzen wir deine Benutzernamen und deine Benutzernamen.

00:21:49: Und dafür nutzen wir deine Benutzernamen und deine Benutzernamen.

00:21:50: Und dafür nutzen wir deine Benutzernamen und deine Benutzernamen.

00:21:51: Und dafür nutzen wir deine Benutzernamen und deine Benutzernamen.

00:21:52: Und dafür nutzen wir deine Benutzernamen und deine Benutzernamen.

00:21:53: Und dafür nutzen wir deine Benutzernamen und deine Benutzernamen.

00:21:54: Und dafür nutzen wir deine Benutzernamen und deine Benutzernamen.

00:21:55: Und dafür nutzen wir deine Benutzernamen und deine Benutzernamen.

00:21:56: Und dafür nutzen wir deine Benutzernamen und deine Benutzernamen.

00:21:57: Und dafür nutzen wir deine Benutzernamen und deine Benutzernamen.

00:21:58: Und dafür nutzen wir deine Benutzernamen und deine Benutzernamen.

00:21:59: Und dafür nutzen wir deine Benutzernamen und deine Benutzernamen.

00:22:00: Und dafür nutzen wir deine Benutzernamen und deine Benutzernamen.

00:22:01: Und dafür nutzen wir deine Benutzernamen und deine Benutzernamen.

00:22:02: Und dafür nutzen wir deine Benutzernamen und deine Benutzernamen.

00:22:03: Und dafür nutzen wir deine Benutzernamen und deine Benutzernamen.

00:22:04: Und dafür nutzen wir deine Benutzernamen und deine Benutzernamen.

00:22:05: Und dafür nutzen wir deine Benutzernamen und deine Benutzernamen.

00:22:06: Und dafür nutzen wir deine Benutzernamen und deine Benutzernamen.

00:22:07: Und dafür nutzen wir deine Benutzernamen und deine Benutzernamen.

00:22:08: Und dafür nutzen wir deine Benutzernamen und deine Benutzernamen.

00:22:09: Und dafür nutzen wir deine Benutzernamen und deine Benutzernamen.

00:22:10: schließen muss. Ich persönlich kann

00:22:13: damit umgehen, nur größere Unternehmen, die

00:22:14: Microsoft-Jünger schon mittlerweile

00:22:17: sind oder sein müssen, die davon

00:22:19: abhängig sind von Microsoft,

00:22:20: die haben dann dieses Problem. Also ich sage

00:22:22: natürlich, ich sage mal rein

00:22:25: objektiv, wenn man mal die Gesetze weglässt,

00:22:27: ist es natürlich das Beste, wenn man

00:22:29: möglichst viele Daten in ein KI-Modell

00:22:30: einfließen lässt. Umso mehr,

00:22:33: umso besser. Wobei, also

00:22:35: das muss man wirklich sagen,

00:22:36: wobei irgendwann braucht man auch nicht mehr

00:22:38: so viele Daten. Wobei der Punkt ist, die Varianz.

00:22:41: Wenn du jetzt

00:22:41: 50 Nutzer hast, die ein Sprachmodell befragen,

00:22:45: dann wird wahrscheinlich, gibt es bestimmt

00:22:47: 30 Nutzertypen,

00:22:49: die unterschiedliche Fragearten

00:22:51: haben von der sprachlichen Formulierung her.

00:22:53: Der eine zum Beispiel sagt,

00:22:55: was sind Cookies?

00:22:56: Der andere sagt, sag mir mal,

00:22:59: was Cookies sind. Oder

00:23:00: was meinst du sind Cookies?

00:23:02: Das ist alles dieselbe Frage,

00:23:04: Frage von der Semantik her,

00:23:07: aber sprachlich komplett anders formuliert. Und ich weiß

00:23:08: gar nicht, das waren jetzt nur meine Ideen,

00:23:11: wenn du jetzt was sagen solltest

00:23:12: oder irgendjemand, den ich nicht kenne, wie der

00:23:14: dieses KI-Modell nach Cookies befragt, weiß ich nicht.

00:23:17: Und das kann man halt natürlich sehr schön rausfinden,

00:23:19: wenn man einfach alles mitprotokolliert

00:23:20: und 100.000 oder 3 Millionen

00:23:22: User hat, dann weiß man eben alles.

00:23:25: Dann gibt es keine Frage. Also wenn dann jemand

00:23:26: nach Cookies fragt und anders als 3 Millionen Nutzer,

00:23:29: dann muss er irgendeinen Dachschaden haben

00:23:30: oder vielleicht kann er die Sprache nicht richtig.

00:23:32: Also was anderes bleibt dann ja schon fast nicht mehr übrig.

00:23:36: diese Verhaltensanalyse ist

00:23:38: halt wirklich extrem. Also man kann halt

00:23:40: anhand des Verhaltens einer Person

00:23:42: auch sehr schön herausfinden, welche Persona er

00:23:44: verkörpert.

00:23:46: Ich bin so eher der analytische Typ

00:23:49: und da gibt es welche, die sind

00:23:50: eher emotionsgetrieben und so weiter.

00:23:53: Und dann sind die Menschen natürlich auch viel

00:23:54: zugänglicher für Werbung. Man weiß

00:23:56: auch bei Wahlen und so weiter.

00:23:58: Das wurde ja gemacht bei der

00:24:00: Trump-Wahl. Cambridge Analytica hast du glaube ich auch schon

00:24:02: erwähnt letztens. Also

00:24:03: Microsoft weiß

00:24:06: dann alles über uns. Ich möchte nochmal anfügen,

00:24:08: der

00:24:10: Gründer von Aleph Alpha,

00:24:12: Andrulis heißt der glaube ich, der hat ja gesagt,

00:24:15: wir sind dumm,

00:24:17: wenn wir Microsoft alle unsere Daten geben.

00:24:18: Ich sehe es genauso. Ich habe es auch vorher schon so gesagt.

00:24:20: Da brauche ich seine Aussage nicht, um das zu wissen,

00:24:22: sondern ich finde es gut, dass er es gesagt hat.

00:24:24: Ich bin derselben Meinung schon immer gewesen.

00:24:26: Und wir sollten einfach mal drüber nachdenken,

00:24:28: dass wir nicht noch mehr Abhängigkeit generieren,

00:24:31: indem wir unsere Daten an

00:24:32: Microsoft und Google weiter kostenlos liefern.

00:24:34: Und die freuen sich ohne Ende, weil

00:24:36: sie hunderte von Milliarden jedes Jahr

00:24:38: und irgendwann gibt es nur noch diese

00:24:40: zwei Konzerne, weil mit KI

00:24:42: kann man dann halt in ein paar Jahren einfach

00:24:44: alles machen. Da kann ich auch Erfindungen

00:24:46: generieren. Und alles kann ich damit

00:24:48: machen. Alles.

00:24:51: Das ist insofern

00:24:52: finde ich sehr

00:24:54: kritisch zu betrachten.

00:24:57: Auch wenn man jetzt mal davon ausgeht,

00:24:59: wir reden immer so viel beim

00:25:00: Datenschutz über Werbung. Aber wenn ich mir

00:25:02: jetzt mal überlege, wie sehr

00:25:04: ja auch das Verhalten von Menschen

00:25:06: kontrollierbar und lenkbar wird.

00:25:08: Schauen wir mal,

00:25:08: nach China, nach Shenzhen, wo wir

00:25:10: Social Credit Scoring Systeme

00:25:13: haben, wo halt

00:25:14: genauestens protokolliert wird, wenn einer bei Rot

00:25:16: über die Ampel geht, wird er auf großen

00:25:18: Werbetafeln gezeigt, sein Vergehen gezeigt

00:25:21: und gezeigt, wie viele Abzüge er

00:25:22: im Social Scoring bekommt. Und mit

00:25:24: einmal kann man aus dem Land nicht mehr

00:25:26: ausreisen, man darf irgendwelche Verträge

00:25:28: nicht mehr unterschreiben und so weiter. Also eine komplett

00:25:30: kontrollierte Gesellschaft. Und wenn

00:25:32: ich mir jetzt überlege,

00:25:34: dass wir gerade bereitwillig

00:25:36: dabei sind, diese Informationen an

00:25:38: Privatunternehmen zu vergeben. Also wir

00:25:40: vergeben die noch nicht mal an eine Form

00:25:42: einer Regierung, die in unserem Land auch

00:25:44: für bestimmte Infrastruktur oder so

00:25:46: sorgt, sondern wir übergeben die wirklich

00:25:48: an ein kapitalgetriebenes

00:25:50: Privatunternehmen. Und

00:25:52: dieses Unternehmen

00:25:53: bietet sogar ja jetzt aktuell

00:25:56: schon Services an, dass

00:25:58: man als Unternehmensvorstand

00:26:00: bestimmte Richtlinien erlassen kann,

00:26:02: dass protokolliert wird, wie fleißig

00:26:04: und sinnvoll arbeiten denn

00:26:06: die Mitarbeiter am Arbeitsplatz.

00:26:07: Wenn man das jetzt

00:26:08: kombiniert, dass ich nicht nur noch,

00:26:10: dass ich nicht nur Zeit tracken kann und

00:26:13: welche Programme benutzt wurden, sondern

00:26:15: dass ich auch noch genau weiß, was

00:26:16: innerhalb eines Programms getan wurde

00:26:18: und dann über KI auswerten kann, ob das

00:26:21: sinnhaft ist zum Ziel, das ich

00:26:23: mit meinem Unternehmen verfolge. Damit

00:26:25: machen wir die Menschen, die in den

00:26:27: Unternehmen arbeiten, vollständig

00:26:29: unmündig. Wir machen die im Endeffekt zu

00:26:32: Maschinen. Also wir versuchen

00:26:35: den Menschen genau das abzuerziehen,

00:26:38: weil wir die Menschen, die in den Unternehmen arbeiten,

00:26:38: dass wir eigentlich von den

00:26:40: Menschen wollen, nämlich die Kreativität

00:26:41: und das Mitdenken wird dadurch immer

00:26:43: stärker eingedämmt, weil wir uns jetzt

00:26:45: dann darauf verlassen können, dass die

00:26:46: KI für uns ja schon genug denkt.

00:26:48: Ja, genau. Jetzt noch zu dem letzten

00:26:50: Punkt, den du gesagt hast, will ich noch

00:26:52: eine Sache sagen, weil Microsoft, habe

00:26:54: ich jetzt auch wieder auf der Microsoft

00:26:56: Seite gelesen, was die Pflichten des

00:26:58: Kunden sind, der Copilot benutzt, damit

00:26:59: er überhaupt einen Anspruch hat, dass

00:27:01: Microsoft ihm beisteht bei einer Klage

00:27:03: gegen ihn, Urheberrechtsklage.

00:27:05: Und zwar muss der Kunde

00:27:06: vorher, wenn er sich für eine Urheberrechtsklage

00:27:08: bezieht, ein Red Teaming gemacht haben,

00:27:12: sogenanntes Red Teaming. Das heißt, er muss

00:27:14: versucht haben, das KI-Modell vom Copilot

00:27:17: zu quälen und zu versuchen, ob da nicht

00:27:20: doch irgendwelches problematisches Material

00:27:22: rauskommt. Das muss er selbst in einem

00:27:24: eigenen Report festhalten. Er muss testen

00:27:27: und er muss diesen Report, also das heißt,

00:27:29: er muss erst mal prüfen, kommt da eigentlich

00:27:32: was raus, was ich als Mensch für

00:27:34: bedenklich halten würde. Und das muss er

00:27:36: dokumentieren.

00:27:38: Ja, wunderbar.

00:27:38: Und wenn dann eine Klage kommt, muss der

00:27:40: Kunde diesen, diese Dokumentation, diesen

00:27:42: Report an Microsoft geben, um, damit

00:27:44: Microsoft das dann verwenden kann im

00:27:45: Sinne des Kunden vor Gericht, um zu

00:27:47: sagen, wir haben doch alles getan. Der

00:27:48: Punkt ist, wenn ich mir schon so viel

00:27:51: Mühe gebe, dann brauche ich auch keine

00:27:53: Versicherung mehr. Also weil dieser Fall,

00:27:55: dass dann was passiert und vor allem die

00:27:57: Kosten dafür, sage ich, sind deutlich

00:27:59: höher, wenn man mal über größere Unternehmen

00:28:01: denkt, weil bei kleineren, kleineren Unternehmen

00:28:03: kann sowas ja gar nicht leisten.

00:28:04: Wahrscheinlich auch diese Zusatzversicherung

00:28:06: gar nicht bezahlen. Ich weiß nicht, was die

00:28:08: kostet, ist ja alles relativ günstig, aber

00:28:09: dieser Aufwand.

00:28:10: Geschweige denn zu verstehen, was das

00:28:13: eigentlich alles heißt.

00:28:14: Zu verstehen, da kann ich auch ein eigenes

00:28:17: KI-Modell nutzen oder mir eins mieten in

00:28:19: Europa, in Deutschland, was nicht von

00:28:21: Microsoft, weil es ja von einem rein

00:28:23: europäischen Anbieter, deutschen Anbieter

00:28:25: vielleicht sogar, wo ich quasi

00:28:28: automatisiert diese ganzen Prüfungen

00:28:29: bekomme und wo ich mir, wo ich dann sogar

00:28:32: eine Ausgabe kriege. Das, guckt ihr mal

00:28:35: die Bilder an, die sind möglicherweise

00:28:36: ähnlich. Und das ist das, was ich dann

00:28:38: an die Backe klebe. Und das ist deutlich

00:28:40: schneller, als wenn ich mir diesen ganzen

00:28:42: Mumpitz, den Microsoft hier vorschreibt, an

00:28:44: die Backe klebe.

00:28:46: Also es ist die weitere Öffnung der Büchse

00:28:49: der Pandora an einer anderen Stelle

00:28:51: wieder mal. Und man kann nur jedem

00:28:53: Unternehmer empfehlen, erklärt es ganz

00:28:57: transparent. Und wenn ihr das nicht

00:28:59: könnt, lasst am besten die Finger davon.

00:29:01: Wenn ihr es könnt, dann bitte sorgt dafür,

00:29:05: dass ihr von jedem Nutzer die informierte,

00:29:07: eine Einwilligung habt, dass ihr diesen

00:29:09: Mist nutzen dürft. Und ich meine mit diesem

00:29:11: Mist nicht den Copilot. Ich meine Microsoft

00:29:14: Windows und jede Applikation dieses

00:29:16: Unternehmens. Denn überall stecken, steckt

00:29:19: ja jetzt dieser Mist drin, der da im

00:29:22: Hintergrund irgendwelche Daten vernudelt.

00:29:24: Du hast gerade schon das neue Outlook

00:29:26: angesprochen. Dreimal dürfen wir raten,

00:29:28: warum es das neue Teams gibt. Ja, also

00:29:30: alle diese Sachen bieten genau diese

00:29:33: Angriffspunkte und genau diese

00:29:35: Problematiken.

00:29:36: Und ein Unternehmen kann sich zumindest

00:29:39: in Europa, wenn wir jetzt mal die

00:29:41: Datenschutz-Grundverordnung nehmen, nur

00:29:43: davor schützen, indem ihr wirklich eine

00:29:45: transparente, freiwillig informierte

00:29:47: Einwilligung dieses Nutzers habt. Und da

00:29:49: möchte ich mal ein Unternehmen finden,

00:29:51: das schafft, das einem ganz

00:29:54: normalen Mitarbeiter, der einfach nur

00:29:56: seinen Office-PC verwendet oder seinen

00:29:58: Office-Laptop mit Windows verwendet, klar

00:30:00: zu machen, wie das genau abläuft und was

00:30:02: das genau für Implikationen bedeuten

00:30:04: kann.

00:30:05: Das wäre, finde ich, sogar mal ein

00:30:07: spannendes Thema. Man könnte ja wirklich

00:30:09: mal versuchen, so eine Art Lackmustest

00:30:11: dafür zu erarbeiten. Wie kann ich einem

00:30:13: DAO klar machen, dass das problematisch

00:30:17: ist? Also welche Worte muss ich benutzen?

00:30:19: Ich denke da so ein bisschen an so eine

00:30:21: Folge von John Oliver, wo es um

00:30:24: die NSA-Affäre und Edward Snowden

00:30:29: ging. Und der hat dann eben herausgefunden,

00:30:32: dass die Leute keine Ahnung davon haben,

00:30:34: was Datenverarbeitung ist und was man

00:30:36: damit machen kann. Aber als er die Leute

00:30:37: gefragt hat, ob die es cool fänden, wenn

00:30:39: Nacktfotos von ihnen von der Regierung

00:30:41: gesehen würden, dann waren sie mit einem

00:30:43: Mal alle dagegen. Also man muss halt nur

00:30:46: den richtigen Hebel finden, um den Leuten

00:30:48: klar zu machen, dass das ein Thema ist,

00:30:50: das relevant ist für sie. Wäre vielleicht

00:30:53: spannend, sowas mal zu überlegen, ob man

00:30:55: sowas herstellen kann, weil das könnte

00:30:57: vielleicht wirklich vielen Unternehmen

00:30:58: in dieser kritischen Situation helfen.

00:31:01: Ja, stimmt.

00:31:02: Also zu empfehlen ist es auf jeden

00:31:04: Fall nicht, den Copilot einzusetzen.

00:31:06: Das ist ganz klar, weil, ja, das ist ja

00:31:10: krass. Also du kannst ja noch nicht mal

00:31:13: die Voraussetzungen erfüllen, damit

00:31:15: Microsoft diesen Schutz, den sie anpreisen

00:31:17: in ihrem Blog, dann auch wirklich später

00:31:20: umsetzen für dich. Das ist ja irre.

00:31:22: Also ich sag mal, das betrifft ja auch

00:31:25: Code-Generierung, dieses Red-Teaming und

00:31:27: so weiter. Aber andererseits bei Code-

00:31:29: generierung ist die Wahrscheinlichkeit,

00:31:31: dass jemand dagegen klagt, nicht so hoch,

00:31:33: wenn man den Code nicht gerade Open Source

00:31:35: macht, was ja die meisten Firmen gerade

00:31:37: nicht machen. Das ist ja dein Asset.

00:31:39: Und da ist es allerdings so, zunächst mal

00:31:42: kann man den Code auch mit eigenen KI-

00:31:44: Modellen sehr gut trainieren und zwar

00:31:45: sogar besser als Copilot, sage ich, weil

00:31:48: jede Firma hat ihren eigenen Code-Stil

00:31:51: oder ihre eigenen Grundsätze und

00:31:53: Richtlinien, Entwickler, die auf

00:31:55: bestimmte Sachen Wert legen. Das kann man

00:31:57: einem eigenen Modell viel besser

00:31:58: beibringen. Und zum Zweiten kann ich da

00:32:00: auch Sicherheitsthemen viel besser

00:32:02: einfließen lassen, als wenn ich so eine

00:32:04: Generierung von so einer allgemeinen

00:32:06: Allerwelts-KI, sag ich mal, die ist

00:32:08: bestimmt toll, wenn man die Funktionalität

00:32:10: ansieht. Aber die Eingriffsmöglichkeiten

00:32:12: sind halt relativ gering. Man sollte es

00:32:13: einfach mal perspektivisch betrachten.

00:32:14: Wenn ich nur über drei Monate nachdenke,

00:32:16: dann ist es natürlich günstiger,

00:32:17: irgendwas Vorgefertigtes zu nehmen. Aber

00:32:19: darüber hinaus, die Welt ist sehr

00:32:21: schnelllebig, habe ich mit einem eigenen

00:32:23: System, was viel besser spezialisierbar

00:32:25: ist, viel bessere Ergebnisse und kann

00:32:28: das Ding auch im Endeffekt wahrscheinlich

00:32:30: günstiger nutzen. Wenn ich mir nämlich

00:32:32: vorstelle, dass ich, wenn ich zum

00:32:34: Beispiel einen eigenen Server habe oder

00:32:35: einen gemietet habe, dann kann ich den

00:32:37: ja 24-7 laufen lassen, ohne dass er mehr

00:32:39: kostet. Wenn ich aber Microsoft Co-Pilot

00:32:41: nutze, das wird irgendwann in ein

00:32:43: Pay-Per-Use-Modell übergehen, genau wie

00:32:46: alles. Ich meine, ich will nur Spotify

00:32:48: erwähnen. Die wollen jetzt einfach drei

00:32:50: Euro mehr pro Monat haben. Einfach so.

00:32:52: Und wenn du aus Versehen falsch klickst,

00:32:54: hast du es auch noch angenommen, obwohl es,

00:32:55: sag ich, recht niedrig ist. Da gibt es ja

00:32:57: auch ein Urteil, glaube ich, dazu. Aber ich

00:32:59: will nur sagen, man ist komplett abhängig

00:33:01: von diesem Konzern und abhängig, wer sich

00:33:03: freiwillig abhängig macht, ich sage jetzt

00:33:05: mal ganz deutlich, den halte ich für dumm.

00:33:07: Ja, also das muss ich wirklich einfach mal

00:33:09: so sagen und mit dummen Menschen habe ich

00:33:12: selten gerne zu tun.

00:33:16: Das ist definitiv, also da bin ich voll

00:33:19: deiner Meinung. Es bleibt halt, es bleibt

00:33:23: halt wieder bei dieser Sache, die meisten

00:33:26: Menschen werden es einfach machen, weil

00:33:28: sie sich einfach gar nicht informieren

00:33:30: können und denken, oh ja, dann ist das

00:33:32: halt so, spielt ja keine Rolle, gibt mir

00:33:34: ja irgendeinen Mehrwert, ohne darüber

00:33:36: nachzudenken, was die Konsequenzen später

00:33:38: sein können. Die Leute, die sich unseren

00:33:40: Podcast anhören, gehören hoffentlich zu

00:33:42: den Leuten, die darüber nachdenken. Ich

00:33:44: glaube, sonst würden sie auch gar nicht

00:33:45: zuhören, schon gar nicht über die Länge

00:33:47: der Zeit, die wir darüber diskutieren

00:33:48: können. Aber ich denke, was so eine Sache

00:33:52: ist für mich, wir sollten vielleicht

00:33:54: noch mal gemeinsam ein bisschen genauer

00:33:56: zum Beispiel auf dieses Thema neues

00:33:58: Outlook gucken.

00:33:59: Oder das neue Teams, also was steckt

00:34:02: denn wirklich hinter den Services, den

00:34:04: so viele Menschen tagtäglich nutzen und

00:34:07: wo Unternehmer sich überhaupt keine

00:34:09: Gedanken darüber machen, dass sie ihren

00:34:11: Mitarbeitern da eine Wahlmöglichkeit

00:34:14: stellen müssen. Ja, also man kann nicht

00:34:16: einfach sagen, hier neues Outlook und wir

00:34:19: nutzen das jetzt alle, sondern jeder

00:34:20: Nutzer, jeder Mensch hat die freie

00:34:23: Entscheidung zu sagen, nein, das nutze ich

00:34:25: nicht. Und dann muss man eine Alternative

00:34:27: bereitstellen.

00:34:29: Man kann ja nicht einfach sagen, das machst

00:34:31: du schon. Das muss man als Unternehmer, glaube

00:34:33: ich, auch wissen.

00:34:34: Ja, der Arbeitgeber haftet natürlich

00:34:36: dafür, was mit den Daten seines

00:34:38: Angestellten passiert, die er auf

00:34:40: Veranlassung sozusagen an Microsoft

00:34:42: weitergibt. Da können wir gerne mal

00:34:44: drüber sprechen. Wir sind am Ende der

00:34:45: Zeit, Stephan, du hast es gesagt. Ich sage

00:34:47: mal so, aus meiner Sicht, es war sehr

00:34:49: spannend und ich fand unseren Austausch

00:34:51: sehr gut. Ich bin kein Microsoft-Freund

00:34:54: mehr. Ganz früher war ich es mal, da gab

00:34:56: es ja auch gar keine großen Probleme,

00:34:57: die aufgeworfen wurden. Und jetzt sind wir

00:34:58: aufgeworfen wurden 1995 oder so. Aber ich

00:35:02: sage mal so, wenn es geht, vermeide ich

00:35:03: Microsoft. Und wir können auch gerne mal

00:35:05: drüber reden, wie man das machen kann. Ich

00:35:06: habe nämlich da ein Modell gefunden, was

00:35:08: praktikabel ist und gleichzeitig die

00:35:10: Vorzüge von Windows beibehält.

00:35:13: Aha, wunderbar. Das ist doch eine spannende

00:35:15: Vorausschau. Dann würde ich sagen, liebe

00:35:17: Zuhörer, freut euch auf die nächste Woche,

00:35:19: wenn wir dann alle gemeinsam lernen

00:35:21: können, wie Klaus das Microsoft-Problem

00:35:24: für uns löst. Und in diesem Sinne würde

00:35:27: ich sagen, danke dir, Klaus. Hat wieder

00:35:29: mal sehr viel Spaß gemacht, viel gelernt

00:35:31: und an alle da draußen, macht euch noch

00:35:32: einen schönen Tag. Ciao, ciao. Tschüss.

Neuer Kommentar

Dein Name oder Pseudonym (wird öffentlich angezeigt)
Mindestens 10 Zeichen
Durch das Abschicken des Formulars stimmst du zu, dass der Wert unter "Name oder Pseudonym" gespeichert wird und öffentlich angezeigt werden kann. Wir speichern keine IP-Adressen oder andere personenbezogene Daten. Die Nutzung deines echten Namens ist freiwillig.