#27 Künstliche Intelligenz auf Plattformen von Internetkonzernen
Shownotes
Der Podcast rund um das Thema Datenschutz und IT. Mit Dr. Klaus Meffert und Stephan Plesnik.
27 Künstliche Intelligenz auf Plattformen von Internetkonzernen
Der Transparenzbericht von Facebook liefert zahlreiche Beispiele, wie aus Sicht von Meta die Künstliche Intelligenz dazu beiträgt, die Nutzererfahrung zu verbessern. Transparenz ist allerdings weniger, welche Daten wie verarbeitet werden. Neben den Chancen, die KI bietet, scheint es insbesondere auf weit verbreiteten Plattformen wie denen von Meta, Google oder Microsoft, große Risiken zu geben. Nicht nur Content-Ersteller sind betroffen, sondern jeder (Fake News, KI-Halluzinationen, Persönlichkeitsprofile etc.).
Dies und einiges mehr in der aktuellen Episode von Datenschutz Deluxe
Feedback geben? Fragen stellen? Gerne hier:
https://dr-dsgvo.de
Videokanal von Stephan: https://www.youtube.com/datenschutzistpflicht
Impressum:
https://dr-dsgvo.de/impressum
Transkript anzeigen
00:00:00: Datenschutz Deluxe, der Podcast rund um das Thema Datenschutz und IT. Mit Dr. Klaus Meffert und Stephan Plesnik.
00:00:14: Herzlich willkommen zum Datenschutz Deluxe Podcast. Ich bin wieder Stephan Plesnik und bei mir ist natürlich Dr. Klaus Meffert. Klaus, wie geht es dir?
00:00:22: Hallo Stephan, freut mich, dass wir wieder sprechen und du hast ein tolles Thema ausgesucht. Da freue ich mich auch drauf.
00:00:29: Ja, wunderbare Überleitung. Erstmal, wir waren ja etwas länger nicht da, gab viele Urlaube. Sommerzeit ist ja auch immer was, was man gerne draußen genießt und vielleicht weniger von einem Podcast-Mikrofon.
00:00:39: Aber es haben sich sehr, sehr spannende Dinge ergeben, die wahrscheinlich alle so ein klein bisschen miteinander zusammenhängen.
00:00:46: Und deswegen dachte ich mir, schauen wir mal auf eine Sache, die nun wirklich so gar nicht dem Stil der Firma entspricht, die uns aber am 29. Juni 2023 beschert wurden.
00:00:57: Und zwar gibt es ein Transparency Center, in dem Facebook, also der Meta-Konzern, tatsächlich offenlegt, wie ihre KI-Systeme arbeiten und wie sie welche Form von Informationen verwenden und weiterverarbeiten.
00:01:12: Als ich das zuerst gehört habe, habe ich gedacht, das ist ja mal mega geil. Da kann man ja mal richtig nachlesen, was da passiert.
00:01:19: Und als ich dann dieses 22 DIN-A4-Seiten starke Dokument mir etwas genauer betrachtet habe, stellte ich doch fest, dass so viel gar nicht transparent gemacht wird, sondern vielmehr hinter Worthülsen wie künstlicher Intelligenz kaschiert wird.
00:01:35: Ich dachte, wir beide nehmen einfach uns heute mal ein halbes Stündchen Zeit, gucken da so ein bisschen rein und bilden uns unsere eigene Meinung gemeinsam. Was meinst du, Klaus?
00:01:45: Ja, klingt spannend, ist ja ein aktuelles Thema. KI, Facebook, also Meta, Google, die tun da sehr viel in dem Umfeld, was jetzt nicht unbedingt nur positiv ist, aber auch vielleicht.
00:01:55: Und es wurde jetzt kürzlich, ging es ja auch um den Privacy Shield, der ja wahrscheinlich wieder beklagt werden wird, wenn er in der nächsten Version kommen soll. Da können wir auch mal drüber sprechen.
00:02:07: Ja, ich hoffe doch sehr, dass der beklagt wird. Und ich denke mal, dass Max Schrems auch vor diesem Konstrukt des Wahnsinns oder Irrsinns besser gesagt keinen Halt macht.
00:02:15: Denn wenn man sich so anguckt, was da drin steht, also dann steht da wieder eigentlich genau derselbe Schmu drin wie im ersten Privacy Shield und damals im Safe Harbor.
00:02:24: Und dass sich dazwischen an den Telemetriedatenübermittlungen und den Metadatensammlungen von Konzernen in den USA wenig geändert hat, beziehungsweise es eigentlich viel mehr geworden ist, nur auf anderen Wegen.
00:02:37: Das können ja zum Beispiel Windows Nutzer alleine dadurch sehen, dass sie mal die Datenschutzeinstellungen in Windows öffnen und einfach mal sich die Frage stellen, was für Formulierungen stehen da eigentlich drin?
00:02:48: Stichwort, wie häufig darf Microsoft mein Feedback anfragen? Was ist das für eine Formulierung? Die Frage dürft ihr euch jetzt selber stellen. Schauen wir mal gemeinsam in dieses Dokument rein.
00:03:00: Ja, darf ich noch eine Anmerkung machen vielleicht zu Microsoft Windows?
00:03:02: Ja, natürlich.
00:03:03: Gilt auch übrigens für Google und für Meta und diese üblichen Verdächtigen. Sind ja zum Glück nicht so viele, aber beherrschen ja unser gesamtes Leben.
00:03:11: Es ist ja ein zweistufiges Problem. Die erste Stufe, die hast du gerade beschrieben. Microsoft selbst ist schon der Verbrecher. Die sammeln schon Daten, ohne dass sie es dürfen.
00:03:19: Dann geht es noch weiter. Wenn die Daten dann bei Microsoft gelandet sind, kommt der amerikanische Geheimdienst nach Bedarf und sagt zu Microsoft, gib mir die Daten.
00:03:27: Das heißt, jemand anders missbraucht die Daten dann auch noch gegen uns. Also nicht nur gegen uns als Bürger in Deutschland, sondern auch gegen uns als Staat, weil unsere Wirtschaftsnation leidet ja darunter.
00:03:37: Wenn nämlich Geschäftsgeheimnisse und sensible Informationen abgegriffen werden oder auch Profile von Personen gebildet werden, dann ist das schlecht für unseren Wirtschaftsstandort.
00:03:46: Und ich als Steuerzahler muss dann mehr Steuern bezahlen, weil die anderen nämlich reicher werden immer als wir und wir immer dagegen ankämpfen müssen. Und da habe ich ein großes Problem mit.
00:03:56: Ich kann dein Problem damit sehr gut nachvollziehen. Mir geht es auch nicht gut damit, wenn man sich mit diesen Thematiken auseinandersetzt.
00:04:02: Und vor allen Dingen, wenn man dann sieht, wie ja wirklich doch lapidar und unwissend unsere Politiker mit dieser Thematik umgehen.
00:04:09: Weil so wie sich die Dinge entwickeln, finde ich, kann man immer wieder sehr stark sehen, dass die Leute, die da Entscheidungen treffen, überhaupt keine Ahnung von der Thematik und der Reichweite, der Tragweite der Entscheidungen haben.
00:04:20: Sondern vielmehr versuchen, sich selber irgendwie ein Denkmal zu setzen. So nach dem Motto, ich habe dieses Abkommen geschaffen, ich habe dieses Gesetz in aller Munde gebracht.
00:04:30: Und das ist irgendwie sehr schade, dass so die Datenschutzgrundverordnung der wichtigste Schutzpfeiler der Demokratie vor Diktaturen und Überwachungstotalitarismus ist.
00:04:43: Das finde ich schon irgendwie sehr bedenklich, weil eigentlich sollten das in einer Demokratie die Parteien sein und insbesondere die Politiker. Aber so ist es halt leider aktuell nicht.
00:04:53: Ja, schauen wir mal in dieses Dokument. Für alle Leute, die das selber aufrufen wollen.
00:05:00: Unter der URL Transparency, also zu Englisch Transparenz, .fb für Facebook, .com findet ihr dieses Transparency Center.
00:05:11: Da werdet ihr dann erstmal mit einer Cookiebox begrüßt, die aber komischerweise, wenn ihr allen zustimmt, keine Cookies lädt.
00:05:17: Soviel zum Thema Transparenz. Kann man sich jetzt auch sein Urteil darüber bilden, wie man möchte. Aber ist ja schon mal besser, als wenn sie da jetzt wieder Tausende von Cookies setzen würden, die sie nicht brauchen.
00:05:27: Der andere Punkt ist dann, dann ist man auf so einer Übersichtsseite, da wird halt jetzt ziemlich viel erzählt über Entwicklung neuer Tools für mehr Transparenz im Zusammenhang mit KI.
00:05:38: Und genau dieses Wort taucht dann ständig. Man kann keinen einzigen Satz lesen auf dieser Seite, ohne dass KI drinsteht.
00:05:47: Ja, das ist schon ein bisschen nervig. Und dann wird halt so ein bisschen beschrieben, okay, KI-Systeme bestehen aus Modellen.
00:05:55: Und diese Modelle ergeben sich eben aus bestimmten sogenannten Input-Signalen, also Informationen.
00:06:02: Irgendeine Information hat eine Ähnlichkeit zu einer anderen Information. Das ist dann ein Input-Signal. Die werden zusammengezogen, daraus wird ein Modell kreiert.
00:06:10: Und dieses Modell sorgt dann dafür, dass man eine Vorhersage machen kann, wenn natürlich genug Input-Daten, also genug Bezugsdaten vorhanden sind.
00:06:20: So funktioniert das in der KI. Deswegen bin ich auch nicht dafür, dass wir das KI nennen.
00:06:24: Ich würde sagen, wir sollten das vielleicht nicht intelligent, sondern ja, mehr irgendwie kopierend nennen oder irgendwie so.
00:06:32: Also das sind ja nur Bezüge, die hergestellt werden von schon vorhandenen Informationen. Das ist ja nicht wirklich intelligent, daraus eine Ableitung zu erstellen.
00:06:39: Das ist zumindest mein Empfinden.
00:06:44: Genau, und dann geht es weiter runter auf die einzelnen Dinge ein. Und da wird es dann wirklich spannend.
00:06:50: Ich würde sagen, sollen wir uns einmal den Feed angucken gemeinsam?
00:06:54: KI-Systeme für den Facebook-Feed.
00:06:59: Können wir gerne machen. Ich meine, generell ist es ja so übrigens, dass auch Google vor kurzem schon die Datenschutz-Hinweise geändert hat.
00:07:07: Dahingehend, dass alle Daten jetzt, die Google sowieso schon einsammelt und das Gleiche gilt ja für Facebook beziehungsweise Meta auch,
00:07:13: werden jetzt nicht nur wie bisher verwendet, sondern eben für, ich sage mal, künstliche Intelligenzanwendungen,
00:07:20: was im Endeffekt datenschutzrechtlich mehr oder weniger das Gleiche ist.
00:07:24: Aber der Unterschied ist, dass unsere Inhalte noch mehr abgegriffen werden von Google und Facebook und wir noch mehr entmündigt werden.
00:07:31: Das führt nämlich letztendlich dazu, wenn wir uns mal weiterdenken ein paar Jahre,
00:07:35: dass in der Google-Suchmaschine Antworten entstehen, die außerhalb unserer Webseiten liegen.
00:07:41: Das heißt, unsere eigenen Webseiten, auf denen wir mühsam unsere Texte eintippen,
00:07:44: die werden überhaupt gar nie wieder aufgerufen, wenn jemand die Suchmaschine aufruft oder Facebook.
00:07:48: Sondern die werden direkt von Google oder Facebook dort angezeigt, die Inhalte.
00:07:51: Und wir kriegen überhaupt nichts davon, außer dass wir Arbeit hatten.
00:07:55: Und das wird ein Riesenproblem, weil ich werde nämlich dann nicht mehr zukünftig,
00:07:58: wenn mich keiner mehr aufruft, werde ich natürlich keine Texte mehr schreiben.
00:08:01: Dann kann jeder selbst sehen, wo er die Texte herkriegt.
00:08:03: Wenn er meint, er kriegt sie bei Google, dann wird er sehen, dass es in drei Jahren diese Texte so nicht mehr geben wird.
00:08:08: Das ist ja eine sehr spannende Dynamik, die du da aufwirfst, die da entsteht.
00:08:14: Also wenn man sich das wirklich überlegt, dass diese Suchmaschinen oder diese Konzerne jetzt hingehen
00:08:20: und das Internet durchforsten und diese KI-Systeme, dadurch dass sie eben keinerlei Urheberrechte oder irgendetwas berücksichtigen,
00:08:27: Inhalte sammeln, miteinander vergleichen und daraus neue Inhalte neu, also pseudo-neu generieren.
00:08:34: Weil im Endeffekt kopieren sie sich ja nur aus unterschiedlichen Stellen Dinge zusammen, die andere schon erschaffen haben.
00:08:40: Und die bleiben dabei wirklich auf der Strecke.
00:08:43: Das bedeutet, auf der einen Seite haben wir dann diesen Mechanismus,
00:08:46: wir wissen nicht mehr, was ist von einem Menschen erstellt und sollte so gesagt werden.
00:08:51: Und was ist von einer KI zusammengewürfelt und ergibt vielleicht in einem Kontext einen anderen Sinn.
00:08:56: Was eine Gefahr der Desinformation bietet.
00:08:59: Und auf der anderen Seite haben wir das Problem, dass die Content-Creator, wie du gerade angesprochen hast,
00:09:04: wie du selbst oder wir beide, natürlich kein Interesse mehr haben, Content zu erstellen,
00:09:09: weil da läuft Zeit und Geld rein und Aufwand.
00:09:13: Und wenn der keinen Return erzeugt, dann kann man in einer kapitalistisch aufgestellten Gesellschaft
00:09:18: dies nicht wirtschaftlich betreiben und muss irgendwann gucken, wo man bleibt und andere Dinge tun.
00:09:23: Das heißt also, wir werden da einen sukzessiven Rückgang von qualitativ hochwertig recherchierten Informationen haben.
00:09:30: Und das beides zusammen ist krass.
00:09:34: Ja, genau. Also du hast recht, wie du sagst.
00:09:37: Ich finde es übrigens auch an sich nicht schlecht, eine KI anzutrainieren.
00:09:40: Das Problem ist nur, wenn es Monopolisten tun.
00:09:43: Also wenn es ein kleines Unternehmen macht, für sich seine eigene Welt schafft,
00:09:47: dann ist es ja, finde ich, vollkommen unproblematisch.
00:09:51: Nur wenn jetzt natürlich zwei, drei, vier Tech-Giganten in der Welt alle Inhalte absaugen
00:09:56: und alle Antworten der Welt geben können oder wollen,
00:09:59: dann führt es dazu, dass alle anderen, wie du sagst, du, ich, andere Content-Ersteller leer ausgehen.
00:10:05: Und das möchte ich nicht. Und da finde ich, das sollte man regulieren.
00:10:09: Man sollte nicht regulieren, dass kleine Organisationen ihre Sprachmodelle haben,
00:10:15: mit denen sie selbst irgendwas machen,
00:10:17: sondern man sollte regulieren, dass sehr große Player mit x Millionen oder Milliarden Usern,
00:10:22: Millionen muss man sagen, 100 Millionen, dass die diese Inhalte so einfach benutzen können.
00:10:27: Das wäre der Sinn der Regulierung, den man mal angehen sollte.
00:10:30: Alle anderen Regulierungen halte ich für erstens nicht machbar und zweitens auch unsinnig, muss ich sagen.
00:10:34: Denn du hast es ja auch schon angedeutet.
00:10:36: Oft sieht man gar nicht, ob das Ergebnis, also ein Text, ein Bild, ein Video vielleicht sogar mittlerweile auch,
00:10:42: einen Mensch erstellt hat oder eine KI.
00:10:45: Und wenn man das nicht sieht, dann kann man es auch nicht regulieren.
00:10:47: Man kann natürlich sagen, ich möchte, dass es gekennzeichnet wird.
00:10:50: Aber ich möchte, also ehrlich gesagt, weiß ich nicht, was besser wird dadurch, dass man etwas kennzeichnet.
00:10:55: Also am Anfang wird es so sein, okay, das hat eine KI geschrieben, da bin ich etwas kritischer.
00:10:59: Nach einem Jahr oder nach drei Wochen vielleicht schon findet eine Abstumpfung statt und jeder sagt sich,
00:11:04: ja gut, das steht sowieso überall drauf. Ich kenne es vom Fernsehen noch.
00:11:07: Da musste Fernsehsendungen, in denen Werbung platziert war als Produkt,
00:11:13: also Werbung, Fernsehsendungen mit Produktplatzierung oder enthält Produktplatzierung gekennzeichnet werden.
00:11:18: Wenn man sich bestimmte Sender ansieht, dann stellt man fest,
00:11:20: dass jegliche Abendshow mit diesem Hinweis gekennzeichnet ist und zwar permanent.
00:11:25: Das kann man, also ob man etwas immer anzeigt oder nie, ist vom Informationsgehalt exakt dasselbe.
00:11:31: Also kann man es auch gleich weglassen und das ändert also überhaupt nichts.
00:11:34: Also wir werden in riesengroße Probleme reintreten, wenn wir nicht endlich anfangen,
00:11:38: und das passiert ja in der EU teilweise auch Data Act und so weiter, AI Act,
00:11:42: wobei ich von dem nicht so viel halte, dass die Großen einfach reguliert werden müssen und die Kleinen aber bitte nicht.
00:11:50: Hm? Bist du noch da?
00:11:52: Ich bin da, ja. Der Satz war zu Ende.
00:11:54: Also ich war eigentlich mit meinem Gedanken zu Ende.
00:11:58: Die kleinen Unternehmen sollen nicht reguliert werden oder wenn dann nur ganz minimal,
00:12:03: weil die Regulierung ist eigentlich was, was nur den Großen hilft,
00:12:06: denn die können nämlich die Regularien erfüllen, indem sie Geld draufwerfen
00:12:10: und die Kleinen können es einfach nicht.
00:12:12: Das führt also noch dazu, dass die Großen noch besser werden im negativen Sinne.
00:12:16: Und das heißt, die Großen müssen reguliert werden und nicht die Kleinen.
00:12:19: Nur dann macht es wirklich Sinn und dann kann man auch KI beherrschen.
00:12:23: Es ist übrigens so, ich kann jetzt schon auf meinem lokalen Rechner,
00:12:27: da läuft ein KI-Modell, das kann mir faktisch gar keiner verbieten,
00:12:30: weil wie willst du denn kontrollieren, was ich bei mir laufen habe?
00:12:33: Dann kommt eine Ausgabe raus, ja und dann? Was machst du dann? Wie willst du das regulieren?
00:12:38: Und mein KI-Modell wird ja immer besser, weil wenn nämlich der Rechner immer besser wird,
00:12:41: den ich mir kaufen kann, dann wird auch das Modell besser.
00:12:43: Wie man das regulieren will, es schließt sich rein logisch schon nicht.
00:12:48: Das ist, also wenn man das von dem Regulariumsstandpunkt und dieser Perspektive aus betrachtet,
00:12:54: gebe ich dir vollkommen recht, dann passt die Beschreibung Büchse der Pandora
00:12:58: so ziemlich gut zu diesen KI-Modellen, mit denen wir es zurzeit zu tun haben,
00:13:04: die ja als Generative AI beschrieben werden.
00:13:08: Ich finde, wie gesagt, Generative AI finde ich zu hoch gegriffen,
00:13:11: weil, wie du ja auch sagst, klar, die lernen aus den vorhandenen Informationen,
00:13:17: mit denen man sie füttert, aber es ist auch ein kleines Ding für jeden Einzelnen zum Test zu machen,
00:13:24: dass ChatGPT überhaupt kein Wunderwerkzeug ist, zumindest nicht in der Produktion von Inhalten,
00:13:30: die es als Antworten gibt, indem man zum Beispiel diese ChatGPT mal fragt,
00:13:35: einen Blogartikel zu einem x-beliebigen Thema zu schreiben und dann den ersten Absatz,
00:13:39: die ersten zwei, drei Sätze nimmt und in die Google-Suchmaschine pfeift,
00:13:44: dann kriegt man sofort eine Webseite, auf der exakt dieser Absatz steht.
00:13:47: Und wenn man den zweiten nimmt, kriegt man die Webseite, auf der exakt dieser Absatz steht.
00:13:51: Ist das so? Ja, das wusste ich gar nicht.
00:13:54: Da werden wirklich einfach nur Inhalte ähnlicher Bezüge, die semantisch Sinn ergeben,
00:13:59: nacheinander ausgespuckt.
00:14:01: Dieses System schreibt keine neuen Informationen,
00:14:04: es erfindet auch keinen Bezug von Informationen zueinander.
00:14:07: Es hat einfach nur genau das Gleiche, im Endeffekt ist es exakt dasselbe,
00:14:11: was Google seit Jahrzehnten schon als Suchmaschine anstrebt zu tun
00:14:16: und auch was in den Facebook-Suchalgorithmen und diesen ganzen KI-Tools dieser Unternehmen,
00:14:20: also die werden immer KI genannt, ich weiß nicht warum,
00:14:22: es ist nichts weiter als ein Algorithmus, den ein Mensch schreibt,
00:14:26: der irgendwelche Dinge vergleicht.
00:14:29: Da muss ich dir ein bisschen widersprechen.
00:14:31: Also ich stimme dir zu, das wird aber dann philosophisch, ich kann nur ganz kurz darauf eingehen.
00:14:35: Und zwar, also zum einen, ich muss den Algorithmus schon gar nicht mehr schreiben.
00:14:39: Das ist bei der KI schon was anderes jetzt als vor kurzem.
00:14:42: Das heißt, ich muss gar nicht mehr wissen, wie löse ich ein Problem.
00:14:44: Also wie erkenne ich zum Beispiel ein Einbrecher anhand der Sensoren, die ich habe.
00:14:48: Kamera, Bewegungssensor, Wärmesensor, vielleicht Stolperdraht und sonst was.
00:14:52: Ich weiß nicht, welche Sensoren welche Signale geben müssen,
00:14:55: damit ich weiß, dass es ein Einbrecher ist.
00:14:57: Ich gebe aber einfach Beispiele rein, wann ein Einbrecher da war und die Sensoren dazu,
00:15:01: Sensorwerte und dann weiß die KI für zukünftige Einbruchsversuche,
00:15:04: dass es höchstwahrscheinlich ein Einbruch ist.
00:15:06: Das ist eine komplett neue Qualität.
00:15:08: Also da muss ich keinen Algorithmus mehr erdenken.
00:15:10: Ich könnte jetzt noch zig andere Beispiele nennen.
00:15:12: Also das kann man auf alles übertragen.
00:15:14: Das zweite Thema ist, du hast recht, also ich wehre mich trotzdem dagegen,
00:15:17: wenn man sagt, es ist eine rein statistische Erhebung.
00:15:20: Kann man gerne sagen, aber ich bin der festen Überzeugung
00:15:24: und ich kenne die mathematischen Modelle ein bisschen,
00:15:26: dass exakt das Gleiche im menschlichen Gehirn stattfindet.
00:15:29: Da ist es nur noch ein bisschen weiterentwickelt.
00:15:31: Und wir sind bekanntlich, können wir in der Gegend rumlaufen.
00:15:33: Das kann ChatGPT noch nicht.
00:15:35: Das wird aber passieren. Das hat man früher schon mal versucht.
00:15:38: Hat aber nicht geklappt, weil die Hardware nicht gut genug war
00:15:40: und die Algorithmen auch noch nicht da waren.
00:15:42: Die entstanden erst ab 2017, jetzt genauer.
00:15:45: Und deswegen sage ich, es ist exakt dasselbe,
00:15:47: wie die menschliche Intelligenz funktioniert,
00:15:49: nur dass es noch nicht ganz so weit fortgeschritten ist.
00:15:51: In Teilen allerdings muss man sagen, wenn du dir,
00:15:53: ich bin jetzt kein Freund von ChatGPT,
00:15:55: auch aus Datenschutz und Geschäftsgeheimnisgründen und so weiter,
00:15:58: aber man muss einfach anerkennen,
00:16:00: dass bestimmte Antworten auf Fragen, die eine Logik erfordern,
00:16:04: zum Beispiel von ChatGPT, deutlich besser gegeben werden
00:16:07: und zwar in einer sehr breiten Anwendungsspektrum,
00:16:11: als es der durchschnittlich intelligente Mensch IQ 100 ungefähr geben kann.
00:16:15: Das muss man einfach sagen.
00:16:16: Also der Turing-Test wurde geknackt und ChatGPT ist besser
00:16:20: als viele Menschen in vielen Bereichen.
00:16:22: Nicht in allen oder in den meisten wahrscheinlich nicht.
00:16:25: Ein Nagel in die Wand schlagen kann das Ding nicht.
00:16:27: Aber ich sage, in 10, 20 oder aller spätestens 30 Jahren
00:16:31: wird es intelligente Roboter geben, die in der Gegend rumlaufen
00:16:35: und uns bei weitem überlegen sind.
00:16:37: Das sage ich.
00:16:40: Ich bin da voll bei dir.
00:16:42: Das stelle ich überhaupt nicht in Frage.
00:16:44: Nur Intelligenz hat ja nicht nur etwas damit zu tun,
00:16:48: dass ich logische Kombinationen und Bezüge herstellen kann,
00:16:52: sondern Intelligenz gibt es ja auch auf der emotionalen Ebene.
00:16:56: Das Einfühlungsvermögen in eine andere Person usw.
00:16:59: oder in einer Gruppendynamik sich zurechtzufinden,
00:17:02: hat mit Intelligenzprozessen zu tun, die in der Biologie
00:17:05: und in der Neurologie noch nahezu gar nicht erforscht sind
00:17:08: und auch in der Psychologie nicht.
00:17:10: Und das ist ein Teil von Qualität der Mensch von Maschine
00:17:16: zum größten Teil unterscheidet.
00:17:19: Denn daraus entsteht z.B. ja auch unsere Interpretation der Situation,
00:17:23: zu sagen, wir haben einen Willen und wir möchten etwas erreichen.
00:17:27: Ein ChatGPT hat keinen Willen, etwas zu erreichen.
00:17:30: Es ist ein Output-System, das nach Inputs reagiert.
00:17:33: Und ich glaube, das ist halt noch eine wichtige Spanne,
00:17:37: die man mit einbedenken sollte,
00:17:39: wenn man Intelligenzen miteinander vergleicht.
00:17:42: Auf dem logischen, analytischen oder algorithmischen Verhaltenslevel
00:17:46: bin ich voll bei dir.
00:17:48: Das wäre auch total schlecht, wenn wir Menschen da besser wären,
00:17:52: weil dann wären wir Menschen mehr Maschine als Mensch.
00:17:56: Und genau das soll ja nicht passieren.
00:17:58: Also bin ich voll bei dir.
00:18:00: Damals hattest du ja schon vom Reinforcement-Learning gesprochen.
00:18:04: Und tatsächlich ist es schon so,
00:18:06: ich weiß nicht, wie du es gerade genannt hast,
00:18:09: aber es gibt ein Belohnungsmodell in jeder KI, das heißt Reward-Model.
00:18:13: Und das findet natürlich momentan
00:18:15: nur nicht auf einer sogenannten emotionalen Ebene statt,
00:18:18: weil es diese Emotionen nicht gibt, weil es keine Sensoren dafür gibt.
00:18:22: Aber als Beispiel, wenn jetzt ein Roboter da ist,
00:18:25: der läuft in der Gegend rum und er hat einen Vorteil davon,
00:18:28: wenn sein Gegenüber ein glückliches Gesicht macht oder glücklich aussieht,
00:18:32: dann verhält der Roboter sich so, wie man es mit sozial bezeichnen würde.
00:18:36: Dann würde man daraus ableiten können, dass er doch Gefühle hat.
00:18:39: Ich halte persönlich, natürlich hast du recht mit den neurobiologischen Prozessen,
00:18:43: die kann man nicht in jeder Hinsicht abbilden,
00:18:45: aber überwiegend halte ich das, was wir so als Emotionen bezeichnen,
00:18:49: für eine genauso große Illusion wie das, was manche als Geist bezeichnen.
00:18:55: Ja, ich kann das verstehen.
00:18:57: Wir sind da quasi auch an dieser Fragestellung,
00:19:01: wo entsteht eigentlich Wille und aus welcher Überzeugung
00:19:05: und wenn wir dieses Beispiel mit dem Roboter nehmen,
00:19:09: dann stimmt das natürlich zu 100%.
00:19:11: Der Roboter hat im Endeffekt an der Stelle genau das gleiche Anpassungsverhalten,
00:19:15: was wir Menschen an den Tag legen,
00:19:17: weil er darin einen Vorteil für sein eigenes Überleben sieht.
00:19:21: Und genau dieser Breakpoint,
00:19:25: den gibt es ja bei jeder Spezies auf unserem Planeten.
00:19:28: Und deswegen denke ich, wenn ich von einer künstlichen Intelligenz spreche,
00:19:33: dann sind diese Faktoren nicht Teil einer Intelligenz,
00:19:40: sondern sie sind Teil eines Instinktverhaltens.
00:19:43: Jeder Mensch verhält sich in so einer Situation,
00:19:46: jedes Tier verhält sich in so einer Situation automatisch genauso.
00:19:50: Das hat mit Intelligenz nichts zu tun.
00:19:52: Denn nehmen wir mal an, der Roboter würde jetzt sehen,
00:19:56: er kriegt ein positives Feedback von Leuten, die andere Menschen quälen.
00:20:02: Weil er Dinge tut, die andere Menschen quälen
00:20:05: und dafür dieses positive Feedback bekommt.
00:20:08: Dann würde der Roboter unter Umständen, könnte man sich jetzt vorstellen,
00:20:12: ein Szenario, einfach weitermachen,
00:20:14: weil er ja ständig das positive Feedback zur Bestärkung bekommt.
00:20:17: Und deswegen weiß ich, ich erhöhe meine Chancen, das Richtige zu tun,
00:20:21: weil ich das positive Feedback bekomme.
00:20:23: Also ist es richtig, andere zu quälen.
00:20:26: Ja, das passiert ja auch in der Menschheit.
00:20:28: Genau, genau das ist das, was ich meine.
00:20:31: Und deswegen finde ich, ist dieses Thema halt auf dieser Ebene,
00:20:34: es ist halt eine hoch spannende Frage, was Verhalten angeht.
00:20:40: Und an der Stelle schlage ich jetzt mal kurz die Brücke zurück
00:20:43: zu dem Thema, womit wir darauf gekommen sind.
00:20:45: Ja, genau.
00:20:46: Ich finde das super.
00:20:47: Also ich finde den Dialog mega spannend, das ist total geil.
00:20:50: Nur mir fällt gerade dabei auf, dass das ja genau das ist,
00:20:53: worum es geht, Verhalten zu lenken.
00:20:56: Diese ganzen KI-Systeme, die in den sozialen Netzwerken verwendet werden,
00:21:00: sind ja in keinster Form dazu da, um uns etwas Gutes zu tun.
00:21:05: Sondern sie sind dazu da, um unser Verhalten so zu beeinflussen,
00:21:09: dass sie für die Menschen, die das System, ich sage bewusst,
00:21:12: angeblich kontrollieren, zu einem Vorteil werden.
00:21:16: Facebook ist ein Unternehmen, das Geld braucht,
00:21:19: damit es existieren kann.
00:21:21: Google, Microsoft, Apple, alles dieselben Prinzipien,
00:21:25: wirtschaftlich irgendwie sein Unternehmen zu betreiben.
00:21:31: Und wenn wir das uns jetzt in Bezug auf die Informationen angucken,
00:21:35: die dadurch KI miteinander verglichen werden,
00:21:38: dann geht es immer um Verhalten lenken.
00:21:40: Und dieses Verhalten lenken kennen wir ja z.B.
00:21:43: aus der Cambridge Analytica-Affäre oder aus der Edward Snowden-NSA-Affäre,
00:21:47: wo wir gelernt haben, dass es im Hintergrund Prozesse gibt,
00:21:50: die wir nicht durchsteigen.
00:21:52: Und wenn dann ein Unternehmen wie Facebook oder Meta jetzt hingeht
00:21:55: und so ein riesiges Manifest niederschreibt,
00:21:58: wo drinsteht, unsere KI arbeitet so und so,
00:22:01: und ich in diesem tollen Konstrukt von Seiten nichts anderes lese
00:22:05: als Worthülsen, die schon ewig bekannt sind,
00:22:08: nur noch mal neu zusammengerudert, ja,
00:22:12: und jetzt mit dem Wort Vorhersage und KI-System,
00:22:17: Inputsignale und was weiß ich zusammengeworfen werden,
00:22:21: dann ändert das nichts daran, dass diese Systematik
00:22:25: immer noch nur dazu dient, unser Verhalten zu kontrollieren
00:22:28: und zu beeinflussen, ohne dass wir das mitbekommen.
00:22:31: Und ich glaube, das ist der wichtige Punkt,
00:22:33: den wir an der Stelle vielleicht noch mal kurz besprechen sollten.
00:22:36: Ja, du hast recht, Meta ist ein profitgetriebenes Unternehmen
00:22:40: und ich finde es immer so furchtbar, wenn alle möglichen Leute meinen,
00:22:44: Facebook wäre toll oder Instagram.
00:22:46: Das ist eine Verbrecherorganisation, muss man sagen,
00:22:49: genau wie Google auch, sage ich, aus verschiedenen Erwägungsgründen heraus,
00:22:53: die man auch öffentlich nachzeichnen kann.
00:22:55: Es gibt ja immer wieder Strafen, die ja nur die Spitze des Eisbergs sind.
00:22:58: Aber das Ziel von Facebook ist es,
00:23:00: den Nutzer möglichst lange an dem Bildschirm zu fesseln.
00:23:03: Und zwar deswegen, weil der Nutzer dann mehr Werbung sehen kann.
00:23:06: Und mehr Werbung ist auch gleichzeitig mehr Geld für Facebook,
00:23:09: denn für jede Werbeeinblendung bekommt Facebook Geld
00:23:12: und für jeden Klick wahrscheinlich dann auch noch mal extra,
00:23:15: die Anzeige, die da geschaltet wird.
00:23:17: Und wie du sagst, genau das ist der Grund.
00:23:19: Es gibt keinen anderen Grund.
00:23:20: Und der Punkt ist, es war ja vorher schon so mit weniger Möglichkeiten,
00:23:23: also vor KI-Zeit nenne ich es jetzt mal,
00:23:25: dass die Inhalte präsentiert wurden, die dem Nutzer am besten gefallen
00:23:29: beziehungsweise nicht im positiven Sinne gefallen,
00:23:32: sondern die ihn am besten an das Gerät fesseln,
00:23:34: vor dem er gerade sitzt oder steht,
00:23:36: damit er länger Aufmerksamkeit der Plattform schenkt.
00:23:39: Und diese Inhalte waren meistens negative Inhalte, keine positiven.
00:23:43: Und genauso ist es jetzt mit der KI möglich nur noch besser im Sinne von Meta.
00:23:48: Du kannst den Nutzer noch mehr beeinflussen.
00:23:50: Du kannst ihm noch mehr die Inhalte präsentieren,
00:23:52: die er gerne haben möchte aus Sicht des Algorithmus
00:23:55: beziehungsweise aus Sicht der Gehirnphysiologie.
00:23:58: Das heißt, wenn ich nur langweilige, ach alles ist schön,
00:24:02: keiner regt sich auf, es gibt keine Verbrechen auf dieser Welt,
00:24:06: niemand hat gemeckert, dann das ist langweilig.
00:24:09: Das möchte niemand lange lesen.
00:24:10: Dann kann er ein glückliches Leben führen ohne Facebook.
00:24:12: Das will Facebook nicht.
00:24:13: Facebook will, dass man ein kurzfristig glückliches Leben auf Facebook
00:24:17: und ein ansonsten erbärmliches Leben führt am besten,
00:24:19: dass man nur noch auf Facebook geht und nur dort glücklich ist.
00:24:22: Und das ist das Riesenproblem mit künstlicher Intelligenz,
00:24:25: wenn es große Unternehmen nutzen, so wie Facebook, Monopolisten,
00:24:29: weil die nämlich dann uns die Inhalte geben,
00:24:32: die unser Gehirn gerne konsumieren möchte,
00:24:34: ohne dass es jetzt heißt, dass diese Inhalte gut oder richtig wären.
00:24:37: Und der erste Satz in diesem Bericht, den du da erwähnt hast,
00:24:40: ist ja nicht der erste Satz, aber ganz oben steht zentral,
00:24:43: so wird Meta immer besser.
00:24:45: Das ist ja nicht mal gelogen.
00:24:47: So verdient Meta immer mehr Geld, heißt es auf Deutsch.
00:24:50: So können wir dafür sorgen, dass sie immer mehr verdummen
00:24:53: und immer mehr das tun, was wir ihnen sagen.
00:24:55: Ich meine, Cambridge Analytica war ja nur die Spitze des Eisbergs,
00:24:58: die rausgekommen ist.
00:24:59: Diese ganzen verbrecherischen Datenverarbeitungen,
00:25:02: die kommen ja gar nicht ans Licht der Welt.
00:25:04: Weil wenn ich irgendwas absauge an Daten
00:25:06: und es auf meinem Rechner verarbeite,
00:25:08: dann sieht das niemand anders.
00:25:10: Man sieht es nur, wenn da Cookies oder sowas gesetzt werden im Browser.
00:25:13: Das ist ja nur die Spitze des Eisbergs.
00:25:15: Und wie du sagst mit diesem Cookie-Banner,
00:25:17: ich möchte es noch mal betonen,
00:25:19: wenn man diesen Transparenzbericht aufruft,
00:25:21: dann gibt es genau zwei Möglichkeiten.
00:25:23: Erstens, mehr erfahren, also diesen Cookie-Banner, diesen sogenannten.
00:25:26: Erstens, mehr erfahren, da komme ich aber dann nicht weiter.
00:25:29: Da kann ich nur lesen.
00:25:30: Und zweitens, alles akzeptieren.
00:25:32: Da gibt es nicht ablehnen. Das gibt es faktisch nicht.
00:25:34: Wir haben es beide nicht gefunden.
00:25:36: Man kann entweder alles akzeptieren, was Meta tut, oder gar nichts.
00:25:39: Und wenn man gar nichts akzeptiert,
00:25:41: dann heißt es, man ist nicht auf der Meta-Plattform drauf.
00:25:43: Weder auf Instagram noch auf Facebook.
00:25:45: Und ich habe mich für letzteres entschieden.
00:25:48: Ja, also absolut richtig.
00:25:50: Das stimme ich dir voll zu.
00:25:52: Das ist ein absoluter Irrsinn.
00:25:54: Zu dem Punkt, den du angesprochen hast,
00:25:56: dass du gesagt hast, das sind Verbrecherorganisationen, das ist Mafia.
00:25:59: Weil natürlich ist eine Organisation,
00:26:01: und die betreibt Verbrechen.
00:26:03: Das ist organisiertes Verbrechen, das nennen wir Mafia.
00:26:05: Wenn man das ein Stück weiter spinnt
00:26:07: und mal in den DSGVO Bußgeldkatalog guckt,
00:26:11: zu finden unter dsgvo-portal.de,
00:26:14: da kann man nach Facebook und nach Meta suchen.
00:26:17: Und auch nach WhatsApp und Instagram.
00:26:19: Und wenn man das tut und mal zusammenrechnet,
00:26:21: was alles an Bußgeldern angefallen ist in den letzten Jahren
00:26:27: bei Facebook, Instagram, WhatsApp und Meta,
00:26:30: kulminiert sich diese Summe auf über 22 Milliarden Dollar.
00:26:35: Und wenn man sich überlegt, dass ein Unternehmen bereit ist,
00:26:39: 22 Milliarden Dollar als Strafen zu zahlen,
00:26:43: dafür, dass es unrechtmäßig mit Daten umgeht,
00:26:47: mit personenbezogenen Daten umgeht,
00:26:49: dann sollte das nochmal vielleicht das Licht etwas trüben
00:26:52: auf einen sogenannten Transparenz-Report.
00:26:55: Und zudem noch ein kleiner Hinweis
00:26:57: bezüglich unseres Themas von der KI gerade,
00:27:00: weil mir fiel das gerade nochmal auf.
00:27:02: Wenn man diese Seite aufruft,
00:27:04: schaltet die sich ja automatisch in der Sprache auf Deutsch um.
00:27:07: Also hier ist bereits ein Auslesen des Standorts da
00:27:10: und stellt eine Sprache vor ein für den Nutzer.
00:27:13: Kann aber natürlich sein, dass man in seinem Browser eingestellt hat,
00:27:16: ich möchte Seiten lieber so haben.
00:27:18: Also liebe Leute, wenn ihr euch das anguckt,
00:27:20: dann bitte mit Vorsicht genießen.
00:27:22: Ich sage jetzt nicht, dass hier Meta definitiv was falsch macht.
00:27:25: Aber was super spannend ist,
00:27:27: man kriegt diese Seite in deutscher Sprache,
00:27:29: habe ich sie präsentiert bekommen.
00:27:31: Und es wird überall von künstlicher Intelligenz
00:27:33: und so wird Meta besser gesprochen.
00:27:35: Und das Erste, was ich oben sehe,
00:27:37: ist ein Banner, der sagt,
00:27:39: diese Seite ist noch nicht vollständig übersetzt auf Deutsch.
00:27:42: Bitte habe Nachsicht damit, wir sind dabei.
00:27:45: Also wenn ich über KI rede.
00:27:48: Ich lese es mal wörtlich vor, was bei mir steht.
00:27:52: Wörtlich, ja.
00:27:53: Erstes Banner-Video ist ganz oben,
00:27:55: oberhalb der Überschrift, ganz oben.
00:27:57: Dieser Inhalt ist noch nicht auf German,
00:28:00: in Klammern Deutsch, verfügbar.
00:28:02: Und dann geht es in den komplett deutschen Text weiter.
00:28:05: Und der komplett deutsche Text hat nicht mal einen Fehler.
00:28:08: Er ist komplett fertig.
00:28:10: Aber die KI, über die hier gesprochen wird,
00:28:12: die sich ständig verbessert,
00:28:14: ist anscheinend noch nicht so gut,
00:28:16: zu verstehen, dass das Deutsch ist.
00:28:18: Von daher sollte man vielleicht diese ganze Erzählung,
00:28:22: und ich sage jetzt nicht das Thema KI
00:28:24: und die Entwicklungen, die da stattfinden,
00:28:26: sondern die Erzählungen, die Unternehmen,
00:28:28: gerade amerikanischerseits,
00:28:30: von KI machen,
00:28:32: in einem etwas anderen Licht betrachten.
00:28:35: Denn wir dürfen nicht vergessen,
00:28:37: die hypen auch immer sehr gerne
00:28:39: um irgendwelche neuen Technologien,
00:28:41: siehe Open AI.
00:28:42: Erstmal bewertet mit mehreren hundert Milliarden
00:28:45: und mit einem Mal der Drop an der Börse zu nichts.
00:28:48: Wenn man sich überlegt, wodurch das zustande kommt,
00:28:51: dann passiert das ja auch nur dadurch,
00:28:53: dass zum Beispiel Unternehmen wie Microsoft bereit sind,
00:28:55: tierisch viel Geld darin zu investieren,
00:28:57: weil sie daran glauben.
00:28:58: Und dann alle denken,
00:28:59: oh, weil der daran glaubt, muss das ja gut sein.
00:29:02: Oder das muss ja gut sein,
00:29:03: weil deren Börsenkurs hochgeht.
00:29:05: Das sind alles Dinge, die extrem spekulativ sind
00:29:09: und nur von der menschlichen Wahrnehmung
00:29:11: und an der Stelle wirklich der gefühlsgelenkten,
00:29:14: dummen, nicht logischen Analyse von Idioten,
00:29:17: die gerne etwas glauben möchten,
00:29:19: auf einen bestimmten Thron gehoben wird.
00:29:23: Und wenn wir dann diesen Begriff
00:29:25: wirklich mal analysieren, so wie du das gemacht hast
00:29:28: und gesagt hast, wir haben da die Seite, wir haben die Seite,
00:29:30: das kann man so verstehen, das kann man so verstehen,
00:29:32: da haben wir Brücken, da fehlen noch Dinge
00:29:34: oder da sind Dinge noch unterschiedlich.
00:29:36: Glaube ich, kriegen wir einen viel besseren Eindruck davon,
00:29:40: was wir auch von diesen Unternehmen erwarten können,
00:29:43: was die umsetzen, technologisch.
00:29:46: Denn bei denen in den Chefetagen sitzen doch auch nicht die Leute,
00:29:49: die verstehen, wie das funktioniert.
00:29:53: Was Open AI den Wert angeht, weiß ich nicht,
00:29:56: warum der so gefallen ist.
00:29:58: Man muss schon sagen, da gibt es bahnbrechende Entwicklungen.
00:30:00: Ich kann ja bei mir lokal Dinge tun,
00:30:02: die ich vor einem halben Jahr noch nicht tun konnte.
00:30:04: Das muss man einfach so sagen.
00:30:06: Aber zum Börsenkurs will ich jetzt gar nichts mehr sagen.
00:30:08: Man muss einfach nur wissen, das hast du ja auch gesagt
00:30:10: und angedeutet teilweise,
00:30:12: das, was Facebook und andere in ihren Transparenzberichten verkünden,
00:30:15: sind einfach nur Worthülsen.
00:30:17: Dem darf man einfach keinen Glauben schenken.
00:30:19: Das ist einfach nur aus der Profitgier getrieben.
00:30:22: Deswegen sage ich noch mal, wir brauchen eine KI-Regulierung,
00:30:25: aber auf Ebene der großen Unternehmen.
00:30:27: Bei allen anderen nicht.
00:30:29: Man kann es sowieso nicht mehr einfangen.
00:30:31: Nur bei den großen kann man es schon, weil es nicht so viele gibt.
00:30:34: Da geht auch die meiste Gefahr von aus.
00:30:36: Cambridge Analytica wäre nie ein Problem gewesen,
00:30:38: wenn es nicht gerade auf einer Datenbasis
00:30:40: von vielen Millionen Amerikanern gefußt hätte.
00:30:43: Das war nämlich die Datenbasis,
00:30:45: die von der Facebook-Plattform kam.
00:30:47: Wenn es von einer anderen Plattform,
00:30:49: die viel weniger Nutzer gehabt hätte, gekommen wäre,
00:30:51: dann wäre es nämlich vollkommen unproblematisch gewesen.
00:30:53: Das muss man einfach wissen.
00:30:55: Genauso ist es auch bei diesen Inhalten,
00:30:57: was heißt vollkommen unproblematisch,
00:30:59: es wäre immer noch schlecht gewesen,
00:31:01: aber die Gefahr wäre viel, viel geringer gewesen.
00:31:03: Deswegen sage ich, die großen Unternehmen müssen reguliert werden.
00:31:05: Das haben wir leider verschlafen.
00:31:07: Das wird wieder nichts.
00:31:09: Facebook und Microsoft werden immer reicher und Google.
00:31:11: Aber ich glaube, in Zukunft, die EU wird da einiges tun.
00:31:13: Ob das immer gut ist, weiß ich nicht.
00:31:15: Aber es wird einige Dinge geben, die positiv sind.
00:31:17: Und ich kann jedem Unternehmen nur empfehlen,
00:31:19: wenn es was mit KI machen will,
00:31:21: die eigenen Daten, nicht nur aus Datenschutzgründen,
00:31:23: sondern auch Geschäftsgeheimnisse,
00:31:25: Vertraulichkeitsvereinbarungen, die man einhalten muss und so weiter,
00:31:27: nicht in ChatGPT reinzuladen,
00:31:29: sondern in eigene Systeme.
00:31:31: Ja, definitiv.
00:31:33: Das Stichwort, was du gerade angesprochen hast
00:31:35: mit Industriespionage, also Geschäftsgeheimnissen,
00:31:37: ist ja auch eine Sache, die wird so wenig beachtet,
00:31:39: wenn man sich anguckt,
00:31:41: wie viele Daten Microsoft
00:31:43: aus den Windows-Betriebssystemen ständig abfragt und sammelt.
00:31:45: Ich will nicht wissen,
00:31:47: wie viele Geschäftsgeheimnisse
00:31:49: da tagtäglich an die Microsoft-Server fließen
00:31:51: und Microsoft Dinge entwickelt,
00:31:53: die andere Unternehmen noch,
00:31:55: bevor wir überhaupt davon hören,
00:31:57: dass die existiert haben und eine coole Idee hatten,
00:31:59: einfach vom Markt verdrängt werden,
00:32:01: weil Microsoft es schneller zu Ende bringen
00:32:03: und auf den Markt werfen kann.
00:32:05: Das sind ja auch noch mal wieder wirtschaftliche Dynamiken,
00:32:07: die da mit drinstecken,
00:32:09: die wirklich ein riesiges Chaos erzeugen
00:32:11: von Monopolisten.
00:32:13: Wenn man dagegen vorgehen möchte,
00:32:15: hat man eigentlich nur die Möglichkeit,
00:32:17: sich diesen Systemen zu entziehen
00:32:19: und auf andere Alternativen zurückzugreifen.
00:32:21: Gerade in Bezug auf unsere Betriebssysteme,
00:32:23: wo diese Spionage
00:32:25: sehr exzessiv existiert,
00:32:27: ist es natürlich extrem schwierig.
00:32:29: Das weiß ich auch.
00:32:31: Da gibt es wirklich nur, ja,
00:32:33: eigentlich gar keine adäquate Alternative,
00:32:35: weil natürlich auch die Softwarehersteller
00:32:37: am liebsten
00:32:39: für ein Betriebssystem produzieren,
00:32:41: was weit verbreitet ist,
00:32:43: anstatt für ein Nischenbetriebssystem,
00:32:45: weil auch da haben wir den Kapitalismuszwang wieder.
00:32:47: Und so dreht sich dieses Rad immer mehr
00:32:49: in Richtung dieser Monopolisten.
00:32:51: Deswegen bin voll bei dir.
00:32:53: Wir brauchen eine Regulierung
00:32:55: auf der Ebene der großen Konzerne.
00:32:57: Wir müssen diese Monopole
00:32:59: eigentlich zerschlagen
00:33:01: und in Zukunft rechtskräftig
00:33:03: vernünftig verhindern,
00:33:05: weil sie bringen immer wieder nur
00:33:07: den selben, sehr schlechten Zustand
00:33:09: regelmäßig nach vorne.
00:33:11: Und das ist halt was,
00:33:13: das können wir uns auf Dauer
00:33:15: nicht mehr leisten.
00:33:17: Gerade wenn die KI schon jetzt intelligenter ist als wir.
00:33:19: Das war ein sehr schönes Schlusswort,
00:33:21: möchte ich sagen.
00:33:23: Ich möchte noch eine Sache ergänzen.
00:33:25: Jedes Unternehmen oder jede Organisation
00:33:27: sollte sich ihre eigenen Systeme bauen.
00:33:29: Das kann man heutzutage machen.
00:33:31: Und unabhängig werden von diesen großen,
00:33:33: sowohl was den Datenfluss angeht,
00:33:35: als auch was die Kostenstruktur angeht,
00:33:37: unabhängig werden.
00:33:39: Das muss einfach jedes Unternehmen wissen.
00:33:41: Und wer sich auf Systeme stürzt, die dritte anbieten,
00:33:43: obwohl er selbst eins bauen kann,
00:33:45: was viele Vorteile hat, aber am Anfang ein bisschen mehr Arbeit ist,
00:33:47: den würde ich mal als dumm bezeichnen.
00:33:49: Weil er einfach nur kurzfristig denkt
00:33:51: und Unternehmer sollte nie kurzfristig denken.
00:33:53: Absolut.
00:33:55: Ich finde, das ist ein sehr schönes
00:33:57: Schlusswort und eine sehr schöne Ansage.
00:33:59: Liebe Zuhörer,
00:34:01: alle, die unseren Podcast verfolgen,
00:34:03: ich bedanke euch vielmals, dass ihr
00:34:05: euch immer wieder uns beiden aussetzt
00:34:07: und uns aushaltet.
00:34:09: Ich hoffe, es hat euch Spaß gemacht.
00:34:11: Und ich hoffe vor allen Dingen,
00:34:13: dass ihr mit diesen Informationen
00:34:15: etwas tun könnt, die euch helfen,
00:34:17: fundiertere, bessere Entscheidungen
00:34:19: zu treffen und auch dafür
00:34:21: zu sorgen, dass vielleicht eure Unternehmen
00:34:23: davon nicht negativ
00:34:25: beeinflusst sind. Und wenn ihr Privatpersonen seid,
00:34:27: dann gibt es nur eins zu sagen,
00:34:29: macht mal die Geräte aus,
00:34:31: verpasst mal das Leben und die reale Welt,
00:34:33: denn da passiert viel mehr Cooles
00:34:35: als in diesem Internet.
00:34:37: Richtig.
00:34:39: Genau, da ist auch mehr Zeit, um sich
00:34:41: auf die eigene Gesundheit zu konzentrieren.
00:34:43: Man wird ja auch nicht jünger
00:34:45: und später möchte man nicht unbedingt ein Pflegefall sein.
00:34:47: Das wird man aber, wenn man den ganzen Tag
00:34:49: vor so einem Gerät sitzt.
00:34:51: Absolut. Mit diesen Worten würde ich sagen,
00:34:53: wagen wir uns jetzt auch mal wieder in die Sonne.
00:34:55: Und ich wünsche allen Zuhörern
00:34:57: einen wunderbaren Tag.
00:34:59: Wir hören uns dann in Kürze wieder.
00:35:01: Tschüss!
Neuer Kommentar