Künstliche Intelligenz – Was kommt auf uns zu?

Shownotes

Die Zukunft ist nicht mehr nur ein Konzept, sondern eine treibende Kraft, die unsere Welt bereits heute revolutioniert. In dieser mitreißenden Folge 24 „Einfach mal machen“ lädt CDU-Generalsekretär Carsten Linnemann die KI-Expertin Elisabeth L‘Orange und den Politico-Chefredakteur Gordon Repinski ein, um die Chancen und Risiken dieser rasanten Entwicklung zu ergründen. Die Diskussionsrunde beleuchtet, wie Künstliche Intelligenz unser Leben von Grund auf verändert: von medizinischen Durchbrüchen bis hin zur Medienlandschaft, in der Algorithmen nicht nur die Effizienz steigern, sondern auch existenzielle Geschäftsmodelle bedrohen und die Gefahr von „Echokammern“ bergen.

Das Gespräch wirft einen kritischen Blick auf Deutschlands Position im globalen Wettbewerb. Trotz der Stärke deutscher Unternehmen, die weltweit führend bei der Anmeldung von KI-Patenten sind, warnen die Experten davor, den Anschluss an die USA und China zu verlieren, wenn es nicht gelingt, Deregulierung und eine innovationsfreundliche Kultur in den Fokus zu rücken. Gleichzeitig wird die akute Bedrohung durch Deepfakes nicht zuletzt auch in Wahlkämpfen thematisiert. Sie könnten das Vertrauen in die Demokratie untergraben. Die Folge ist ein spannender Appell, der dazu anregt, die drängendsten Zukunftsfragen zu stellen: Wie können wir die Ärmel hochkrempeln, damit Deutschland nicht nur reaktiv auf die KI-Revolution reagiert, sondern sie aktiv mitgestaltet? #cdu

Transkript anzeigen

00:00:14: Auf geht's in eine neue Runde. Ich freue mich richtig Heute wieder einfach mal machen. Der

00:00:19: Podcast Und heute haben wir ein Thema, was die Welt revolutioniert. Wir kennen das Thema seit

00:00:25: Jahren, ja fast schon seit Jahrzehnten. Aber man hat das Gefühl, dass es jetzt ein exponentielles

00:00:31: Wachstum hat, nämlich die künstliche Intelligenz. Was hat das alles für Auswirkungen? Wir machen das

00:00:37: spannend. Wir machen das mit Topleuten wie immer. Sie zählt zu den führenden KI

00:00:43: Spezialisten, Experten, Expertinnen in Deutschland. Herzlich willkommen, Elisabeth. Laura Hallo

00:00:50: Carsten, vielen Dank, dass ich da sein werde. Henry Peinski gehört zu den

00:00:56: renommierten Journalisten hier in Berlin. Repinski ist Volkswirt, hat eine journalistische Ausbildung

00:01:03: gemacht bei der Deutschen Journalistenschule in München, war bei der taz, bei Pioneer beim Spiegel,

00:01:10: und jetzt ist er Chefredakteur bei Politico, hat verschiedene Auszeichnungen erhalten. Herzlich

00:01:15: willkommen und gerade vom Fahrrad herzlich willkommen! Genau deshalb bin ich am Schwitzen.

00:01:21: Kann KI das Schwitzen reduzieren? Chancenlos. Was meinst du?

00:01:28: Das wäre quasi eine medizinische Frage. Und ich glaube, im medizinischen Kontext ist die KI

00:01:34: ziemlich versiert. Also wenn man sich das anguckt, wie die Diagnose Genauigkeit ist, dann ist die KI

00:01:39: weit über den Menschen. Also wir sehen gerade, dass ein normaler. Ein junger Arzt liegt bei ungefähr

00:01:45: 67 %. Diagnose Genauigkeit, ein Chefarzt bei ungefähr 89 %. Und die neuen Modelle liegen

00:01:52: bei knapp 95 %. Und wann werden die Realität, dass Sie wirklich in der Anwendung in der Breite. Ich

00:01:59: denke, das ist eine Frage der Regulatorik. Also auch an Sie. Aber im Prinzip schon jetzt. Jeder

00:02:06: Arzt könnte es anwenden. Das einzige Problem ist, dass, sobald Ärzte es anwenden, sie ihre eigenen

00:02:10: Fähigkeiten ein bisschen verlieren. Ja, stimmt. Meine These, dass es jetzt so zumindest gefühlt

00:02:16: exponentiell zugeht beim Thema KI. Ich habe letztens gehört, Google hat ja jetzt Eiki

00:02:22: implementiert und man kriegt ja sofort eine Antwort. Und die Verlage haben im letzten

00:02:29: Jahr aufgelaufen 30 bis 40 % Minus gemacht im Digitalgeschäft, weil die Bezahlschranke nicht

00:02:35: mehr genutzt wird und weil jetzt KI über Google genutzt wird. Das hat mich nachdenklich gestimmt

00:02:41: über die Geschwindigkeit. Ich glaube, ich bin nicht naiv, aber sehe im Moment, was das mit unserer Welt

00:02:48: macht. Stichwort Arbeitsplätze. Ist das so, dass es jetzt richtig zur Sache geht und dass wir in zwei

00:02:53: bis fünf Jahren eine andere Welt haben? Das sind verschiedene Fragen. Die erste Frage, dass

00:03:01: zum exponentiellen Wachstum kann ich bejahen. Ich denke schon, dass wir mitten im Wachstum sind. Wir

00:03:06: hatten vorher einen KI Winter, Also die Systeme, die wir jetzt sehen, die gibt es schon seit den

00:03:10: 60er und 70er Jahren. Und nur mit mehr Chips, mit mehr Daten und besserer Architektur wurden diese

00:03:16: Modelle skaliert. Das heißt, wir sind jetzt aus diesem Winter raus und schaffen es immer

00:03:21: performante Systeme zu entwickeln, die wir überall implementieren und eben auch bei Google oder eben

00:03:27: auch in der Medienwelt. Und die zweite Frage zum Abbruch des Traffics, sozusagen zu den einzelnen

00:03:33: Medienhäusern kann sicherlich besser beantworten. Nur das Problem wird sicherlich

00:03:40: Google auch haben. Deswegen werden die dazu meines Erachtens irgendwann demnächst hoffentlich

00:03:44: Lösungen finden, weil das natürlich uns alle betrifft. Wenn die. Wenn die Medienhäuser keinen

00:03:49: Traffic mehr haben, haben die nicht nur kein Kapital mehr, aber die werden dann eingehen und

00:03:54: Journalismus als Säule der Demokratie usw wird eingehen. Das heißt, ich denke, dass wir das Problem

00:04:00: lösen werden als Säule der Demokratie wird eingehen. Das müssen wir lösen. Dann geht die

00:04:05: Demokratie insgesamt ein. Deswegen ist das keine Alternative. Es gibt diese Themen am Anfang, die

00:04:11: natürlich dafür sorgen, dass hier und dort auch Einnahmen einbrechen. Jetzt bin ich kein Google

00:04:17: Algorithmenfachmann, sondern ich bin dafür zuständig, dass wir den besten Journalismus machen,

00:04:21: der möglich ist. Und da bin ich sehr dafür. Und so tue ich das auch selber. Darüber positiv

00:04:26: nachzudenken, was mit KI möglich ist. Also ich sehe schon, wenn ich jetzt mal an Politico und die

00:04:31: Arbeit von Politico denke, dann sehe ich schon viele Themen, wo wir noch händisch wirklich

00:04:37: individuell Dinge zusammentragen. Das Playbook liest Carsten Linnemann hoffentlich jeden Morgen,

00:04:43: weil darin alles steht, was wichtig ist, was passiert ist. Das heißt also, eine der großen

00:04:47: Aufgaben, die wir haben, ist auch, das alles zusammenzutragen, was an Informationen passiert

00:04:52: ist Das übernimmt bei uns perspektivisch immer mehr eine KI. Und das bedeutet, dass

00:04:59: die Reporterinnen und Reporter, die daran bisher arbeiten, mehr Zeit haben für exklusive Recherchen,

00:05:03: für das, was wirklich nur der Mensch machen kann. Das heißt die richtige Balance finden zwischen

00:05:07: dem, was der Mensch macht und was die KI unterstützend tun kann. Das ist die Aufgabe. Und

00:05:10: dann wird sich auch das Geschäftsmodell dazu finden. Aber gleichzeitig habe ich letztens

00:05:14: gelesen, dass auf Social Media Man durch einen Algorithmus genau die Nachrichten bekommt, die

00:05:19: einen interessieren und dadurch die allgemeine Nachrichtenlage gar nicht mehr so interessant ist

00:05:24: für den Einzelnen, wie sie vielleicht vorher war. Also brauchen die Menschen dann überhaupt noch

00:05:29: exklusive Medienangebote oder verlassen sie sich auf den Algorithmus? Ja, viele verlassen sich auf

00:05:36: den Algorithmus. Aber ich glaube, es ist unsere Aufgabe, dann da reinzugehen und zu sagen wie. Wie

00:05:40: kommen wir in diesen Algorithmus auch wieder rein, ohne dass wir vielleicht jede Radikalisierung

00:05:45: oder Polarisierung Spirale auch immer mitgehen? Man muss es anders versuchen. Ich glaube, das geht

00:05:50: auch. Ich glaube auch, es gibt einen großen Teil von Menschen, die natürlich ein Bedürfnis danach

00:05:57: haben, nach einer ausgewogenen Information, die eigentlich im Inneren auch genervt sind davon,

00:06:01: dass sie von ihren Feeds diktiert bekommen, was sie sich angucken können. Und da muss man einfach

00:06:06: mutig in diese Lücken reingehen. Also noch einmal Das ist das, was wir tun. Ich glaube, das kuratierte

00:06:12: Angebot, also morgens einen Newsletter, morgens einen Podcast zu bekommen, in dem man dann eben

00:06:16: auch das journalistische Angebot, die Informationen bekommt, die man möchte, Das ist auch

00:06:20: eine große. Das wächst auch. Also das sehen wir auch. Wir haben jeden Tag mehr Subscriber in dem

00:06:27: Newsletter und wir haben jeden Tag mehr Downloads. Wir haben zwei stellig Prozentual Zuwächse bei

00:06:34: den Downloads im Podcast im Monat. Also das heißt, da ist ein großer Bedarf, da sind Lücken da. Man

00:06:40: muss. Man muss sie finden. Ja. Wie sehen Sie die? Oder durch die Entwicklung im Medienbereich. Ja,

00:06:47: ich sehe das als schwierig. Ja. Oder halt radikaler. Ich glaube, dass das dieses Problem, dass das alle

00:06:53: in einem Art Erkenntnis Gefängnis sind und immer nur in ihrer eigenen Bubble sich fortbewegen. Das

00:07:00: muss in irgendeiner Form adressiert werden. Aber die Algorithmen, die Google hat, sind halt das

00:07:03: größte Geschäftsgeheimnis und die werden sie nicht so schnell preisgeben. Und das gleiche gilt

00:07:08: für die ganzen Produkte von Meta, also Instagram, Facebook usw. Das heißt, ich glaube, wir brauchen

00:07:14: dringend einen Plan B für die Zukunft damit, dass sich diese sich selbstreferentierenden Kreise

00:07:19: nicht immer kleiner werden und die Menschen immer auch radikalisierter werden. Das ist ja am Ende.

00:07:26: Klickt also. Man sagt auf Englisch Engagement ist Engagement. Das heißt,

00:07:32: je polarisierender die Statements sind, desto besser klicken Sie. Und ich glaube, es ist

00:07:37: schwierig, dass sich da dass ich das System oder dass ich da die, die die Medienlandschaft nicht

00:07:43: komplett konsolidiert also aber gehen wir noch mal einen Schritt zurück. Wenn jetzt in den

00:07:49: nächsten 235 Jahren ich sage mal, diese einfachen Dienstleistungen, diese Vertriebssachen, aber auch

00:07:55: Versicherungen, Banken, Verwaltungen usw, wenn sich das alles mehr durch künstliche Intelligenz

00:08:03: auflöst im besten Sinne. Ich meine, wir reden den ganzen Tag Bürokratieabbau. Durch KI kann man viel

00:08:08: Bürokratie abbauen. Was macht das mit der Gesellschaft? Es gibt ja Personen wie Richard

00:08:15: David Precht, der sagt, da fallen wirklich sehr viele Aufgaben weg. Und damit muss man sich auch

00:08:21: die Frage stellen, Was macht man mit diesen Menschen? Wir haben ja alle Sinn, wir sind ja alle

00:08:26: den Sinn des Lebens, auch in der Arbeit. Das ist ja sehr sinnstiftend. Ja, also ich glaube, es gibt zwei

00:08:31: Aspekte. Der eine Aspekt ist, dass ich, dass wir sicherlich einen gewissen Wandel in der

00:08:35: Arbeitswelt sehen werden. Wie gesagt, die Friseurin von heute ist vielleicht die Anwältin von morgen,

00:08:39: weil sie sich mit KI selber so weit fortbilden kann und diese Wissensansammlung nicht mehr so

00:08:45: relevant ist, wie es früher war. 1967 kam der Taschenrechner in die Welt. Alle haben. Alle Lehrer

00:08:50: haben geschrien, dass das dafür sorgen würde, dass die Schüler nicht mehr selber Kopfrechnen würden.

00:08:54: Aber heutzutage braucht keiner mehr Kopfrechnen und alle nutzen den Taschenrechner. Ich glaube, es

00:08:58: ist einfach eine typische Evolution der Technik. Und ich denke, das gleiche wird es, werden wir am

00:09:03: Arbeitsmarkt sehen. Wobei es sicherlich eine Phase von bestimmt fünf Jahren geben wird, in denen sich

00:09:07: zurecht ruckeln muss. Also in den USA sehen wir gerade zum Beispiel eine ziemlich hohe

00:09:12: Arbeitslosigkeit unter den Graduierten. Das heißt, die liegt glaube ich gerade bei 5,5 %, wobei der

00:09:17: Bundesdurchschnitt bei vier liegt. Das heißt, wir sehen, dass die Einstiegsjobs schwerer zu

00:09:22: verteilen sind, weil das sind die Jobs, die KI als erstes machen kann. Und so glaube ich, wird es in

00:09:28: dem Kontext in irgendeiner Form einen Shift geben. Aber auf lange Sicht denke ich nicht, dass das ein

00:09:34: Problem sein wird. Weil wenn wir historisch gucken, hat keine neue Technologie dafür gesorgt, dass wir

00:09:39: komplett als Gesellschaft irgendwie bergab gegangen sind. Stimmt, ich erinnere mich, Der

00:09:43: Spiegel hat, glaube ich, jedes Jahrzehnt immer ein Cover gemacht. Automatisierung. Computing. Und so

00:09:49: weiter. Und die Arbeitsplätze fallen weg. Es ist nie eingetreten. Nein, es ist

00:09:55: Produktivitätssteigerung am Ende. Es ist eigentlich das, was wir brauchen in der

00:09:58: Gesellschaft, um um zu wachsen. Um wieder Räume frei zu machen für das, was wir wollen. Also

00:10:04: ich meine, da kann man 150 Jahre zurückgehen und den den Weg der Industrialisierung noch mal nach

00:10:09: vorne laufen. Dann wird man immer wieder an Etappen vorbeikommen, wo Arbeitsplätze wegfallen.

00:10:14: Und ich meine, in der Politik wird viel über die Automobilindustrie gesprochen. Da gibt es am Ende

00:10:20: dann Räume, die wieder neu besetzt werden müssen. Und wenn die dann von den Chinesen besetzt werden,

00:10:25: dann sind die eben die, die profitieren. Also die Aufgabe muss sein, dass man vorne dran ist mit dem,

00:10:30: was als nächstes entwickelt wird. Und das gilt aus meiner Sicht für alle Bereiche. Noch mal Beim

00:10:36: Journalismus, glaube ich, fallen theoretisch auch einfache Jobs weg, aber dafür

00:10:42: entstehen komplexere neue Jobs. Und das ist unsere Aufgabe, das diese Veränderung zu gestalten. Wir

00:10:49: können sie nicht aufhalten. Wir sollten es auch nicht versuchen, sondern wir sollten versuchen, sie

00:10:53: so zu gestalten, wie es am besten möglich ist. Wir tun das nicht nur bei Politico, wir tun es im

00:10:59: Verlag insgesamt. Wir haben wirklich eine KI First Strategie. Wir geben den, den

00:11:06: die Aufgabe, auch wirklich jeden Arbeitsschritt mit KI mitzudenken. Das heißt ja nicht, dass wir

00:11:11: Arbeitsschritte KI überlassen, dass wir jetzt sagen okay, KI schreibt mir jetzt einen Artikel, da

00:11:15: wird sicherlich ein Fehler drin sein. Also das heißt, da muss man schon drauf achten. Aber wenn

00:11:21: ich mir allein überlege, wir machen hier einen Podcast, ich mache auch einen, was die

00:11:25: Transkription durch eine KI ermöglicht hat. Es ist unfassbar. Ganz normale Interviews, die man

00:11:32: hinterher redigiert. Das wäre für. Das wäre gar nicht möglich gewesen vor wenigen Jahren in einem

00:11:36: solchen Tempo Podcast und gute Informationen an Zuhörerinnen und Zuhörer zu bringen. Allein

00:11:42: dadurch, dass. Dass wir eben diese gleich schriftliche Form haben, dass man sofort eine

00:11:46: Stelle wiederfindet. Was man da an Minuten im Tag und Stunden spart, finde ich, sind unglaubliche

00:11:51: Chancen. Deswegen bin ich da frohen, frohen Mutes. Super. Haben Sie denn das Gefühl, dass die Politik

00:11:56: das auch so begleitet? Also, dass sie sieht, KI hat so viele Chancen für die Wirtschaft. Wir müssen

00:12:02: den Rahmen so setzen, dass es genutzt wird, dass man sich auch auf neue Entwicklungen, Innovationen

00:12:07: einlässt. Oder haben Sie das Gefühl, dass die Politik vieles dafür tut, dass Altes bewahrt wird

00:12:13: und nicht die Innovationskraft befeuert wird in diesem Lande? Also ich habe in Deutschland schon

00:12:18: das Gefühl, dass KI als Thema wahrgenommen wird und da sind wir ja auf der Forschungssebene auch,

00:12:23: stehen wir auch verhältnismäßig gut da. Aber ich finde auch, man kann nie genug tun. Also ich glaube,

00:12:29: das Wichtige ist, sich mit den einzelnen Instrumenten auseinanderzusetzen. Politiker hat

00:12:33: wenig Zeit. Und wenn Carsten Linnemann einen Betriebsbesuch macht, ob das jetzt ein Bäcker ist

00:12:38: oder eine KI Stube, sag ich jetzt mal vereinfacht gesagt. Dann lernt er ja was, auch wenn er dann nur

00:12:43: eine halbe Stunde ist und stellt fest Mensch, so ist der Alltag, so funktioniert es eigentlich. Also

00:12:47: ich glaube, es muss Praxiskontakt geben, mit Tools, mit Möglichkeiten, auch mit Risiken

00:12:52: selbstverständlich, damit sich auch die Politik damit auseinandersetzen kann. Und dann sehe ich da

00:12:57: eigentlich alle Chancen. Ich glaube, das ist ein Digitalminister gibt. Das ist natürlich ein guter

00:13:02: Schritt in die richtige Richtung. Und ich glaube, wir sollten in Europa bei all den Branchen, wo wir

00:13:09: das Gefühl haben, dass wir den Anschluss auch hier und dort mal verlieren, weil es vielleicht

00:13:12: traditionelle Industriebranchen sind, sollten wir schon die Chancen sehen, die in so einem riesigen

00:13:18: neuen Zweig liegen. Wenn wir das nicht tun, dann haben wir wirklich verloren. Wo sind denn unsere

00:13:23: Stärken bei KI? Also wenn ich Apple sehe, wenn ich Google sehe, wenn ich selbst Microsoft im letzten

00:13:29: Jahr glaube ich über 100 Milliarden € Gewinn. VW hat gut 1 Milliarde noch. Also wo sind wir

00:13:35: wirklich gut? Das Problem ist ein bisschen, dass wir den Zug verpasst haben, aber der diese

00:13:42: Entwicklung oder auch die Techentwicklung hat ja schon lange stattgefunden. Das heißt, das Valley in

00:13:48: den USA fing quasi 1939 an, da wurde Packard gegründet und damit hat das Ganze so ein bisschen

00:13:54: von alleine Fahrt aufgenommen und die US Regierung hat massiv rein investiert, auch in die

00:13:58: Armee, in die Armee. Das waren die Effekte, das waren die, die die ersten Use Cases waren

00:14:04: militärischer Natur. Das heißt die haben quasi VCs dazu gezwungen, in Defence Tech schon sehr früh zu

00:14:09: investieren. Und dadurch hat sich dieses ganze Valley und diese Tech, das Tech Capital Kapital

00:14:15: der Welt, quasi entwickelt. Und das hat in Deutschland in der Form nicht stattgefunden. Das

00:14:19: heißt, von der Politik wäre es wünschenswert, wenn es ein bisschen eine andere Kapitalkultur gäbe,

00:14:24: das heißt, wenn vermehrt in Technik und Innovationen investiert werden würde. Das ist eine.

00:14:29: Aber ich sehe es auch so, dass Deutschland so ein bisschen ein Marketingproblem hat, weil wir haben

00:14:33: wahnsinnig viel Substanz. Wir haben extrem gut ausgebildete Ingenieure bzw

00:14:40: Entwickler und wir schaffen es nicht das ganze zu kommunizieren. Ich habe gerade mit einem der Chefs

00:14:46: von Siemens gesprochen gestern und er erzählte mir, dass das Siemens Health News

00:14:53: weltweit führend in der Anmeldung von KI Patenten sei, weltweit und ebenfalls die

00:15:00: meisten FDA, also die amerikanische Behörde FDA registrierte Patente hätten. Und ich finde es

00:15:06: schon überraschend, dass das, wenn wir weltweit weltweit führend sind, warum wir das nicht mehr

00:15:11: kommunizieren. Also gerade als Siemens, das ist das Rückgrat Deutschlands und das wäre doch so, ich

00:15:16: meine, es wäre auch so eine Power Communication, das einfach mal in die Welt zu tragen. Absolut. Das

00:15:22: gilt auch für uns Politiker, das Bewusstsein zu machen und nicht immer nur die Probleme zu sehen.

00:15:26: Ich denke also, ich denke, wir können sehr viel. Wir haben auch ein wahnsinnig gutes Bildungssystem,

00:15:32: wir schaffen es for free quasi unsere gesamten Kinder und unsere Studenten zu bilden, zu fördern

00:15:38: und groß zu machen. Aber wir kriegen dann eben nicht die auf der einen Seite. Auf der

00:15:42: Gewinnerseite kriegen wir nicht die PS auf die Straße, weil das Kapital fehlt und wir kriegen es

00:15:46: kulturell eben nicht auf die Straße. Und das finde ich, finde ich schade. Und es wäre begrüßenswert,

00:15:51: wenn die Politik an der Stelle das mehr supporten würde und auch die vielleicht die Dringlichkeit

00:15:56: in dem Kontext sieht, weil momentan USA und China das ist ein Wettlauf, da geht es um am Ende um

00:16:00: militärische Vorherrschaft in diesem Wettlauf um KI. Deswegen versucht ja die USA immer wieder zu

00:16:05: reglementieren, wie viel Rechenpower China hat. Und in dem Versuch, das quasi die Entwicklung

00:16:12: dort zu beschränken und zu verlangsamen. Aber am Ende, am Ende werden wir. Das Game der

00:16:19: Foundation ist zum Beispiel nicht mehr mitspielen, aber wir können dafür andere Sachen gut machen,

00:16:23: was Siemens gerade vormacht. Jetzt machen wir ein Beispiel Du bist auch Partnerin bei Deloitte und

00:16:28: berätst sozusagen große Unternehmen bei der Transformation. KI. Jetzt sagen wir mal, du fährst

00:16:35: zu einem großen Chemieunternehmen hin. Gibt ja einige Große in Deutschland, die ja richtig unter

00:16:40: Druck stehen. Findet es Unfallstatt? Vielleicht ohne einen Namen zu sagen? Also nehmen wir mal an,

00:16:45: möglicherweise. Chemie ist richtig auf dem absteigenden Ast. Was sagst du denen? Dass

00:16:52: KI den zum Beispiel in der Entwicklung von neuen Werkstoffen sehr gut helfen könnte. Also das ist

00:16:59: einer der größten Anwendungsfälle, oder? In der in allem, was sozusagen das Backbone das Rückgrat des

00:17:05: Unternehmens ist. Weniger. Also diese ganze KI Transformation findet nicht statt über die

00:17:09: kleinen Anwendungsfälle auf Anwenderseite. Das heißt ChatGpt Implementierungen auf in

00:17:16: Büros usw. Das ist nice to have, aber das bringt keine. Keine wirklichen sind keine wirklichen

00:17:20: Hebel in der Effizienzsteuerung. Das sind keine. Hat keinen Einfluss auf die PE und am Ende des

00:17:25: Jahres. Aber die. Die Systeme, die dem Ganzen zugrunde liegen. Die kann man optimieren. Also

00:17:32: Lieferketten kann man optimieren, man kann After Sales optimieren, das heißt, alles, was nicht so

00:17:37: shiny ist und nicht so attraktiv ist, aber sehr viel Wirkung zeigt. Und da spielt die Musik und

00:17:43: das machen die großen Unternehmen zurzeit. Also die gucken sich an, wo die, wo die, wo die

00:17:48: Werttreiber sind, wo die wirklichen Hebel sind. Und die fangen jetzt an, so ein bisschen diese ganzen

00:17:53: Tools implementieren zu lassen. Das ist gerade der Status quo. Jetzt haben wir viel Positives erwähnt.

00:17:58: Ist auch richtig so! Zu den negativen Seiten kann ich jetzt sagen, zählen natürlich Fake News. Also

00:18:04: gerade KI gesteuert. Ich habe das selbst im Wahlkampf jetzt erlebt, wo Lippensynchronisierung

00:18:10: stattfand, wo Videos generiert wurden, wo Friedrich Merz gezeigt wurde oder ich oder andere

00:18:17: in ganz anderen Situationen. Letztens hat mir gezeigt, wie man selbst aus einem Foto KI

00:18:22: gesteuert ein Video machen kann. Also es ist ja darf ich gerne eine Geschichte erzählen? Ich hatte

00:18:27: bevor ich. Bevor ich in die Unternehmensberatung kam, war ich Unternehmerin. Also von der DNA her

00:18:31: bin ich wahrscheinlich Unternehmerin. Und ich hatte ein Unternehmen und wir haben Avatar

00:18:35: gemacht. Das heißt, ich war die Konkurrenz zu Synthesia. Da ist der Marktführer momentan und

00:18:41: einer aus dem politischen, sagen wir mal, extremen Spektrum. Ich sage jetzt nicht, welche Richtung. Kam

00:18:46: der das Wahlkampfteam zu mir und hat gefragt, ob ich die die Person Avatar führen könne, damit sie

00:18:53: und zwar das war das Interessante, mit lokalem Dialekt sprechen können. Und da ging es nur um

00:18:58: Deutschland. Das heißt diese. Und einfach nur, weil die die Menschen dann vor Ort sich abgeholt

00:19:05: fühlen und sich sich mehr adressiert fühlen und sich heimischer fühlen und sich dann potenziell

00:19:09: mit der Person noch mehr identifizieren können. Ich finde das immer spannend, weil diese die, die

00:19:13: sowohl das ganze rechte Spektrum als auch das ganz linke Spektrum, die verstehen die

00:19:16: Digitalisierung immer viel besser. Also die bespielen Social Media finde ich besser. Und ich

00:19:21: weiß nicht, ob Not macht erfinderisch, aber die sind auf jeden Fall sehr gut darin. Und ich fand

00:19:25: es faszinierend, dass sie das verstanden haben, dass das machen würde. Ich habe es nicht gemacht.

00:19:29: Aber das war. Das ist schon. Ja, ja, das ist damals schon. Das heißt, das Thema der

00:19:34: Lippensynchronisation ist jetzt so ausgefuchst, dass wir nicht mehr unterscheiden können, was noch

00:19:40: deepfake ist, was richtig ist, was nicht richtig ist. Und selbst wir. Ich. Ich fand, vor zwei, drei

00:19:44: Jahren konnte man es noch sehen. Heute setze ich gar keine Chance. Die Zeiträume sind noch kürzer,

00:19:50: in Wahrheit als zwei drei Jahre, sondern es geht wirklich um. Ich finde es epochal, was in einem

00:19:56: halben Jahr an technisch Fortschritten da passiert. Und ich glaube, ich habe eben gerade

00:20:02: darüber nachgedacht. Ich habe vor einem halben Jahr habe ich, glaube ich, so was gesagt wie wir

00:20:06: erkennen es gerade noch und ich bin mir nicht sicher, ob ich diesen Satz wiederholen will und

00:20:12: der die Kunst des Fakes, wenn man so will, besteht darin, ihn nicht zu radikal zu machen, so dass wir

00:20:17: ihn quasi einfach interpretieren als Fake. Das muss Fake sein, weil es ist Quatsch, dass die

00:20:22: Person so etwas gesagt hat. Ganz besonders kompliziert wird es in dem Moment, in dem es nicht

00:20:27: mehr unbedingt Quatsch ist, sondern in dem es nur graduell von dem vielleicht entfernt ist, was

00:20:31: wirklich gesagt wurde. Also jetzt mal, wir haben eine Talkshow und 70 % von dem, was man sieht,

00:20:37: wurde vielleicht wirklich gesagt und dann wird einfach ein Satz verändert, also so, dass man es

00:20:42: intellektuell nicht verstanden. Genau. Genau. Ja, dann wird es gefährlich, glaube ich. Und dann

00:20:47: wissen wir natürlich, wie der Zyklus von Nachrichten. Genau das ist dann 123 Stunden als

00:20:53: Realität empfunden wird. Dann ist quasi der Schaden da. Das heißt, da werden wir auch im

00:20:59: Journalismus eine Herausforderung haben zu sagen, gibt es eine Früherkennung für Fake Videos gibt,

00:21:06: so wird es so was wie ein ich sage es mal wie ein Wasserzeichen irgendwann geben, im übertragenen

00:21:12: Sinne, dass dann wirklich auch Videos als echt erkennt. Aber all das ist natürlich schwierig, weil

00:21:16: noch mal der Schaden ist nach wenigen Stunden schon schon hergestellt. Und da werden wir

00:21:21: Antworten drauf finden müssen, die ich jetzt auch noch nicht habe. Aber und auch noch dazu zu sagen

00:21:26: heute ich bin heute Morgen aufgewacht zu einer WhatsApp und zwar zu mehreren. Und mir haben alle

00:21:30: meine Freunde auf einmal so einen LinkedIn Post geschickt und ich habe mich gefragt, ob du nachts

00:21:33: nicht auf flugmodus. Also flugmodus. Und dann bin ich aufgewacht und dann mache ich mein LinkedIn

00:21:38: auch heute Morgen und ich war verschlafen. Und dann haben wir alle geschrieben Oh Gott, guck dir

00:21:41: das mal an und dann hat jemand von mir einen Deep Fake gepostet heute Morgen und ich habe mich so

00:21:45: erschrocken in dem Kontext und es war nicht ganz so schlimm, aber es war sehr, sagen wir mal

00:21:49: suggestiv. Ja, es war auf jeden Fall nicht neutral und ich habe mich in dem Moment so erschrocken

00:21:54: und es fühlte sich an, als würde der Boden sich öffnen. Also es war kein Scherz von Freunden,

00:21:59: sondern es war ein tatsächlicher Post. Es war ein Post, der mich auch verlinkt hat. Die Person hat es

00:22:03: sicherlich nicht schlecht gemeint oder so, aber es sah so aus, als würde ich sehr suggestiv in das

00:22:08: Ohr von demjenigen flüstern. Und ich habe auch einen Podcast. Heißt Second Tales übrigens und er

00:22:12: hat meinen Podcast, meine letzten beiden Folgen gelobt und da hat er sich gezeigt und und ich wie

00:22:17: wie ich ihm ins Ohr flüstere. Aber es sieht eher so aus, als würde ich flüstern. Hey Honey, wann

00:22:21: gehen wir? Wann gehen wir nach Hause? Und dieses. Aber dieses Foto hat. Ich habe wirklich Herzrasen

00:22:27: bekommen und mich in dem Kontext gefragt, wie man das in irgendeiner Form verhindern kann. Ich meine

00:22:31: letztlich, die Verbreitung von Depfakes ist strafbar. Das muss einem schon klar sein. Nur ich

00:22:37: war früher der Meinung, dass man das normalisieren sollte, weil ich dachte, es gibt keine Art und

00:22:41: Weise, wie man das irgendwie einschränken kann. Jeder kann überall alle möglichen Fotos

00:22:46: generieren. Nur ich habe meine Meinung heute in wenigen Sekunden geändert. Wenn man selber

00:22:51: Betroffener ist, hat es auf einmal ein ganz anderes Geschmäckle. Und ich denke, dass der erste

00:22:56: Ansatz sollte sein, auf der regulatorischen Seite, wie Dänemark die letzte Woche beschlossen oder

00:23:00: vorletzte Woche beschlossen haben, dass man das IP oder das Recht am eigenen Bild hat, eigene Bild,

00:23:05: Körper und Stimme. Das heißt erst mal das und das ist der erste Schritt. Ob das dann nachverfolgt

00:23:11: werden kann usw sei mal dahingestellt. Aber man muss auf jeden Fall auf regulatorischer Seite das

00:23:15: besser begleiten. Und was du sagtest, dass man Wasserzeichen implementiert in die Tags. Das ist

00:23:20: ja schon im Akt quasi vermerkt. Das aber und das Sollen so maschinenlesbare Wasserzeichen

00:23:27: sollen in den vermeintlichen KI generierten Videos vorhanden sein. Aber auch das wird halt. Ist

00:23:33: halt die Frage, wie das Ganze durchgesetzt werden soll. Aber wie erkennt ihr denn das, wenn wenn ihr

00:23:37: Videos seht in der Redaktion? Woher wisst ihr, ob es wirklich. Also ob es echt ist, ob es nicht echt

00:23:42: ist? Wie sind da so die Mechanismen? Naja, noch ist es aus einer Mischung aus genauer

00:23:49: Beobachtung, ob du quasi so Schnittkanten siehst oder Unlogiken in dem, was du im Bild oder im

00:23:55: Video siehst plus quasi Brain was du drauflegst. Ob du dir überlegst ist

00:24:02: das eine. War dieser Mensch an dem Ort? Macht das Sinn, dass ein Satz wie dieser gesagt wird, wenn

00:24:07: man sich nicht sicher ist? Suchst du eine zweite Quelle, in der das auftaucht oder nicht? Und dann

00:24:12: lässt sich das verhältnismäßig schnell klären. Im Moment aber einfach so, weil die. Weil die Fakes in

00:24:17: dem Moment noch relativ einfach aufklärbar sind. Aber ist das nicht hochgradig gefährlich? Ich

00:24:22: denke jetzt an die nächsten Wahlkämpfe. Ich meine, ihr seid beide unter 30, weil es nicht

00:24:27: selbstverständlich ist. Genau. Und? Aber wenn jemand 70 oder 80 ist, der kann ja nicht im Ansatz das

00:24:32: unterscheiden. Es wird ja nicht eine Gefahr. Wenn ich dann an Russland denke über Telegram, wie die

00:24:36: das hier einspielen, dass das richtig zu Wahlkampfzwecken missbraucht wird und dass wir

00:24:39: nicht jetzt schon aufpassen müssen, auch der Journalismus, dass wir das gar nicht mehr packen.

00:24:45: Also jetzt möchte ich aber ganz kurz einmal eine Lanze brechen für die Generation der unter

00:24:49: 30-jährigen und über 80-jährigen. Weil das sind nämlich die, die noch ganz normal über Politik

00:24:54: diskutieren, im größten Teil, die in aller Regel noch ihre Regionalzeitungen lesen, sich danach zum

00:24:59: Kaffee treffen und darüber sprechen, was in der Welt passiert und auch noch auf solche. Das sehe

00:25:04: ich nicht als problematisch. Aber trotzdem wenn wenn die ein Handy haben, also meine Mutter auch,

00:25:08: die schickt mir manchmal Dinge, wo ich denke Mensch, hättest du doch sehen können, dass das

00:25:12: gefaked ist. Ja, und ich glaube aus der jungen Gruppe Ja. Nein, aber ich kann mir schon vorstellen,

00:25:18: dass das nicht ungefährlich ist. Ich sehe ja auch gerade, was aus Russland etc. über Telegram kommt.

00:25:23: Also alleine diese Geschichte mit mit, wie ich sie noch Sweeney mit Vornamen,

00:25:30: die die Protagonisten des Jeanswerbung der Jeanswerbung. Die wurde

00:25:37: doch aus dem vermeintlich Woken, aus der vermeintlich WolkenBubble, wo sie doch so stark

00:25:44: dafür kritisiert. Und auch die Firma wurde stark dafür kritisiert, dass es vermeintlich um good

00:25:49: Jeans ginge. Und da war ja ein Wortspiel zwischen den Hosen und den Genen und man hat. Die New York

00:25:55: Times hat eine große Studie dazu gemacht und festgestellt, dass es gar nicht aus dem Walken, aus

00:25:59: der Woken Bubble kam, diese Kritik, sondern aus der rechten Ecke lanciert wurde. Und ich habe gleich

00:26:06: am Tag eins gesagt, da habe ich gedacht, das ist garantiert aus der sehr russisch rechten Ecke, Das

00:26:10: wird garantiert noch nicht aus der amerikanischen rechten Ecke sein, weil ich fand das so abwegig.

00:26:14: Die Amerikaner lieben ihre Tiere, ihre Schauspieler normalerweise. Und typischerweise

00:26:20: werden die nicht so öffentlich gegrillt. Und ich kenne super Leute und keiner hätte diese absolut

00:26:26: extremen Ansichten geteilt. Das heißt, ich fand es sehr überraschend und das war ein Vorgeschmack zu

00:26:30: den nächsten Wahlen, quasi wie sich so etwas verselbstständigt. Ich weiß nicht, ob du diesen

00:26:34: Shitstorm oder ob ihr das mitbekommen habt, nicht mitbekommen, aber das war. Also es gab Millionen

00:26:39: und Millionen Views und das war der war eines der entscheidenden der brutalen Momente in Amerika

00:26:44: für Medien und für KI. Am Ende ist es auch eine Frage von Resilienz, von Politik. Und da finde ich,

00:26:51: ich führe das einmal kurz aus und sage gleich, dass ich viel verlange von Politik in dem Moment.

00:26:55: Aber ich glaube, man muss sich klar machen, an welchen frühen Stellen diese Trends einsetzen. Der

00:27:02: Druck über die sozialen Medien, auf die, sagen wir mal, ersten Gruppen in der Politik einprasseln, die

00:27:08: sich dann vielleicht davon verleiten lassen, die Narrative teilweise mit erzählen. Und daraus

00:27:13: entsteht ein großes Bild. So. Das ist. Das ist mir klar, wie schwer das aufzuhalten ist. Aber ich

00:27:17: glaube, Russland. Die Angriffe. Das ist bitter. Bitter, Bitter. Ernst. Also,

00:27:24: da geht es nicht um. Da geht es um Kriegsführung, um hybride Kriegsführung. Und. Und da haben wir

00:27:29: keinerlei Antwort darauf, wie wir darauf reagieren. Da gehen wir gar nicht ran in den Debatten, weil

00:27:35: es uns zu schwierig ist, über Mandatierungen von von von Hackerangriffen oder oder Cyberangriffen

00:27:41: auf die andere Seite nachzudenken. Aber was müssen wir eigentlich tun als Gesellschaft? Und ich

00:27:46: glaube, ich glaube, die Politik tut gut darin, so viel wie möglich alte Verkrustungen

00:27:52: aufzubrechen und so oft wie möglich sich zusammenzusetzen. Across the fire, wie man schön

00:27:58: sagt und sagt Was ist eigentlich unsere? Die Herausforderung, der wir allen gegenüberstehen, die

00:28:03: sich im demokratischen Spektrum befinden. Und ich glaube, das ist der einzige Weg, eine Resilienz zu

00:28:07: entwickeln und durch einen solchen Herausforderungen. Das ist die große Gesetzgebung

00:28:11: an die große Linie. Aber ja. Es ist ja schon so, dass wenn Sie sie jetzt klein geschrieben oder

00:28:17: Ihre Kolleginnen und Kollegen mich anrufen, es gibt ja immer mehr Newsletter, die alle super sind.

00:28:22: Aber da geht es Ihnen ja auch jeden Tag um die Tagespolitik. Der eine will die Steuern erhöhen,

00:28:26: man will sie nicht erhöhen. Das ist mit dem Bürgergeld hier ein bisschen, da ein bisschen. Aber

00:28:29: ich sage mal, die großen Linien, also dass wir jetzt uns faktisch neu erfinden müssen, weil

00:28:35: unsere Automobilindustrie, Maschinenbau, Anlagenbau, der muss natürlich jetzt mit KI verzahnt werden

00:28:39: und vielen Dingen. Und ich sehe die neueste Harvard Studie im Bereich KI, Quantencomputing,

00:28:45: Robotik. Ich sehe, wie andere wie Tesla oder auch die Chinesen da vorangehen, aber auch

00:28:50: Biotechnologie und Raumfahrt. Da sind wir überall im Hintertreffen und rutschen immer mehr ab.

00:28:57: Besteht nicht auch eine Gefahr, dass wir beide so ein bisschen getrieben sind? Weil Weil ich

00:29:03: irgendwie 95 bis 98 % jeden Tag im Tagesgeschäft bin? Und kann man hier noch einen Prozentpunkt

00:29:09: Steuern erhöhen? Der Klingbeil hat gesagt Ja, der Merz hat gesagt. Nein, Herr Linnemann, wie sehen Sie

00:29:13: das? Und so und jeden Tag immer nur dieses Kleinklein, um wir den Blick für das große Ganze.

00:29:20: Was autoritäre Regime natürlich verfolgen. Verlieren ist das. Ist das

00:29:27: auch eine Kritik, wo man drüber reden kann? Also jetzt im Zusammenhang auch mit mit KI und was wir

00:29:32: jetzt eigentlich an Zukunftstechnologien ja angehen müssen. Also jetzt kann ich nur über meine

00:29:38: Rolle sprechen. Ich meine was, die Medien gibt es ja auch nicht richtig. Also die Medien sind breit

00:29:44: gefächert von links nach rechts, die unterschiedliche Ansätze haben, in

00:29:49: unterschiedlichen Formaten arbeiten. Und so weiter und so fort. Ich kann. Ich kann ja nur an der

00:29:53: Stelle sagen absolut, was ich beantworte. Ich würde sagen, wir bei Politico sind sehr bemüht darum,

00:29:59: einen Diskurs über die Sachthemen zu führen. Ja, wir führen auch einen Diskurs über

00:30:06: die die lustigen, die juicy Elemente der Berliner Politik, weil wir glauben, dass das. Dass das eben

00:30:11: auch dazu gehört. Aber, aber ich meine den Deep Dive in die Sachthemen ist ja bei uns ein Teil

00:30:17: des Ganzen. Damit sind wir aber natürlich auch nur eines von vielen Medien. Und Fakt ist, dass

00:30:24: da erleben wir manchmal in der Medienwelt dasselbe, was sie in der Fraktion oder in der

00:30:27: Partei erleben. Sobald an den Rändern infiziert wird, sozusagen eine bestimmte

00:30:34: Debatte, bekommt sie mehr und mehr Relevanz. Und irgendwann ist sie dann eben in der Mitte der

00:30:39: Diskussion angekommen. Das passiert in Parteien und Fraktionen so und natürlich in den Medien

00:30:43: auch. Ich weiß nicht, wie du das. Wir sind jetzt ein bisschen weg von KI, aber vielleicht können wir

00:30:46: aus der Schusslinie da noch mal drüber sprechen, Weil ich beobachte so ein bisschen Ich weiß nicht

00:30:50: Elisabeth, wie du das von außen siehst, aber wir Politiker versuchen ja sehr viele. Ist ja auch gar

00:30:56: kein Vorwurf. Jeder hat ja jetzt einen eigenen Kanal irgendwo auf Social Media und versucht

00:31:00: natürlich, beliebt zu sein. Und dann zeigt man sich auch mal in der Jeans oder anders. Ist ja auch

00:31:05: nett mal, aber dann macht man sich Gedanken darüber Wie kann ich mich jetzt darstellen, um

00:31:10: beliebt zu sein? Das ist, so finde ich, eine neue Entwicklung. Früher ging es, fand ich, mehr um die

00:31:16: Sachthemen. Heute geht es auch mehr um das Verkaufen. Gepaart mit dem Umstand, dass ich glaube,

00:31:21: dass wir heute so viele Medien Angebote haben, Podcasts, Newsletter, Newsletter usw, die das alle

00:31:28: gut machen und richtig machen, aber wir natürlich in Echtzeit reagieren müssen und getrieben sind

00:31:33: von der Tagespolitik. Und darüber hinaus haben wir etwas, was wir schon seit Jahrzehnten haben. Wir

00:31:37: haben halt immer irgendwelche Wahlen. Jetzt im Moment haben wir mal ein paar Monate Ruhe und

00:31:40: dann geht es ab März Baden Württemberg los. Das ganze Jahr fünf Landtagswahlen, wo da immer gesagt

00:31:46: wird, das kann man nicht machen, weil jetzt Wahlen sind. Was ich damit sagen will, ist Früher hatten

00:31:51: wir vielleicht die Zeit, dass man auch mal in Ruhe sich die Sachen anschauen konnte und im

00:31:56: Tagesgeschäft mal ein paar Wochen verlängern konnte. Aber heute müssen wir doch, weil die

00:32:01: anderen so schnell sind, viel schneller. Deregulierung, In Bürokratie

00:32:08: nämlich. Guck dir die USA an! Die USA. Wenn du dir anguckst, allein wie groß die Social Media Teams

00:32:14: sind Von Gavin News zum Beispiel hat die letzten Tage hervorragende Social Media Skills bewiesen,

00:32:20: indem er einfach in dem Duktus von Trump ihn fertig gemacht hat. Der hat, der hat

00:32:27: Vance adressiert als Couchboy. Fantastisch. Ja, der hat. Der redete von Trumps Vorgarten

00:32:34: als der Was hat auch Predator der hat. Er sprach von Jodie Vance als

00:32:40: Just Dance Fans. Also das heißt, dieser der Ton war natürlich angepasst an Trumps Twitter oder

00:32:47: Exkommunikation. Aber das hervorragend. Damit hat er es geschafft, sich aus diesem Nirvana der

00:32:53: Unsichtbarkeit herauszuheben und wird weltweit als der nächste demokratische Kandidat

00:32:57: wahrgenommen. So fair warst du früher übrigens, wenn ich einmal ganz kurz einhaken darf. Super

00:33:02: wichtiges Experiment. Ich glaube, Ich glaube nicht, dass es viel mehr ist als ein Experiment. Aber die

00:33:07: Frage ist. Ich glaube, das ist abgelöst. Okay, das ist

00:33:14: abgelöst. Wir kriegen es nicht mehr durch noch mehr Korrektheit hin, sondern wir müssen auf dem

00:33:19: Spielfeld gewinnen und auf der Höhe, wo es gespielt wird. Bullys beantwortest du mit Bowling

00:33:24: und nicht mit. Lass uns drüber reden. Wir gehen mal ins Lehrerzimmer. Aber was ich sagen wollte, Du

00:33:29: siehst an den amerikanischen, amerikanischen Wahlkampf, oder wie die, die Social Media bespielen.

00:33:33: How it's done? Und ich glaube, das in Deutschland fehlt noch. Da fehlt noch irgendwie die Akzeptanz

00:33:38: davon. Die Amerikaner sagen, die oder die Deutschen finden sich cringe, denn es ist so ein bisschen.

00:33:42: Das ist wahrscheinlich ein bisschen unangenehm, wenn ich da in Jeans auf Instagram zu zeigen und

00:33:45: sagen Guck mal, ich bin auch so nahbar. Aber am Ende ist das die, wie du die neue Generation

00:33:50: abholst. Das sind deren Newskanäle. Die leben halt in dieser Wirklichkeit. Die leben auf diesen

00:33:55: Social Media Profilen, die leben auf Tiktok usw und wer das Game spielt, der gewinnt ultimativ. Und

00:34:02: ich glaube du kannst das ganze abfangen, indem ihr das da Ressourcen blockiert und das aufbaut und

00:34:07: die Wichtigkeit erkennt. Also zum Beispiel Ricarda Lang, die hat ein wahnsinnig witziges Ich weiß

00:34:11: nicht, ob sie das selber macht, aber es ist super witzig, was jemand kommuniziert. Es ist total

00:34:15: komisch so, aber. Und die hat die hat auch wahrscheinlich ein sehr gutes Team, die das macht

00:34:20: Und ich kann das allen Politikern empfehlen, dass das das outsourcen wird. Also Gavin Dyson wird das

00:34:25: ja nicht selber schreiben. Ich glaube im Zweifelsfall keine klare Strategie gibt. Das ist

00:34:29: gemacht, das werden Trumps gewesen sein, weil du kennst auch in dieser Dichotomie oder Du kennst,

00:34:34: wie KI schreibt, immer auf der einen Seite, auf der anderen Seite das ist ja immer so ein bisschen

00:34:37: binär, ja, dass du erkennst genau, dass das diesen langen Bindestrich, der da ist, du kennst relativ

00:34:42: genau das ist das ist ein guter prompt war der das generiert hat und das sollten alle Politiker

00:34:46: machen, um das zu outsourcen. Aber diesen Teil zu bespielen und zu bedienen, weil das ist, ihr könnt

00:34:51: euch davon gar nicht halten und man darf halt nur nicht die langfristigen Dinge, die angegangen

00:34:57: werden müssen, vernachlässigen. Ja, was? Beides Genau. Aber was ich mir absolut wünschen würde, wäre

00:35:01: einfach eine harte Deregulation dieser von allen möglichen Gesetzen und und und Systemen. Die

00:35:08: die da die der ganzen Welt der Innovationen usw im Wege stehen, wie es momentan ist. Wie du. Was du

00:35:14: gesagt hast stimmt. Wir werden einfach abgehängt. Vor allen Dingen Datenspeicherung, oder?

00:35:21: Ja, also ich meine, das fängt schon an bei der Gründung einer Gesellschaft, die die Komplexität

00:35:24: sucht seinesgleichen. Also dann sitze beim Notar und es werden 20 Seiten vorgelesen. Unnötig. Dann

00:35:30: diese natürlich die ganze Zeit. Die ganze Datenschutzthematik hilft auch keinem. Man kann

00:35:35: das sicherlich viel besser, viel schneller. Aber die Notare brauchen wir in Zukunft nicht mehr.

00:35:38: Wahrscheinlich durch KI. Oder wünschenswert. Ich bin kein Freund von Juristen, aber ja, ich glaube

00:35:44: auch, man muss Mut haben, sich in Bereiche reinzugehen, wo man denkt Oh, das ist eigentlich.

00:35:49: Eigentlich würde ich mich ja mit Sachpolitik gerne beschäftigen und jetzt muss ich mich mit

00:35:52: Jeans usw. Wenn ich mir das angucke, ist immer noch verhältnismäßig verschämt das, was ich in der

00:35:56: deutschen Politik sehe, das ist dann halt die Jeans. Aber die Jeans ist natürlich auch nicht

00:36:00: mehr das, was gewünscht wird in dem Moment. Und ist ja auch logisch. Ich meine damit eine Annalena

00:36:04: Baerbock macht da irgendwie kriege ich natürlich wahnsinnig auf die Nase dafür übrigens dann auch

00:36:09: aus der Politik, in Wahrheit von Politikerinnen und Politikern, die, die das eigentlich auch machen

00:36:14: müssen. Und das erlebe ich. Ich erlebe das auch. Ich habe auch letztens mal eine Debatte gehabt mit

00:36:18: der Social Media Expertin und gesagt, mit ihr meine Gedanken geteilt, ob ich jetzt eigentlich

00:36:23: noch mehr Instagram zum Beispiel mache in bestimmten Bereichen. Und habe ihr dann gesagt Na

00:36:28: ja, ich möchte natürlich auch nicht wahrgenommen werden als jemand, der quasi nur Instagram macht

00:36:33: und mit Jeans. Und so ist das nämlich genau so und aber. Aber das, was sie gesagt

00:36:40: hat, fand ich eigentlich ganz schlau, dass sie gesagt hat Das ändert, wenn du eine Substanz hast

00:36:45: In dem, was du im Journalismus machst, wird das ja nicht weggenommen dadurch, dass du Social Media

00:36:49: machst. Also beides. Also du musst die Substanz eben behalten und am Ende das Gonna hate. Ja, das

00:36:54: ist dann einfach so, ja. Ja. Elisabeth, das was du gerade gesagt hast, was gemacht werden muss, hat

00:36:59: was mit Mut zu tun. Sie sind jetzt auch schon jahrelang mit dabei. Es gibt in vielen Bereichen

00:37:05: keine Erkenntnis Probleme mehr. Vielleicht gibt es hier und da mal einen Streit beim Datenschutz.

00:37:09: Klar, das ist noch so ein Thema. Aber in vielen anderen Bereichen nicht. So eine Gesellschaft, dass

00:37:14: man die schnell organisiert und vieles mehr. Woran scheitert es in der Politik? Das ist eine Mutfrage,

00:37:20: oder Warum reden wir nur? Diskutieren wir nur. Und kaum einer hat den Mut, auch mal einen

00:37:26: Überraschungseffekt zu wagen. Man hat jetzt mit diesem Thema nichts zu tun. Aber politischer

00:37:30: Selbstmord an vielen Stellen. Viele sind ja relativ schnell immer wieder im Wahlkampf. Wäre

00:37:35: die Legislaturperiode noch länger, glaube ich, würde das auch helfen. Auf der einen Seite oder

00:37:39: eben, ob es noch wieder Wahlen gibt. Ich meine, das System könnte man auch anders auslegen. Ich glaube

00:37:44: aber, dafür müsste man das Grundgesetz und vieles ändern. Das geht nicht so einfach. Nur am Ende ist

00:37:49: es halt die Frage, ob man das macht, um in der Politik selber zu überleben als Politiker oder ob

00:37:54: man es macht als als Dienst am Bürger. Genau. Mehr Fokus auf das, was wirklich zählt.

00:38:01: Also Unwichtiges von Unwichtigem unterscheiden. Jetzt mal, wir sind ja jetzt hier beim CDU

00:38:06: Generalsekretär. Wirtschaftswende, Migrationswende. Das sind doch die zwei Themen, die zählen. Dafür

00:38:13: ist man doch da. Nicht mit irgendwelchen Nebensächlichkeiten beschäftigen. Keine

00:38:16: Kulturkämpfe, sondern Wirtschaftswende, Migrationswelle. Nur mal so ein Beispiel für die

00:38:22: Fokussierung auf das, was wirklich zählt. Sich nicht aufhalten mit Kleinkram und das Wichtige

00:38:27: machen. Super, dann gehen wir jetzt über zum Kickern. Wir kickern immer noch eine Runde, spielen

00:38:32: bis zwei und da ist aber nur so ein ganz kleiner Kicker ist mehr symbolisch. Aber trotzdem Wir

00:38:38: machen jetzt folgendes. Elisabeth, du kommst hier rum und stellst dich wieder hin. Nee, nee, da kommt

00:38:44: jetzt da der Kleine. Ich nehme mal mein Mikro mit. So gehst du einmal rum.

00:38:51: Elisabeth Genau. Super. Wie läuft das hier? Sehr gut. So, das ist unsere Regie hier.

00:38:57: Marcel und Tim. Ja, Wir spielen bis zwei. Und die werden immer die gleichen Fragen beantwortet.

00:39:04: Jeder bekommt nur eine Frage. Und die heißt? Was würdet ihr als Erstes machen, wenn ihr

00:39:08: Bundeskanzler wärt? Wer fängt an? Elisabeth, Wenn du morgen

00:39:14: Bundeskanzlerin bist, was würdest du als erstes angehen? Elisabeth, bist du noch da?

00:39:22: Eins zu null. Wir spielen mit zwei weiter. Was würdest du als Erstes machen? Ich würde

00:39:25: Deregulierung auf jeden Fall gut. Einmal einräumen, bitte. Vielleicht eine etwas längere

00:39:32: Antwort. Was würden Sie machen, wenn ich als Bundeskanzler als Erstes als allererstes gewählt

00:39:38: im Deutschen Bundestag? Und dann dürfen Sie als Erstes was machen. Da würde ich als erstes nach

00:39:44: Paris und Warschau fahren, weil das machen alle und das lohnt sich. Und danach würde ich einen

00:39:48: gesellschaftlichen Expertenkreis einberufen. Jetzt wird's spannend. Ja, mich nicht, damit ich nur in

00:39:54: der Politik verbleibe, sondern damit ich eben von außen die Einflüsse mitbekomme Und. Und welches

00:40:01: Ziel gesellschaftlich welches Ziel hätte dann die Truppe? Ich finde schon, dass man darüber

00:40:07: nachdenken müsste in der Politik, wie man vor allem alte. Alte Parteithemen weg wegkriegt

00:40:14: zum Beispiel. Ich glaube, jede Partei, jede Partei hat ihre alten Parteithemen, die eigentlich früher

00:40:20: mal sehr wichtig waren und vielleicht jetzt nicht mehr so sehr. Und dass man sich einfach auf den

00:40:25: Wandel der Zeit auch in der Politik einrichtet. Und da, glaube ich, ist externer Einfluss immer gut

00:40:30: in der Politik. Nächste Frage. Man merkt aber, dass ihr beiden habt. Zwei zu null. Also

00:40:38: ich bedanke mich bei Gordon Repinski. Herzlichen Dank, liebe Elisabeth Orange. Herzlichen Dank auch

00:40:43: bei dir und ich bedanke mich bei Ihnen. Wir sehen uns bald wieder. Ich freue mich. Bis dahin. Tschüss.