UNSER LEBEN MIT KI

  • vorgestern
Doku über digitales künstliche Intelligenz

Category

🤖
Technik
Transcript
00:00Diese Musik habe ich nicht ausgesucht. Das war allein die künstliche Intelligenz. Die hat
00:15sie sogar komponiert. Keine Helene Fischer aus Fleisch und Blut. Vielleicht klingt es
00:20deswegen so schief. Genau darum geht es heute. Wie KI uns täuschen kann. Herzlich willkommen
00:26zu UNSER LEBEN MIT KI. Fakes und Täuschungen werden immer besser und so hat das mal angefangen.
00:32Vergangenes Jahr. Das hier war weltweit ein echter Aufreger. Der Papst im dicken Daunenmantel. Viele
00:39haben gedacht es sei echt, aber das Bild war Fake-KI. Genauso der TikTok-Post, wenn der
00:44Bundeskanzler plötzlich Haare hat und so wild tanzt. Wie erkenne ich KI-Fakes? Wo können die mir im
00:52Alltag eigentlich begegnen und welche Gefahr geht von ihnen aus? Denn so eine gefakte Realität,
00:57die missbraucht nicht nur Prominente wie den Papst oder Politiker. Es kann jeden von uns
01:02treffen und dann ist ein Tanzvideo harmlos gegen diesen Schockanruf hier.
01:07Ja hallo. Diesen Anruf wird Jürgen Roth nicht so schnell vergessen. Ein Polizist erzählt ihm,
01:18dass seine Freundin eine schwangere Frau überfahren und Fahrerflucht begangen habe.
01:22Er müsse jetzt 80.000 Euro zahlen, damit sie aus der Untersuchungshaft freikommt. Ein Schock. Und
01:28dann ist plötzlich seine Freundin selbst am Telefon. Das war sie und sie flennte am Telefon, Tränen
01:35erstickt. Jürgen, ich habe eine Frau, die hochschwanger ist, überfahren und wahrscheinlich
01:41wird sie das nicht überleben und das Kind wird auch sterben und so weiter und so fort. Und das
01:46war ihre Stimme. Das denkt Jürgen Roth zumindest. In Wahrheit hört er ein sogenanntes Deepfake. Die
01:52Stimme seiner Freundin ist gefälscht. Thorsten Holz ist Sicherheitsforscher und beobachtet solche
01:57Betrugsversuche genau. Mit modernen KI-Methoden ist es viel einfacher, das Ganze skalierbar zu
02:03machen. Man kann also jetzt zum Beispiel auch sehr personalisiert Texte erstellen, die dann
02:07wirklich auf ein einzelnes Opfer passen. Oder Bilder zu manipulieren ist jetzt eben viel
02:12einfacher. Man kann mittlerweile eben auch ganze Videosequenzen so erzeugen, dass sie eben eine
02:17gewisse Story erzählen, die gar nicht der Realität entspricht. Und wenn das passiert, erzählen Menschen,
02:22die wir eigentlich kennen, plötzlich Seltsames. Denken Sie immer daran, den meisten Ärzten ist
02:28ihre Gesundheit egal. Eine schlanke Figur ist kein Luxus mehr, sie ist jetzt für jeden erreichbar.
02:33Wir sprechen von einer neuen KI-gestützten Anlageplattform. Gerade Prominente, von denen viele
02:39Aufnahmen im Internet zu finden sind, lassen sich sehr leicht fälschen. Denn hier hat die KI
02:44besonders viel Trainingsmaterial. Das erlebt gerade auch Dietrich Grönemeyer. Der bekannte
02:49Arzt und Buchautor gibt im März ein Fernsehinterview, aber dabei bleibt es nicht. Ich habe über
02:55Mitarbeiter erfahren, dass sie mich gesehen haben auf irgendeiner Internetplattform und gesagt haben,
03:00das ist ein Ding, dass du jetzt hier Abnehmpräparate verkaufst. Aber das kannst du doch gar nicht sein.
03:09Und dann habe ich gesagt, ich gucke mir das an, ich verkaufe keine. Doch, das ist da. Ich sage,
03:13schick mir das Video. Und es stimmt, Betrüger haben das Interview manipuliert. Plötzlich geht
03:20es nicht mehr um einen gesunden Rücken, sondern um ein dubioses Diätmittel. Dieses Produkt aktiviert
03:25innerhalb weniger Stunden Stoffwechselprozesse im Körper und normalisiert den Hormonhaushalt. Dies
03:33fördert einen beschleunigten Gewichtsverlust in nur wenigen Wochen. Das ist natürlich völlig
03:38Quatsch. Trotzdem verbreitet sich das Video weiter. Immer mehr Menschen werden darauf aufmerksam.
03:43Es sind Dritte darauf reingefallen, wollten nur mal von mir wissen, wie das Produkt heißt. Die
03:48einen oder andere haben gesagt, das kann ich mir überhaupt nicht vorstellen. Also genau so. Was ist
03:53das denn für ein Scheiß? Deshalb wendet sich Grönemeyer über seinen Anwalt sofort an den
03:57Facebook-Mutterkonzern Meta und bittet, das Video zu löschen. Aber das passiert nicht.
04:02Eine Plattform wie Facebook oder Instagram oder andere können zwar versuchen, gewisse Videos
04:08runterzunehmen, aber die Angreifer können einfach schnell ein neues Profil erstellen,
04:12es wieder hochladen, es auf andere Webseiten stellen, dann nur darauf verlinken. Also wenn
04:17einmal etwas online ist, ist es sehr, sehr schwierig, das Ganze offline zu nehmen. Dafür
04:21ist das Internet gar nicht gebaut. Im Fall von Dietrich Grönemeyer hilft nur eine einstweilige
04:25Verfügung. Jetzt ist das Video von den meisten Seiten gelöscht. Ob es aber nicht doch noch
04:30irgendwo geteilt wird, das weiß er nicht. Es ist gar nicht befriedigend. Es ist weg im Moment,
04:35ob es morgen wiederkommt, keine Ahnung. Zurück zu Jürgen Roth. Der macht sich nach dem Fake-Anruf
04:42auf den Weg, um das geforderte Geld für seine Freundin zu besorgen. Dass hier etwas nicht
04:46stimmt, ahnt er immer noch nicht. Ich kam nicht auf die Idee, sie einfach mal anzurufen und zu
04:50sagen, was ist denn eigentlich los? Angst steuert Menschen. Und Angst macht mit Menschen alles,
05:00was möglich ist. Trotzdem fliegt der Betrug auf. Seine Freundin, dieses Mal die echte,
05:05ruft Jürgen Roth zufällig an. Erst jetzt ist klar, es ist nichts passiert. Eine Strafanzeige
05:10gegen Unbekannt läuft danach ins Leere. Die Wahrscheinlichkeit, dass solche Betrugsfälle
05:15aufgeklärt werden, geht gegen null. Der Einsatz von künstlicher Intelligenz bei Verbrechen,
05:22der nimmt zu, sagt die europäische Polizeibehörde. Da reden wir auch über solche Schockanrufe wie
05:28gerade. Die Fälle von Cyberkriminalität steigen ganz allgemein seit Jahren in Deutschland und
05:33die Kurve bleibt da auf einem wirklich hohen Niveau. Das überrascht den Mann, der jetzt bei
05:39uns ist, nicht. Denn zum Glück kennen sich ja nicht nur Verbrecher mit künstlicher Intelligenz
05:43und Diebfakes aus, sondern auch Lukas Rumpler. Er ist Videoredakteur beim Computermagazin
05:47CT. Schön, dass Sie heute hier sind. Herzlich willkommen. Hallo. Wenn ich das gerade so sehe,
05:51da wird einem ja schon anders. Wie viel Sorge muss ich mir in Sachen Cyberkriminalität machen?
05:57Also ich muss mir auf jeden Fall jetzt durch den Einsatz von künstlicher Intelligenz nicht mehr
06:01Sorgen machen, als ich mir davor Sorgen machen musste. Weil diese Betrugsmaschen, die wir jetzt
06:06auch gerade gesehen haben, die haben ja in der Form auch schon früher existiert. Also der Enkeltrick
06:11zum Beispiel war ja ganz beliebt eine Zeit lang bei der organisierten Kriminalität und das ist
06:15jetzt einfach ein bisschen effizienter und besser geworden durch KI. Aber ich muss mir selbst genau
06:20die gleichen Gedanken machen im Bezug auf Cybersicherheit wie vor KI. Dann wollen wir noch
06:25mehr Sorgen nehmen. Wir haben ganz viele Fragen von Zuschauern bekommen und da gucken wir mal in
06:28die erste rein. Wie erkenne ich einen KI-Anruf? Wie erkenne ich KI-Crime? Wie erkenne ich es? Ja,
06:36ich erkenne es grundsätzlich erst mal, indem ich ganz genau hinhöre. Das ist jetzt aber gerade in
06:43dem Moment so. Das kann auch bald anders sein. Das heißt, wichtiger ist, dass ich Nachfragen
06:48stelle. Also dass ich zum Beispiel einfach einen Rückruf mache und dann meine echte Freundin zum
06:53Beispiel am Telefon habe und ich den Dieb fake von ihr. Oder indem ich einfach ein Code-Wort
06:57vereinbare. Das heißt, ich habe zum Beispiel mit meiner Enkeltochter vereinbart, hey, wenn du mich
07:03am Telefon anrufst, dann frage ich dich, was war das Motiv von deiner Schultüte? Und das ist was,
07:07das kann KI ja nicht erraten im Moment. Das kann auch der Verbrecher nicht wissen, genau. Die nächste
07:11Frage ist spannend, weil erleben tun wir das ja oft schon so ein bisschen alles. Telefon klingelt,
07:16aber was mache ich eigentlich, wenn so ein Betrug mich erreicht? Wäre da die Polizei oder die Kripo,
07:22wer wäre da mein Ansprechpartner eigentlich? Das wüsste ich jetzt zum Beispiel gar nicht. Ja,
07:27also der Ansprechpartner wäre die örtliche Polizeidienststelle. Aber davor ist es wirklich
07:32wichtig, erstmal Ruhe zu bewahren und nicht auf irgendwelche Forderungen einzugehen. Und
07:35dann sich aufzuschreiben, wer hat mich da gerade angerufen? Was war die Telefonnummer? Oder einen
07:40Screenshot von der E-Mail zu machen und dann damit zur örtlichen Polizei gehen. Wie schwer
07:44ist das eigentlich, so ein Fake herzustellen? Also es ist mittlerweile relativ einfach. Da
07:49reichen einfach ein paar Sekunden oder Minuten von der eigenen Stimme oder von der Stimme von
07:53der Person, die man eben deepfaken möchte. Und dann kann ich das einfach online erstellen,
07:58diese künstliche Stimme. Okay, das heißt, Sie haben das Tool ja dabei. Unsere Regisseurin hasst
08:04Petersilie. Wenn wir jetzt einen Satz machen würden, der irgendwie wäre, Petersilie ist das
08:10leckerste Obst der Welt und besonders toll, wenn es pink ist. Das könnten Sie so... Das tippe ich
08:18jetzt hier mal ein. So und jetzt habe ich es eingegeben, jetzt klicke ich hier. Okay, Sie
08:29gänselt jetzt. Ich halte den Mund, damit man... Petersilie ist das leckerste Obst der Welt und
08:34besonders toll, wenn es pink ist. Das war super schnell jetzt. Das war super schnell, ja. Das klingt
08:39komplett wie ich. Das ist erschreckend beeindruckend. Geht das auch mit Bild? Das geht mit Bild,
08:46allerdings ist das noch deutlich schwerer als mit Stimme. Also dieser Stimmfake, der hat jetzt in
08:50ein paar Sekunden funktioniert. Bilder brauche ich erst mal besseres Material. Das bieten Sie
08:55aber als WDR-Moderatorin, ja. Und deswegen habe ich mal folgenden Deepfake mit Ihnen erstellt.
08:59Bundeskanzler Olaf Scholz fliegt nächste Woche zum Mond. Er trifft dort Pippi Langstrumpf und
09:06Samson aus der Sesamstraße. Die drei haben nämlich eine Band gegründet und spielen auf dem Mond ihr
09:11erstes Konzert. Wir verlosen Tickets. Für die Anreise ist aber jeder selbst verantwortlich. Okay,
09:17ich hoffe an der Stelle, dass alle Zuschauerinnen und Zuschauer wissen, dass ich nicht so ein
09:21Quatsch rede, aber es macht klar, wie einfach es geht. Vielen Dank, Lukas Rumpler vom Computer
09:25Magazin CT, dass Sie uns da so einen Einblick gegeben haben. Das ist wirklich spannend. Danke.
09:30Gerne. Ja und was man mit KI so im Alltag noch alles anstellen kann, bei auch kleinen Videos,
09:35das zeigt jetzt unsere KI-Testfamilie. Bei Social Media sind die sowieso immer online,
09:39von YouTube bis Shorts und da wollten wir wissen, was geht denn noch? Also wie leicht kann man etwas
09:45faken und Freunden schicken? YouTube ist ihre Welt. Katja Dederichs und ihre Söhne sind Social Media
09:52Stars und haben online mehrere Millionen Fans. Heute machen wir eine crazy KI-Challenge. Wir
09:56deepfaken jeder jeweils ein Video. Mal schauen, wer am Ende von uns beiden cooler aussieht.
10:00Let's go. Der Content der Dederichs ist echt. Auch sie nutzen zur Ideenfindung KI, aber nie so,
10:06dass ihre Authentizität leiden würde. Also ich sehe einige Video-Creator, die dann super
10:12viel mittlerweile mit KI arbeiten und ich finde, das ist einfach so ein riesiger Verlust an Qualität,
10:17auch an der künstlerischen Qualität, die da verloren geht, weil man steckt einfach weniger
10:20von sich selber irgendwie in ein Projekt rein und das merkt man aber auch als Zuschauer. Die
10:25Brüder haben sich schon häufiger in ihren Videos gegenseitig herausgefordert. Heute werden für das
10:31Battle nur der Laptop, das Smartphone, bereits bestehende Videos aus dem Netz und Fotos von
10:36den Gesichtern von Aaron und Noelle benötigt. Und sie wollen Kumpel Simon später mit ihrem
10:40Fake-Video auf die Probe stellen. Was hält Mama Katja von der Idee?
10:44In den Nachrichten hier und da hat man schon mal Sachen gesehen. Da denkt man auch so zum
10:47ersten Mal, oh holla, also das ist schon jetzt irgendwie krass, hat der das wirklich gesagt
10:51oder so? Im Test nutzen wir heute beispielhaft die App Witnos. Es gibt auch noch andere Apps,
10:57die KI-Content erstellen. Umsonst sind diese allerdings nicht. Zumindest sobald man den
11:02Service mehr als nur zum Reinschnuppern verwenden will. Die beiden kleben für das
11:07Fake-Video Aarons Gesicht mithilfe der KI auf einen Stuntman in einem Internet-Video. Dafür
11:13brauchen sie nur wenige Klicks. Mama Katja findet das Ergebnis ziemlich komisch.
11:18Also denkst du nicht, man könnte uns das abkaufen? Also ich meine, das ist nicht meine Generation,
11:26aber das wird auch ich erkennen, dass da irgendwas nicht stimmt.
11:32Die Brüder basteln gleich noch ein bisschen weiter an ihren Videos und die nächste Mission
11:37ist auch schon in Aussicht. Sollen wir auch mal ein Video von dir machen? Wie von mir, mit KI? Ja,
11:43wo wir, keine Ahnung, die Sprache von dir verändern oder so, auf der du redest. Boah,
11:47hätte ich Bock drauf, ja. Als nächstes schnappen sie sich eins von Mamas geposteten Urlaubsvideos
11:52aus Bulgarien und lassen das Ganze übersetzen. Natürlich auf Bulgarisch. Wer am Sonnenstrand in
11:58Bulgarien Urlaub macht, sollte sich unbedingt die Halbinsel Nesipa anschauen. Wir haben das
12:02Video fertig, willst du mal gucken? Ja, klar. Okay, pass auf.
12:05Heute putschiwa na sonchev bryag v Bulgaria, drjava ne premenni dristipuvo.
12:10Teilweise höre ich mich raus, aber zeitweise höre ich gar nichts von mir. Vielleicht ist es auch
12:17einfach komisch, weil ich mich selber ja noch nie Bulgarisch hab reden hören. Und Katja findet
12:22ihr Urlaubsvideo in Bulgarisch so lustig, dass sie es ein paar Freundinnen weiterschickt,
12:26um sie zu überraschen. Jetzt habe ich die erste Nachricht bekommen von einer Freundin. Ich glaube,
12:31wir müssen unbedingt mal wieder telefonieren und Herzmojis. Ich glaube fast, die glaubts mir.
12:38Zurück bei Aaron und Noelle ist auch deren Stunt-Deepfake-Video fertig. Sie haben es
12:43Kumpel Simon geschickt und der revanchiert sich direkt mit einem Videoanruf. Wie fandest du das
12:48Video? Ich bin hellauf begeistert. Also krass, dass ihr so Leistungen einfach vollbringen konntet.
12:54Also hätte ich ja gar nicht gedacht, dass ihr körperlich das in der Lage seid.
13:03Dass das Video der Brüder nicht echt ist, hat er natürlich gleich erkannt. Fand die
13:07Aktion dennoch lustig. Es wird definitiv mit jedem Tag mehr und mit jedem Tag auch skurriler. Ich
13:12hatte auch wirklich schon, ich glaube zweimal oder so den Fall, wo ich auf Instagram einfach
13:16ein Video angeguckt habe und wirklich erst, als ich in die Kommentare gegangen bin, gecheckt habe,
13:22ach Leute, das ist KI generiert. Mama Katja sieht den Online-Trend eher kritisch. Da, wie gesagt,
13:27ist ja auch die Gefahr dann generell im Netz, wenn dann natürlich irgendwelche Leute irgendwas
13:31hochladen, dem man vertraut im Außen, dass man da nicht in die Tiefe einsteigen kann. Ist das
13:37denn jetzt irgendwie Fake oder ist das jetzt wirklich real? Es sieht noch lange nicht perfekt
13:41aus, aber man muss dem halt wirklich irgendwie zwei Jahre geben und dann sieht es perfekt aus
13:45mit einem Klick und dann kann das ziemlich gefährlich werden. Die Dederichs hatten mit ihrem
13:49Ausflug in die Welt der Deepfakes Spaß und klar kann das auch super witzig sein, aber KI kann
13:55einen auch in Welten schicken, die man selber nicht mehr kontrollieren kann. Oder haben wir
14:01diese Kontrolle sogar schon in manchen Bereichen verloren? Wie sehr beeinflussen uns KI generierte
14:07Videos und Fake News, wenn ich mein Kreuzchen bei der Wahl mache? Nächstes Jahr steht die
14:11Bundestagswahl an und der US-Wahlkampf, der geht gerade in die heiße Endphase. Wie also
14:17läuft das, wenn künstliche Intelligenz eingesetzt wird, um uns als Wähler zu beeinflussen?
14:22Das TikTok-Profil des AfD-Politikers Maximilian Krah. Zu jedem Video gibt es ein Titelbild,
14:29das perfekt zu den Schlagzeilen passt. Der Trick? Die meisten Fotos sind nicht echt,
14:34sondern KI generiert. Besonders die AfD nutzt solche Bilder in sozialen Netzwerken. Oft sind
14:40sie nicht so harmlos. Eine Gruppe aggressiver Flüchtlinge. Eine verängstigte Frau, die von
14:46einem dunkelhäutigen Mann verfolgt wird. Hier werden Ängste zu Bildern. Aber die Bilder sind
14:51nicht echt. Keine der gezeigten Situationen hat es so wirklich gegeben. Dass gerade die AfD die
14:57Technik in dieser Weise nutzt, ist keine Überraschung, sagt der Politikwissenschaftler
15:01Andreas Jungherr. Ich glaube, das liegt ein Stück weit damit zusammen, weil sie es hier mit einer
15:05Partei zu tun haben, die eben keine Angst vor der Kontroverse haben muss, was sie ohnehin schon sehr
15:09sehr negativ oder auch sehr sehr kontrovers in der Öffentlichkeit diskutiert wird. Ob oder wie sie
15:13dann eben da KI im Wahlkampf einsetzt, ist da eben nur noch ein weiterer Baustein. Die AfD im
15:20Stauferkreis Göppingen geht noch weiter. Auf ihrer Facebook-Seite erklären Menschen, warum sie der
15:26Partei beigetreten sind. Wie Stefanie Müller. Sie sei in die AfD eingetreten, weil sie woanders
15:32ausgegrenzt würde. Das Problem? Stefanie Müller existiert so nicht. Das Foto ist KI generiert.
15:38Besonders die Mundpartie wirkt unecht, auch die Nase passt nicht. Ob das Zitat echt ist, bleibt
15:43unklar. Trotzdem halten die Nutzer die Person für real. Mutige junge Frau, heißt es in einem
15:48Kommentar. Auch andere Parteien nutzen solche KI-Bilder, zum Beispiel die CDU in Sachsen. Ein
15:54Wahlplakat für die Briefwahl, so sieht es zumindest aus. Aber auch dieser Herr und sein Grill kommen
16:00aus dem Computer. Wo verläuft für die Parteien die Grenze? Was ist harmlose Illustration? Und wo
16:06beginnt Manipulation? Für unsere Recherchen haben wir alle großen Parteien gefragt, wie sie KI im
16:11Wahlkampf nutzen. Die Antworten sind sehr unterschiedlich. Die CDU sagt, man habe noch
16:17nicht entschieden, ob und wie man KI einsetzt. Wenn, dann gesetzeskonform und transparent. Ähnlich
16:23äußern sich die SPD und die FDP. Die Grünen nutzen KI zur Datenanalyse, aber nicht für Bilder
16:29von Personen. Die Linke verwendet schon KI generierte Bilder im Wahlkampf, jedoch gekennzeichnet. AfD und
16:35Bündnis Sarah Wagenknecht haben bis Redaktionsschluss nicht geantwortet. Die Parteien beginnen also
16:41gerade, ihr Verhältnis zu KI zu klären. Auch in den USA läuft der Wahlkampf und KI generierte Inhalte
16:47dominieren immer wieder die Schlagzeilen. So behauptet Donald Trump kürzlich, Taylor Swift und
16:52ihre Fans würden ihn wählen, belegt mit gefälschten Bildern. Swift unterstützt aber die Demokraten und
16:59ihre Fans registrieren sich massenweise für die Wahl. Eine subtilere Technik ist der Einsatz von
17:03Bots, die sich in sozialen Medien als echte Menschen ausgeben. Bei den letzten US-Wahlen
17:08waren sie noch leicht zu erkennen, da ihre Beiträge oft grammatikalisch falsch oder
17:12kontextlos waren. Heute fluten KI-Bots fehlerfrei in hunderten Sprachen die Netzwerke, antworten
17:19auf Fragen und beeinflussen so die Wählerschaft. Gleich die Politik also einer Fake Reality? Nicht
17:24unbedingt. Es kann tatsächlich sein, dass eben diese allgemeine Verfügbarkeit von KI, die wir dann
17:30generell sehen, eben auch wieder eben die tatsächliche Authentizität vom Bild, von der
17:34persönlichen Ansprache dann auch wieder erhöht. Das heißt also, dass dann unter Umständen da
17:38wiederum auch ein Premium ist und dass hier dann eben Kandidatinnen und Kandidaten, um sich dann
17:42halt abzusetzen, eben besonders versuchen, Authentizität an den Tag zu legen oder bewusst
17:47dann Authentizität in ihren Bildmaterialien zu inszenieren. 2024 gibt es weltweit mehr als 70
17:55Wahlen. Fast die Hälfte der Weltbevölkerung gibt ihre Stimme ab. Künstliche Intelligenz könnte die
18:00Meinungsbildung im Wahlkampf revolutionieren oder die Demokratie durch gezielte Manipulation
18:05gefährden. Und weil es in den USA schon so heiß hergeht im Wahlkampf und wir ein Jahr vor der
18:12Bundestagswahl sind, sprechen wir darüber. Die KI-Vars heißt ihr Buch, aber wie genau täuscht
18:18sie uns? Das fragen wir die Professorin von der RPTU Kaiserslautern. Sie war Mitglied der
18:22Enquete-Kommission der Bundesregierung, ist heute hier. Die Professorin Katharina Zweig. Schön, dass
18:26Sie da sind. Vielen Dank für die Einladung. Was ist wahr, was ist fake? Wenn ich mich jetzt als
18:31Wählerin, wo es sowieso schon so kompliziert ist in der Politik, auch noch damit auseinandersetzen
18:35muss, inwiefern erschüttert KI mittlerweile unser Vertrauen? Ja, ich glaube, dass das wirklich ein
18:41riesengroßes Problem ist, weil wir ja ständig wachsam sein müssten, aber so viel mentale Energie
18:46können wir gar nicht aufbringen. Deswegen ist es umso wichtiger, wo wir unsere Quellen haben,
18:51wo wir unsere Informationen lesen. Ich habe das Gefühl, wir müssen auch gar nicht in die USA
18:57schauen. Das merkt man so an den ganz vielen Fragen, die gestellt worden sind, auch von unseren
19:01Zuschauern. Wie gefährlich ist das Thema KI auch in Bezug auf die Bundestagswahl? Könnte da
19:08möglicherweise eine Einflussnahme aus anderen Ländern wie Russland oder China passieren? Ja,
19:15das fragt man sich schon. Ja, das fragen wir uns, glaube ich, alle. Und ich kann dazu nur sagen,
19:21die Gruppen, die vorher schon manipuliert haben, die können das jetzt deutlich schneller,
19:25günstiger tun und sie können das an ganz viele Personengruppen anpassen. Also wer auch immer uns
19:31manipulieren will, kann das jetzt schneller und günstiger tun. Wir bleiben noch ein bisschen
19:35dabei, wie man Fakes gut erkennt, was da hilft. Klar, ein Profi wie Sie, den haben wir halt nicht
19:40alle da, aber ehrlicherweise sind die meisten von uns total überfordert, was eigentlich echt ist
19:46und was nicht. Fake-Fotos, Fake-Videos und auch Fake-Audios. Hi, it's me, Ben Geyer. Die
19:53komplette Bandbreite an KI-Inhalten ist online zu finden. Nicht einfach, da den Überblick zu
19:58behalten, sagt Zweifach-Mama Sherilyn Michalski. Ich finde es ganz, ganz schwierig, da irgendwie
20:06die Reihe rauszufinden, ob das jetzt echt ist oder ob das KI ist. Und wenn man das nur so
20:12überfliegt, dann finde ich, ist es eigentlich auf den ersten Blick gar nicht rauszubekommen.
20:17Sherilyn ist viel online unterwegs. Bei Fake-Profilen wie diesem mit mehr als 300.000
20:22Followern fragt sie sich, ob jeder weiß, dass das hier nicht echt ist und möchte wissen? Warum das
20:28nicht gekennzeichnet wird immer, dass es KI generiert ist. Ich bin da halt total in Sorge,
20:36gerade wegen meiner Tochter, sie ist 13 Jahre alt, dass sie ein absolut falsches Bild bekommen,
20:41wie Menschen aussehen. Mit ihrer Frage, warum KI nicht rechtlich verpflichtend gekennzeichnet wird,
20:48richtet sie sich an die Landesmedienanstalt Nordrhein-Westfalen. Dort gibt es seit einigen
20:52Jahren das Projekt Zebra. Auf der Internetseite kann jeder anonym Fragen rund um Medien stellen.
20:58Das kommt auch immer wieder vor, dass wir auch mit da hinzugezogen werden, wenn es darum geht,
21:03einfach Fakten zu entlarven und gerade auch Tipps zu geben, wie ich das selbstständig machen kann.
21:07Die Landesmedienanstalt NRW geht selbst auch gegen unzulässige Quellen vor und das sogar
21:12mit Hilfe von KI. Wir sind dafür zuständig, Rechtsverstöße im Netz zu finden, also Verstöße
21:18gegen den Jugendschutz, Hass, Hetze, Antisemitismus. Was früher Mitarbeitende erledigt haben, übernimmt
21:25seit 2021 das KI-Tool Kiwi mit sehr hoher Trefferquote. Der Algorithmus durchkämmt dabei
21:31das Netz, sammelt verfassungsfeindliche Inhalte und gibt sie zur Prüfung weiter. Damit schaffen
21:36wir es eben nicht mehr 10, 12, 30 Verfahren, sondern hunderte und tausende Verfahren einzuleiten
21:42und damit dieser zunehmenden Welle von Hass und Hetze gerecht zu werden. Auch beim Fernsehen
21:47werden täglich kritische Quellen und Inhalte entlarvt. Hierzu klickt sich Dustin Haak von
21:52den WDR-Nachrichten durch zig Beiträge. Nun dann läuft das über den Newsticker ein,
21:56wir bekommen Fotos, Videos entweder geschickt oder finden die online irgendwo. Oft tauchen
22:03neue Meldungen bei sozialen Netzwerken wie X, Facebook, Instagram oder TikTok zuerst
22:07auf. Dustin prüft, ob es sich um Fake-News handelt, wie bei diesem Foto, das zeigen soll,
22:13wie britische Polizeibeamte vor Imamen knien. Das kann jeder über die Google-Bildersuche
22:26machen. Dort findet man zum Beispiel Angaben, ob ein Bild schon älter ist oder ob es von
22:30dem Ereignis Fotos aus mehreren Perspektiven gibt. Dann checkt Dustin das Foto selbst.
22:35Die Hände hier, sieht man das so ein bisschen, die sind merkwürdig groß und das alleine
22:40ist erstmal kein Beweis dafür. Aber wenn ich mir die Vielzahl der Elemente anschaue,
22:45hier unten zum Beispiel, ich weiß gar nicht, wo der Fuß und das Bein hingehört richtig.
22:50Eigentlich müsste dieser Mann doch ein Bein haben. Das geht aber nicht dahin, das geht
22:55eher dahin. Aber da ist noch eins. Hier fehlt ein Kopf. Das sind in der Summe einfach viele
23:01Dinge, die mich aufhorchen lassen. Das Foto ist Fake. Bald könnte KI helfen, solche Fotos
23:10schneller zu entlarven. Und weil sie immer mehr Raum einnimmt, wurde im August 2024 eine
23:15europäische Verordnung erlassen über künstliche Intelligenz, der AI-Act. Diesen Hinweis gab auch
23:21das Fragenportal Zebra.de Sherilyn Michalski. Sie wollte wissen, warum noch nicht alle KI-Inhalte
23:27gekennzeichnet sind. Aber was bewirkt diese neue Gesetzgebung? Sie soll dem Ziel dienen,
23:33einheitliche Regeln für die Entwicklung und Verwendung von KI-Systemen zu schaffen. Auf
23:39jeden Fall ist es für mich als Mutter schon beruhigender, dass man weiß, dass in Zukunft
23:44sich da was ändern wird. Also es passiert was, aber was könnte noch kommen zum Kennzeichnen von
23:49KI, Professorin Zweig? Wie könnte so ein Schutz aussehen? Ja, ich glaube zuallererst brauchen wir
23:55neue Hardware. Also die Kameras, die hier um uns herum sind, die müssen die Metadaten, wann ist
24:01etwas aufgenommen worden, vielleicht auch von wem ist das aufgenommen worden, so stark mit der
24:05eigentlichen Bilddatei dann verweben, dass man das nicht mehr trennen kann. Ich glaube, wir brauchen
24:10mehr Transparenz. Und da gibt es jetzt ja auch verschiedene Allianzen, die versuchen rauszukriegen,
24:15wie machen wir das jetzt am besten. Und der WDR ist auch zwei solchen Allianzen zugetreten,
24:22und ich glaube, das müssen wir jetzt als Gesamtsystem verstehen, wie das am besten geht.
24:26Da werden Lösungen gesucht für die Zukunft. Jetzt sind wir aber im Hier und Jetzt so ein
24:30bisschen gefangen. Und was man da macht, darum dreht sich auch unsere nächste Frage.
24:33Wie kann ich überhaupt erkennen, dass das jetzt zum Beispiel der echte Christian Lindner, der echte
24:39Olaf Scholz ist und nicht irgendein Diebfeld, der mir irgendwas erzählt, was gar nicht die Idee von
24:43Olaf Scholz wirklich ist? Ja, das Erste ist natürlich, wo habe ich denn jetzt das Video
24:49gesehen? Ist das von deren eigenen Account oder von deren Parteien? Dann können wir davon ausgehen,
24:53dass das korrekt ist. Und ansonsten, glaube ich, ist der Ratschlag, lieber von weniger Quellen
24:59Informationen bekommen und die sehr, sehr genau aussuchen. Und natürlich sollten wir als Bürger
25:04und Bürgerinnen auch bereit sein, für guten, unabhängigen Journalismus zu zahlen. Vielleicht
25:09finden wir auch andere Wege, mehr die Finanzierung zu stärken für unabhängigen Journalismus. Ich
25:15glaube, dass das der einzige Weg ist. Nehmen wir nochmal, um das zu verstehen, das Beispiel vom
25:19Anfang der Sendung. Also wir haben das Fake-Video vom bekannten Rückenarzt Grönemeyer gesehen und
25:23das gucken wir uns nochmal an und achten so ein bisschen darauf, woran ich erkenne vielleicht,
25:27was fake ist und was komisch ist. Dieses Produkt aktiviert innerhalb weniger Stunden Stoffwechselprozesse
25:33im Körper und normalisiert den Hormonhaushalt. Dies fördert einen beschleunigten Gewichtsverlust
25:40in nur wenigen Wochen. Ich hätte es jetzt gar nicht so gemerkt auf den ersten Blick. Also ich
25:46merke das auch nur, wenn mich jemand darauf hinweist. Aber wo man hingucken kann, ist zum
25:50Beispiel auf die Lippen. Denn was passiert? Das Video an sich ist ja echt. Da wurde ein neuer
25:55Text drunter gelegt und die KI hat jetzt vor allen Dingen die Mundpartie verändert. Deswegen
26:00sieht die auch ein bisschen anders aus. Aber was die vor allen Dingen nicht so gut geschafft haben,
26:04ist die Gestik. Das gucken wir uns nochmal an. Ja, das sollten wir uns nochmal angucken. Dieses
26:08Produkt aktiviert innerhalb weniger Stunden Stoffwechselprozesse im Körper und normalisiert
26:14den Hormonhaushalt. Und da bringt er die Hand so hoch und das macht eigentlich gar nicht viel
26:18Sinn an dieser Stelle. Aber das liegt eben daran, dass man versucht hat, die Stimme zu verändern,
26:24den Mund zu verändern und auf die Gestik hat man nicht so arg drauf geachtet. Aber ganz ehrlich,
26:29wir haben ja nicht beliebig viel mentale Energie. Wir können nicht den ganzen Tag auf dieser Ebene
26:35Videos jetzt ständig auf Fakes untersuchen. Also insofern, das kann man am Einzelbild vielleicht
26:40machen. Das können wir jetzt noch machen. Aber je besser diese Software da wird,
26:45desto schwieriger wird das werden. Ja, das hätte ich jetzt gedacht. Das klingt so fatalistisch.
26:48Aber wie lange wird das noch dauern, bis ich eigentlich das gar nicht mehr erkenne? Ja,
26:52es kommt auch immer drauf an, wie viel Geld die hineinstecken. Wenn die jetzt auch noch die Hand
26:57mitgenommen hätten, wäre es schon nicht mehr so gut zu erkennen gewesen. Also geben sie uns noch zwei,
27:01drei Jahre. Okay, dann bei der nächsten Wahl. Vielen Dank, Professorin Zweig. Und weil nicht
27:07jeder, Frau Zweig, an der Uni hat oder studieren kann, wie man die KI entlarvt,
27:12gibt es zumindest schon im Kleinen gute Ansätze in Nordrhein-Westfalen, die Menschen schlauer zu
27:17machen. Und dafür fährt vor allem an Schulen das KI-Mobil vor. Das ist eine Initiative,
27:22die von Microsoft unterstützt wird. Da gibt es viele wichtige Tipps rund um Fakes und Täuschungen
27:27Im KI-Mobil lernen, wie künstliche Intelligenz funktioniert. Fakes erkennen, Songs komponieren.
27:39Die Schüler sollen fit gemacht werden für die Zukunft. Warum geht es eigentlich zu begreifen,
27:45dass die KI jetzt nicht plötzlich da ist und man als Mensch sich zurücklehnen kann, sagen,
27:50das macht jetzt alles die künstliche Intelligenz, ich muss gar nichts mehr tun. Sondern es geht
27:54darum zu begreifen, dass man das nur in Zusammenarbeit mit der künstlichen Intelligenz
27:58machen kann. Das passt doch ganz gut. Die KI lernt sowieso und wir auch, dann geht das wieder
28:04zusammen. Aber weil das Mobil nicht bei Ihnen zu Hause vorfährt, haben wir ganz viele Infos und
28:10Apps online für Sie. Finden Sie ganz entspannt auf ki.wdr.de. Das war unser Leben mit KI, wie
28:18uns künstliche Intelligenz täuscht. Schön, dass Sie zugeschaut haben. Da freut sich das
28:23ganze Team und die Freude, die ist echt. Kein Fake. Einen schönen Abend und bis ganz bald hier im WDR.

Empfohlen