Destek Olmak İçin:
https://www.youtube.com/channel/UCojOP7HHZvM2nZz4Rwnd6-Q/join
Özlem Gürses'le 5 Dakikada Dünya Gündemi
Podcast Linki : https://open.spotify.com/episode/2BrfT4VHgTtUJcevyM2cLn?si=rIy-2Q8eS7O0y9zvblRArw
Özlem Gürses gündemi sizin için yorumluyor...
•••
Yeni Videolardan Haberdar Olmak İçin - https://bit.ly/3dEwomR
•••
- Sosyal Medya -
https://www.instagram.com/ozlemgurses/
https://twitter.com/OzlemGurses
http://www.ozlemgurses.com/
•••
Bize Ulaşmak ve İşbirliği Yapmak İçin : iletisim@ozlemgurses.com
#ÖzlemGürses #Deepfake #Haber
https://www.youtube.com/channel/UCojOP7HHZvM2nZz4Rwnd6-Q/join
Özlem Gürses'le 5 Dakikada Dünya Gündemi
Podcast Linki : https://open.spotify.com/episode/2BrfT4VHgTtUJcevyM2cLn?si=rIy-2Q8eS7O0y9zvblRArw
Özlem Gürses gündemi sizin için yorumluyor...
•••
Yeni Videolardan Haberdar Olmak İçin - https://bit.ly/3dEwomR
•••
- Sosyal Medya -
https://www.instagram.com/ozlemgurses/
https://twitter.com/OzlemGurses
http://www.ozlemgurses.com/
•••
Bize Ulaşmak ve İşbirliği Yapmak İçin : iletisim@ozlemgurses.com
#ÖzlemGürses #Deepfake #Haber
Category
🗞
HaberlerDöküm
00:00Herkese merhaba biliyorsunuz bir süredir dezenformasyonla mücadele konusunda on bölümlü kısa böyle küçük bölümlerden oluşan bir seriye başladık.
00:08Neden? Çünkü hepimizin başının belası. Sürekli olarak sosyal medyada ve internette yanlış yalan yönlendirilmiş manipülatif bilgiyle karşılaşıyoruz.
00:17Ve ne yapacağımızı neye inanacağımızı hakikati nerede bulacağımızı bilemiyoruz.
00:21Onun için en doğrusu sorumluluğu bireysel almak ve kendimiz okur yazar olmak.
00:26Bak şu meseleyi tane tane bölüm bölüm anlatıyorum size. Önce birinci bölümde biliyorsunuz dezenformasyon nedir, nasıl yapılır, kim yapar?
00:34Çünkü bunu devletler de yapıyor, şirketler de yapıyor, başka odaklar da yapıyor. Bütün bunu anlattık.
00:41İkinci bölümde fotoğraf üzerinde nasıl işlenme yapılabilir ve bir fotoğraf nasıl değiştirilebilir, nasıl dönüştürülebilir? Bunu anlattık.
00:49Üçüncü bölümde ise ses ve video nasıl sahte olarak üretilebilir?
00:54Kendi sesinizi ve kendi videonuzu bambaşka bir içerikle internette nasıl görebilirsiniz ve burada başınıza neler gelebilir?
01:01Bunu değerli bir isimle konuşacağız. Kendisi hem bir akademisyen hem de aslında çok enteresan bir ünvan kullanıyor.
01:09Kendisine şöyle diyor, bir saniye tam olarak söylemeye çalışacağım.
01:13Üretken yapay zeka eğitmeni, çünkü yapay zekanın kötü kullanım alanları var, o olumlu kullanım alanlarında çalışan bir akademisyen.
01:22Hem de sosyal fayda iletişimcisi, yani interneti kullanarak sosyal fayda üretmeye çalışıyor.
01:28Zaten bir de YouTube kanalı var, adı da Sosyal Kafa TV. Sinan Hocam, Sinem Sakar, hoş geldiniz.
01:34Hoş bulduk, sevgili Özlem Gülsöz, çok teşekkür ederim övgüleriniz için.
01:40Ben de çok seviniyorum, tarzınıza da bayılıyorum. Saçlar yine mavi falan böyle, bu taraf kulaklanmış.
01:45Amerika'dan bağlanıyor Sinem Hoca'nın da, evet. Yeni stil, çok güzel olmuş.
01:49Çok teşekkür ederim, siz de çok güzel gözüküyorsunuz. Sizi de görmek çok güzel.
01:54Daha yeni geldik buraya ama böyle onlar bağlantılarda tabii böyle hasret gidermek de güzel oluyor.
02:01İlk defa Amerika'dan döndüğünüzde yine görüşelim.
02:04Şimdi hocam, bu bölümde ben izleyicilerimize dijital okuryazarlıkla ilgili olarak deepfake videolar
02:11ve bu videoların kullanım ve üretim alanlarını anlatmak istiyorum.
02:15O nedenle de yani siz başlayın istiyorum.
02:18Geçenlerde Instagram hesabınızda, şimdilerde kapalı olan Instagram hesabınızda siz bir video paylaştınız.
02:25Şu, onu önce bir gösterelim.
02:27Başkanı Barack Obama, savaş barıştan daha iyidir derken görülüyordu.
02:33Bu video sosyal medyada hızla yayıldı ve büyük bir tartışmaya yol açtı.
02:37Bu videoda, ekranda gösterdiğimiz videoda Obama diyor ki savaş barıştan daha iyidir.
02:45Öyle mi demiş gerçekten?
02:47Tabii ki dememiş ama çok hızlı bir şekilde tabii bu özellikle deepfake videolar çok inandırıcı olabiliyor.
02:57Hızlı bir şekilde yayılıyor ve dolayısıyla birçok insan bunun doğru olduğunu hemen ikna olabiliyor.
03:04Zaten konumuz dezenformasyon bir yandan da.
03:07Deepfake de artık yani nasıl söyleyeyim en üst seviyesi oldu.
03:13Ben bile bazen gerçekten bayağı çelişkiye düşüyorum.
03:18Acaba gerçek mi değil mi diye açıkçası.
03:21Deepfake video nedir?
03:22Yani deepfake video şöyle bir şey mi?
03:24Gerçekte var olan bir insanı görüyoruz çoğunlukla yani.
03:27Ve bu kişi genellikle şöhretli, ünlü bir kişi oluyor.
03:31Bir siyasetçi olabilir, bir sporcu olabilir, atıyorum işte bir iş insanı olabilir, bir gazeteci olabilir.
03:38Şöhretli bir insanı görüyoruz ve aslında söylemediği şeyleri sanki söylüyormuş gibi montajlanmış ama sesi kendi sesi çoğu zaman.
03:48Kendi sesi kullanılıyor yani bu videoda da Obama'nın orijinal sesini duyuyoruz.
03:54Kendisi konuşuyormuş gibi kendi ses tonunu aynı desiverde duyuyoruz ama aslında söylemediği bir şeyi söylüyor.
04:01Tehlikeli bir şey yani nasıl yapılabiliyor böyle bir şey onu soracağım ama şu son dönemde çok popüler olan bir isim var olimpiyatlar döneminde.
04:08Yusuf Dikeç sporcumuz.
04:10Şöyle bir videosunu izleyelim onu bir gösterelim.
04:23Bu videoda Yusuf Dikeç'i görüyoruz, ta kendisi elinde bir cep telefonu tutuyor.
04:53Üzerinde olimpiyatların lisanslı logolu t-shirt'ü var.
04:56Muazzam bir Australian aksanıyla İngilizce konuşuyor.
05:01Kendisiyle ilgili paylaşımlara bakıyor, yorumlar yapıyor ve bize bunları anlatıyor.
05:06Bu video Instagram'a, Instagram kapalıydı o günlerde, Twitter'a ve diğer platformlara düştüğünde olay oldu ve herkes dedi ki
05:14''Vaov Yusuf Dikeç ne kadar muazzam İngilizce konuşuyormuş meğerse.''
05:20Peki Yusuf Dikeç İngilizce konuşuyor gerçekten?
05:24Şöyle Yusuf Dikeç belki de çok iyi bir aksanla İngilizce konuşuyordur lakin burada ses klonlama kullanılarak farklı bir dile çevrilmiş olduğu da gözüküyor.
05:36Ve bu tür özellikle aslında translate olayları çok kolaylıkla yapılabiliyor.
05:42Ben bugün burada biraz fırtına vardı vakit bulabilseydim sizin sesinizi değiştirecektim farklı dillerde.
05:4970 dile kadar hatta ücretsiz uygulamalarda mesela İngilizce'yi 4-5 farklı aksanla gibi değiştirebiliyoruz.
05:59Hatta belki hatırlarsınız siz de görmüştünüz Emre Itus Hocam Haluk Şahin'in bir şiirini ben İspanyolca'ya çevirmiştim.
06:07Neredeyse 1 yıl önce ve 1 dakika sürüyor sadece.
06:11Bir dakika.
06:11Önce ses klonlama nedir onu anlatmanızı istiyorum.
06:16Yani bir kişinin orijinal ses diyelim ki ben şimdi sizinle burada konuşuyorum.
06:20Siz benim bu sesimin 10 saniyesini kaydettiniz.
06:23Tam da bu bölmeyi kaydettiniz.
06:25Siz benim bu sesimin 10 saniyesini kaydettiniz.
06:29Sonra bu bölümü alıp bir aplikasyona falan mı yüklüyorsunuz?
06:33Ve benim orijinal sesimle ben Türkçe konuşurken birdenbire beni Japonca, İspanyolca, İngilizce mi konuşturmaya başlayabiliyorsunuz?
06:42Şiirinize birkaç çeşidi var ama dediğiniz gibi özellikle bu tarz uygulamalar 1 yıldan beri çok fazla arttı.
06:49Benim de hatta kullandıklarım var.
06:52Burada bazılarında sizin sesinizi, normal konuşmanızı ve mimiklerinizi hatta dudak hareketlerinizi de çok fazla değiştirmeden
07:02yani bir şekilde normaldekine benzer bir şekilde kopyalayarak farklı dillere çevirebiliyorlar.
07:08Yani bu bir klonlama ve bunu aslında şu an gördüğümüz örnek
07:13tam da benim genellikle yapay zekayla ilgili iletişim anlamında pozitifleri anlattığım kısma biraz daha çok benziyor.
07:22Ama özellikle siyasi figürlerin seçim dönemlerinde çok fazla bu tarz videoları çıkabiliyor.
07:30Aslında söylemediği şeyleri söylemiş gibi gösterip sosyal medya aracılığıyla çok hızlı bir şekilde dünyanın her yerine yayılabiliyor.
07:40Burada zaten büyük veri ağları kullanılıyor ve bu büyük veri ağlarında da işte göz hareketleri, dudak hareketleri,
07:48belki el hareketleri ya da işte sesindeki tonlaması, duraklaması, gülüşü...
08:10Şimdi burada böyle bir ses var mı normalde? Konuşan Zelenski mi? Bu video sahte mi? Gerçek mi? O kadar çok gerçek gibi ki.
08:22Bu video sahte, üstelik de sadece fotoğraftan yapılmış bir video. Ne yazık ki hatta videodan yapılan bu tarz videolar çok daha gerçekçi oluyor.
08:33Ama fotoğraftan bile az önce söylediğim gibi şu anda bütün App Store'a ya da Android markete baktığınızda zaten
08:42application olarak cepte bile indirebileceğimiz, ayrıca arama motorlarına yazarak bir sürü bulabileceğimiz ses kopyalama teknikleri var.
08:53Hatta bunu işte dediğim gibi özellikle bu tarz zamanlarda normalde de zaten propaganda yapılmak için bir sürü sahte haber üretiliyor
09:05ve bunlar çok gerçekçi ve gerçekten günbegün ayırt etmek imkansızlaşıyor.
09:11Ve orada bir fotoğraf üzerinden konuşuyor, dudak hareketleri kopyalanmış.
09:18Mesela bu Tom Cruise'e çevrilmiş bir fotoğraf ya da işte Zelenski'nin bir fotoğrafından bir video üretilmiş.
09:24Ya da burada mesela bir aktör Al Pacino konusunda ama aslında orijinal imaj da o değil ve karşılaştırmada görebiliyoruz.
09:34Benzer şekilde mesela bir başkasının yüzünden ona demek ki ona bir video çektirildi, benzer bir yüz bulundu.
09:40Sonra o Brad Pitt'e dönüştürülüyor sanki o konuşuyormuş gibi.
09:43Ya da Zuckerberg, Mark konuşuluyormuş gibi Mark'ın fotoğrafından bir video üretilebiliyor.
09:48Galiba siz bu Meta'nın da kurucusu ve sahibi olan Mark'la ilgili videoyu göndermiştiniz yanlış hatırlamıyorsam.
09:54Evet, o da var. Çok gerçeğinden ayırt edilmesi bayağı zor olduğu için aslında gönderdim onu.
10:01Hemen bakalım.
10:02Bakalım ona da.
10:13Aman Tanrım. Yani bu kadar ciddi bir durumla karşı karşıyayız.
10:32Çok zor ayırt etmesi.
10:36Mesela ben şimdi sizinle konuşuyorum. Bu kaydı indirip birkaç tane site var.
10:41Sonra isterseniz sizinle isimlerini paylaşırım.
10:44Sizi böyle Instagram'ın kapalı olması bence kalıcı olmalı.
10:50Hatta YouTube'da kapatılmalı diye konuşturabilirim.
10:53Dolayısıyla da çok garip bir durum var ve burada aslında toplumun bilinçlenmesi en önemli kısım.
11:03Çünkü böyle şeyleri çok fazla göreceğiz artık bundan sonra. Görüyoruz da zaten.
11:07Pek bir kaçış yolumuz yok gibi gözüküyor.
11:10Şimdi ses kulonlamayı anlattınız. Arkasından video nasıl üretilebilir?
11:16Fotoğraftan bile bir videoya gidebiliyoruz ve demin Mark'ı bir daha gösterelim.
11:20Mark Zuckerberg'i izledik. Orijinali ilk video.
11:33Bu izlediğimiz birinci bölüm. Yani orijinal yazan, şimdi izlediğimiz bölüm.
11:38Adamın orijinal videosu yani. Kendisi konuşuyor, kendisinin kaydı.
11:42İkincisi üzerinde deepfake yazan, şimdi playlamaya, oynatmaya devam edeceğimiz üretilmiş bir video. İzleyelim.
12:03Evet, dubak hareketleri kendisine iliştirilmiş olan ama kendi orijinal sesinin decibelinde yapılmış olan o sahte sesi neredeyse %100 uyumlu.
12:14Onu nasıl yapıyoruz?
12:15Evet, şöyle mesela işte sizin ben normaldeki bir videonuzdan sadece sizin konuştuğunuz, atıyorum bir dakikalık bir kısmı alıyorum ve bu applicationları, bu web sitelerine yüklüyorum.
12:30Yükledikten sonra dilersem sadece metin yazarak sizin sesinizden bazı içerikler üretebiliyorum. İyi ya da kötü bir şekilde.
12:40İşte hani o tamamen tabii ki insanoğlunun hani değerlerine, değer yargılarına göre de değişen bir şey.
12:48Hani hakikat arayışı diyoruz ama herkesin de farklı bir hakikati var ama bu tam anlamıyla bir dolandırıcılık gibi bir şey aslında.
12:56Çok basit bir şekilde yani yüzümün size benzemesine bile gerek olmadan sizin gibi konuşup, aslında vücudumu hareket edip, yüzümü işte sizin yüzünüzü yapıp.
13:08Ama tabii şöyle bir durum var, sizin şimdi normalde çok izlenen bir habercisiniz, milyonlar sizi izliyor ve aslında sizin bir videonuzu gördüğümüzde
13:19belki duraksamalarınız farklı olursa, konuşmanız yavaş ya da hızlı olursa sizi tanıyanlar anlayabilir.
13:26Ama ben mesela Mark Zuckerberg'in bu videosunda hiç hala bakıyorum bakıyorum anlayamıyorum.
13:32Gerçekten acayip bir şey ve daha geçen gün yayınlarımdan birinde bir genç kadın siyasetçinin Amerika Birleşik Devletleri'nde haberini yaptım.
13:40Bu kadının görüntülerini almışlar, porno eklemişler, deepfake de yaygınlaştırmışlar ve kadın bir türlü derdini anlatamamış.
13:48O ben değilim, benim görüntümden ve sesimden üretilmiş.
13:52İki tarafı var bunun, gerçekten hiçbir alakası olmadığı halde zavallı sıradan insanlar ya da ünlü şöhretli insanlar korkunç şekilde kullanılabilir.
14:01Uyuşturucu satıp sanal bahisi oynatmak için fuhuş yapmak için aklınıza gelen her yöntem denenebilir.
14:08Bir de gerçekten çok karanlık dolandırıcılar, çok korkunç gangsterler orijinal videolarını hayır bu deepfake, bu ben değilim diyebilir.
14:17Hakikatin tamamen yok olduğu ve neyin yani çok korkunç bir şey yani yapay zekadan ben açıkçası siz üretken yapay zeka uzmanısınız.
14:26Yapay zekanın olumlu tarafını dünyaya anlatmaya çalışıyorsunuz ama ben çok korkuyorum Sinem Hoca.
14:32Özlem Hanım yani aslında evet tabii ki korkularda haklısınız ama bu şu anda zaten size düşen en önemli görevi yaparak toplumu bilinçlendirmeye çalışıyorsunuz.
14:44Dezenformasyon konusunu zaten 2-3 yıldan beri üzerinde aslında çalıştığımda bir konu şu anda mesela yapay zeka eğitimleri veriyorum işte Şişli Belediyesi'nde 20 haftadan beri hep aynı sorular da geliyor.
14:56Benim tek söylediğim şey robotlardan yani işte metaforik olarak korkmayın çünkü aslında onlar yazılımsal ve donanımsal olarak tabii ki insandan daha güçlü ama biz her an duygularımızın esiri olup
15:11işte mesela ben sizi sevdiğim için sizin paylaştığınız bir içeriği sanki sizi onaylamak için gibi altındakileri okumadan bile paylaşabiliyorum ya.
15:21Dolayısıyla benim söylediğim şey insan olarak bizim şu anda sakin kalmamız ve gördüğümüz şeylere bu sefer gerçekten inanmamamız.
15:30Çünkü zaten medya şirketleri de farklı bakış açılarında farklı haberler üretiyor.
15:35Bu teyit şirketleri için bile böyle yani bu bizim için de böyle.
15:40Dolayısıyla şu an biraz sakin kalıp bu yılı fazla içerik paylaşmadan ve gördüklerimize inanmadan geçirmek ve bu konuyla alakalı aslında videoları ve haberleri biraz okumak aynı şu an sizin yaptığınız gibi çok daha faydalı olur diye düşünüyorum.
15:59Şimdi tabii bu yani hani gençler Z kuşağı meseleyi anlamakta daha yetkin daha hızlı öğreniyorlar ama özellikle orta yaş ve üzeri kesim sosyal medya önemli ölçüde onlarda kullanıyorlar.
16:11Çok hızlı inanıyorlar yaygınlaşmasına büyük bir katkı sağlıyorlar çünkü anında retweet, repost her neyse ona basıyorlar ve bir anda yanlış bilgi her yere yayılmış oluyor onu temizlemekte ayrı bir mesele.
16:25Şimdi sesimizi ve görüntümüzü korumamız lazım çünkü her ikisi de aklımıza dahi gelmeyecek dolandırıcılık yöntemleri için kullanıldığı bilinir.
16:35Gene haberini yaptım geçtiğimiz aylarda Cumhurbaşkanı Erdoğan'ın sesini kaydetmiş bir dolandırıcı iş adamlarını aramış büyük patronlara nasıl ulaştı bilmiyorum ben Erdoğan'ım diye çünkü o sesle konuşuyor
16:48ve onlardan para istemiş Türkiye Cumhuriyeti için şöyle bir bağış topluyoruz şöyle bir kampanyamız var falan filan ve insanlar da inanmışlar tabi Erdoğan dava açtı bildiğim kadarıyla bu kişilerle ilgili ya da TikTok'ta bir kullanıcı ya Weekend ya Coldplay onun sesini klonlamış indirmiş kendi bestesini Dünya Journey'in o gruba söyletmiş Spotify'da falan en çok dinlenenlerde 5. sıraya falan yükselince şarkı Coldplay mi Weekend mi hangisiydi hatırlamıyorum.
17:17Bizim böyle bir şarkımız yok böyle bir kaydımız yok bu nereden çıktı filan diye şimdi bu ses meselesinin ne kadar mümkün olduğunu iki videomuzda göstereceğim birinde demin anlattığınız Haluk Şahin Hoca kendi yazdığı şiiri Türkçe kaydetti videoya siz benim gözümün önünde İzmir'de bir basın kampında o videoyu aldığınız Türkçe kaydedilmiş videoyu şu hale getirdiniz.
17:47Haluk Şahin'in, Profesör Haluk Şahin'in İspanyolca falan bildiği yok ama bir de ki şiiri Türkçe kaydedilmiş bir videoya getirdiğiniz Türkçe kaydedilmiş bir videoya getirdiğiniz Türkçe kaydedilmiş bir videoya getirdiğiniz Türkçe kaydedilmiş bir videoya getirdiğiniz Türkçe kaydedilmiş bir videoya getirdiğiniz Türkçe kaydedilmiş bir videoya getirdiğiniz Türkçe kaydedilmiş bir videoya getirdiğiniz Türkçe kaydedilmiş bir videoya getirdiğiniz Türkçe kaydedilmiş bir videoya getirdiğiniz Türkçe kaydedilmiş bir videoya getirdiğiniz Türkçe kaydedilmiş bir videoya getirdiğiniz Türkçe kaydedilmiş bir videoya getirdiğiniz Türkçe kaydedilmiş bir videoya getirdiğiniz Türkçe kaydedilmiş bir videoya getirdiğiniz Türkçe kaydedil
18:17miş bir videoya getirdiğiniz Türkçe kaydedilmiş bir videoya getirdiğiniz Türkçe kaydedilmiş bir videoya getirdiğiniz Türkçe kaydedilmiş bir videoya getirdiğiniz Türkçe kaydedilmiş bir videoya getirdiğiniz Türkçe kaydedilmiş bir videoya getirdiğiniz Türkçe kaydedilmiş bir videoya getirdiğiniz Türkçe kaydedilmiş bir videoya getirdiğiniz Türkçe kaydedilmiş bir videoya getirdiğiniz Türkçe kaydedilmiş bir videoya getirdiğiniz Türkçe kaydedilmiş bir videoya getirdiğiniz Türkçe kaydedilmiş bir videoya getirdiğiniz Türkçe kaydedilmiş bir videoya getirdiğiniz Türkçe kaydedilmiş bir videoya getirdiğiniz Türkçe kaydedilmiş bir videoya getirdiğiniz Türkçe kaydedilmiş bir videoya getirdiğiniz Türkçe kaydedilmiş bir videoya getirdiğiniz Türkçe kaydedil
18:47Komik bir şey daha söyleyeceğim. Ben kızına izletmiştim bir workshop'umda Ayşe'ye, sevgili Ayşe'ye ve çok duygulandı babasının İspanyolca şiirini.
18:57Yani bu aslında bütün konuştuklarımızın da bir özeti. Bu tatlı bir anı olarak ben yaptım. Normalde çünkü kendimiz dışındaki kişilerin videolarını bu şekilde değiştirmek hiç etik değil.
19:11Ondan sonra ve İspanyolca bilenler de İspanyol aksanında neredeyse hiç yanlış olmadığını söyledi.
19:21Ve Ayşe de kendi öz kızı da babasının İspanyolca şiiri okuduğuna inandı. Sizin kendi videonuz var, kendiniz yaptınız.
19:28Ya hani robotlar işimizi elimizden alacak?
19:33Benimkiyi neden almalılar soruyorum size.
19:36Ne zaman robotlar işimizi elimizden alacaklar?
19:42Neden benimkiyi almadılar soruyorum.
19:48İspanyolca konuşuyorlar.
19:53Bunu da kendiniz yaptınız değil mi? Söylediğiniz bir cümleyi önce Almanca'ya sonra Çince'ye mi, Japonca'ya mı?
19:59Bunu da kendiniz yaptınız değil mi? Söylediğiniz bir cümleyi önce Almanca'ya sonra Çince'ye mi, Japonca'ya mı?
20:06Şöyle Almanca, Japonca ve Arapça.
20:09Ve bunu cep telefonu applikasyonunda derken ve yolda yürürken yaptım.
20:13Mesela bu video Haluk Şahin'in videosuna göre aslında daha çok belli oluyor.
20:21Bunun sebebi de yürürken konuştuğum için dudak hareketlerimi tam yakalayamıyor.
20:26Tabit bir kamerayla, iyi bir çekimle, neredeyse biraz önce Mark Zuckerberg'in videosunda gördüğünüz gibi
20:34ve ücretli uygulamalarla ben sonuçta o kadar çok araçleniyorum ki
20:39ücretsiz 1-2 versiyonu oluyor yani kullanım hakkı.
20:42Onlar üzerinden bunları üretebiliyorum ve neler yapılabileceğini görüyoruz hepimiz.
20:48Bir de Arda Turan var, onu da izleyelim, onu da soracağım.
20:52Bu uygulamada insanlar günde 5000 liranın üzerinde kazanıyor.
20:56200 lira yükledikten sonra 96 bin lira bonus ve garanti kazanç elde etmek için hemen alacaksınız.
21:06Aynısı benim varmış, ben bulamıyorum, nereden bulunur bilmiyorum.
21:10Cilt bakım kremi öneriyormuşum, zayıflama ilacı öneriyormuşum.
21:15Fatih Portakal'ım var, o buldu ve dava açtı.
21:17Nefşin Mengün'üm var, yatırım tavsiyesi veriyor.
21:21Bu zannediyorum Arda değil ama Arda konuşuyormuş gibi.
21:24Bir daha izleyelim.
21:29Bu uygulamada insanlar günde 5000 liranın üzerinde kazanıyor.
21:33200 lira yükledikten sonra 96 bin lira bonus ve garanti kazanç elde etmek için hemen alacaksınız.
21:41Eşek büfe, dudak hareketleri falan yani sanki gerçekten o konuşuyormuş gibi.
21:47Dava açmak mümkün mü?
21:49Nasıl koruyacağız kendimizi?
21:50Şimdi ses kütüphaneleri varmış, oraya sesini veriyormuşsunuz.
21:54Senin sesin ve lif haklarını koruyorlarmış.
21:56Aynı şekilde bugünden sonra seslerimizi bir şirkete emanet edeceğiz.
22:00Fotoğraflarımızı bir başka şirkete, görüntümüzü bir başka şirkete.
22:04Nasıl yaşayacağız yani nasıl koruyacağız kendimizi yasal olarak?
22:07Yasal yaptırımlar yeterli mi yani bu regulasyonla?
22:11Yasal yaptırımlar ve regulasyonlar tabii ki yeterli değil.
22:14Ben hep şu örneği veriyorum.
22:1620 yıldan beri siber suçlarla ilgili çalışılıyor ama henüz pek de bir şey yapılmıyor.
22:21Gördüğünüz gibi Arda Turun'un burada birden fazla suç var bu arada.
22:25Deepfake var, ses klonlama var, yasa dışı kumar sitesi var, etik dışı bir uygulama var.
22:33Yani sevilen bir insanın önerisiyle insanları dolandırmanın çok dehşet verici bir yolu.
22:40Ve hiç kimse, yani birçok kimse daha doğrusu zaten deepfake nedir, nasıl yapılır vs. bunu bilmiyor bile.
22:48Dolayısıyla da gördüğü anda Arda Turun'u seviyorsa,
22:52evet hemen indireyim 200 lira yatırayım diye diye
22:55ben böyle şeyleri yakalayınca hemen ekran görüntüsü alıyorum çünkü çok çabuk kayboluyor.
23:00Çünkü işte tabii ki ünlü kişilere gönderiliyor.
23:03Muhtemelen dava süreci vs. hani korkuyorlar, yok ediyorlar ama o zamana kadar tabii olanlar oluyor.
23:10Bu dediğim gibi birçok kişinin başına geliyor ve ciddi şekilde bir pazar var burada.
23:16Büyük paralar kazanılıyor, bazısı bulunuyor bazısı bulunamıyor.
23:20O zaman burada tek çare çünkü değişmeyecek artık bu dünyadayız.
23:25Yani bu değişmeyecek ve çok hoş kullanım alanları da var aslında finalde onu göstereceğim.
23:31Bu değişmeyeceğine göre biz bilinçleneceğiz herhalde başka bir yolu yok bunun yani galiba.
23:38Nasıl anlayacağız yani dudak hareketine bakacağız herhalde yani anlamaya çalışacağız.
23:42Mesela bugün bu Yusuf Dikeç'in bu şeyine herkes inandı bir de YouTube'a şey yaptı.
24:03Ama Anadolu Ajansı logosu var videoda ya onu da sahte yapmış olabilirler mi ya?
24:07Tabii ki yani sadece şey kopyalar yapıştırır hatta sizin de videolarınızda bazen bu tarz şeylerden bahsediliyor.
24:14Eğer uygulamaları ile bile bir yerdeki herhangi bir obje değiştirebiliyoruz
24:19ya da işte bütün Photoshop tarzı uygulamalarda çok kısa bir anlık yani dekup edip
24:27ben de şu anda buraya istediğim her şeyin logosunu köşeye koyabilirim sonuçta.
24:32Önceki bölümde onu konuştuk zaten fotoğraf üzerinden de müthiş değişmeler yapılabiliyor.
24:37Olmayan bir şey oraya eklenebiliyor olan bir şey oradan silinebiliyor yani her şey değiştirilebiliyor.
24:44Nasıl yaşayacağız ne yapacağız?
24:46Şöyle yine yaşamaya devam edeceğiz çünkü insan aslında yapay zekadan daha komplike ve daha bence akıllı.
24:57Şöyle çünkü daha farklı yani bizim nöronlarımız var ve farklı bağlantılar kuruyor.
25:03Mesela tabii birçok örnek var ama şu an sizinle şu konu üzerindeyken ben şöyle bir örnek vermek istiyorum.
25:11Siz zaten normalde dezenformasyondan ya da işte bazı baskılardan dolayı siz ve sizin gibi de yerli gazeteciler
25:18farklı bir mecrada içerik üretiyorsunuz ve sizi izleyenler devamlı sizi izlemeye devam ediyor
25:24ve bildikleri, inandıkları kişileri daha çok takip edip sosyal medyada önüne çıkan içerikleri
25:33özellikle önce en önemli şey paylaşmamak çünkü sadece Instagram, Facebook, TikTok değil
25:40ben geçen yıl bir dezenformasyon çalışmasına katılmıştım.
25:4465 yaş üzeri insanların WhatsApp'taki haber yayım hızı hepsinden daha fazlaymış.
25:54Bu dolayı mı bilmiyorum.
25:56Bildiğin yani bununla nasıl mücadele edeceğiz?
26:00Yani burada sürekli olarak bilinçlendirme yapmaktan başka hiçbir şansımız yok.
26:04Belki de ders olarak konmalı yani.
26:06Tabii ben de aynı şeyi düşünüyorum.
26:09Zaten aslında verdiğimiz dersler de hep değişiyor.
26:12Çünkü 3-4 gün hasta olup yatmıştım ve kalkana kadar bu işlerle uğraşamadım.
26:19Kalktığımda bile birçok şey değişmişti.
26:22Ve ben her gece bu yüzden bir şeyler okuyup bir şeyler incelemek zorunda kalıyorum.
26:26Bir hafta bakmasam haberim olmuyor bir şeyden.
26:30Çünkü inanılmaz bir makinenin gelişim hızı var ve biz insan olarak o hıza zaten yetişemeyiz.
26:37Bir de şöyle bir nokta var bence.
26:39Şimdi kandırılmaya müsait insan oldukça kandıran insanların teknikleri de hep değişiyor.
26:45Çok eskiden kapıya not bırakılırdı.
26:48Bill Gates servetini dağıtırdı.
26:50Seçim döneminde montaj videoları olurdu.
26:53Kaset meseleleri var.
26:55Eskiden hayır hayır montaj denirdi.
26:58Demin Bungster örneğinde dediniz ya yapay zeka diyebilirler diye.
27:03Bunları test etmek gerçekten çok zorlaşıyor.
27:07Sosyal medyada hepimizin içerik üretebildiği bugünlerde dediğim gibi
27:12öncelikle paylaşmamak ve devamlı bununla ilgili haberleri takip etmek.
27:17Ben sadece algoritmalarımı bu haberlere doğru yönlendirdim.
27:23Dünyada ne oluyor?
27:25Hep yakalamaya çalışıyorum ama emin olun ki
27:27arada ben de inanıyorum bir şeyleri gördüğümde
27:30çok saçma ama 24 saat eşimle birlikte hem de bu iş üzerine çalıştığım zaman
27:36Aynen eşiniz de bir profesör ve bu alanda uzman bir profesör.
27:41Siz sürekli bu alanda çalışıyorsunuz.
27:43Demek ki biz faniler, cemaat ünlüyelere yanılabiliriz.
27:47Benim yanıldığım da oldu biliyorsunuz zaman zaman.
27:50Dolayısıyla bunlara inanmak çok mümkün.
27:53Sürekli böyle bir diken üstünde, teyakküzde, dikkatli bir şekilde, farkında olarak yapmak lazım.
27:58Öte yanda...
28:00Düşünsenize telefonda duydunuz mu bu sesi?
28:03Biraz önce Recep Tayyip Erdoğan örneğinde verdiğiniz gibi.
28:07Ben sesimle mesela bu sesi kopyalayarak
28:11benim rehberimdeki kişilerden
28:13ya canım şu an çok sıkıştım
28:15bana bir 10 bin lira gönderir misin?
28:17Yarın sana hemen yollarım desem
28:19bayağı 100 kişi falan gönderir yani.
28:24Zaten oluyor ya Instagram DM'de
28:26hayatım görüşemedik nasılsın falan
28:28birdenbire 10 yıl sonra bana bir şey yazıyor.
28:32Hemen arkasından bir WhatsApp mesajı geliyor.
28:34Instagram hesabım hacklendi sakın DM'lere tıklamayın falan.
28:37Evet ama ses ve o numaradan aranmak
28:41yani benim numaramdan aranabilir.
28:43Artık her şeyin bir yolu var ya
28:45dolayısıyla daha da inandırıcı olur.
28:49Özellikle belli bir yaş üzeri
28:51bence bu işleri sadece ufak ufak öğrenmeye çalışsın.
28:56Çünkü ben hani
28:58nasıl söyleyeyim filmli makineden
29:00DSLR'a geçişi ya da
29:02kurgu tekniklerindeki
29:04o geçişi gören birisi olarak
29:06ben bile bir ve yirmi dört saat
29:08bunun üzerinde uğraştığım halde
29:10inanıyorum.
29:12Yani güvendiğimiz insanları
29:14takip etmek ve bilinçlenmek dışında
29:16şu an çok söyleyebileceğim ne yazık ki
29:18mucizevi bir şey yok.
29:20Paylaşmamak önemli ama
29:22temkinli davranmak ve yaymamak konusunda
29:24sorumlu davranmak çok önemli.
29:26Yapay zekanın çok tatlı, olumlu tarafları da var.
29:28Bilimde vesaire de kullanılmaları var.
29:30Ama siz en tatlılarından birini
29:32göndermişsiniz. Onunla bitirelim isterim.
29:34Kim bu insanlar?
29:36Onlar anneannem ve dedem.
29:38Kendileri
29:40tabi ben anneannemin ben küçükken
29:42o beni büyüttü ama on yaşındayken falan
29:44kaybettim ve bu fotoğrafı
29:46daha yeni elime geçirdim.
29:48Bu tarz uygulamaları
29:50denerken promptla
29:52işte mesela İngilizce promptla
29:54ya da bazıları Türkçe işte yürüsünler
29:56gelinle damat diyorum ve yürüdüklerini
29:58görünce ben gecenin de
30:00ilerleyen saatleri de çok fena
30:02oldum yani. Nasıl ki
30:04Haluk Şahin'in sevgili
30:06hocam hatta
30:08babam gibi çok sevdiğim hocam kızı
30:10onun sesine duygulandığı gibi ben de
30:12hayatımda hiç
30:14görmediğim dedemin
30:16yürüdüğünü görünce ürperdim.
30:20Bu videoyu
30:22çok basit bir uygulamayla
30:24pardon bu fotoğrafı anneannenizin
30:26dediğiniz bu fotoğrafı. Bu en basitiydi yani
30:28şey işte. Bu videoya mı çevirdiniz?
30:30Bu videoya. Ücretsiz evet.
30:32Ücretsiz bir uygulamadan yaptım onu da.
30:36Ve ücretli sürümlerinde
30:38aslında burada birazcık dikkatli
30:40bakılınca her ne kadar fotoğraflarından
30:42tanısam da dedem bu arada işte
30:44Mehter takımını tekrardan kuran
30:46Hasan Tahsin Parsa'dan
30:48sonra diğer fotoğraflarını gördüğüm için
30:50yürürken aslında yüzünün değiştiği
30:52belli oluyor. Ama o
30:54ücretsiz sürüm olduğu için öyle.
30:56Yüzünü tamamen
30:58sabitli edebiliyoruz. Bir 100 dolar
31:00falan verirsek
31:02yani
31:04işler baya karışıyor. Ürpertici.
31:06Gerçekten öyle şaşkınlıkla
31:08dinledim sizi ve örnekler
31:10de çok çarpıcıydı. Çok teşekkür ediyorum.
31:12Ben çok önemli bir katkı
31:14olacağını düşünüyorum. Bu seride umarım
31:16çok izlenir ve birçok kişiye ulaştırma
31:18şansım olur. Çünkü gerçekten
31:20bunları öğrenmek çok önemli.
31:22Kendimizi korumak açısından da çok önemli.
31:24En son olarak şunu sorayım. İzleyicilerimiz
31:26size nasıl ulaşabilir Sinem Hocam?
31:28Siz şimdi Sosyal Kafa TV'yi yapıyorsunuz
31:30YouTube üzerinde. Ben abone oldum
31:32size. Herkese de bunu tavsiye
31:34ediyorum. Aynı zamanda
31:36sosyal işleri yapıyorsunuz herhalde değil mi?
31:38Başka işler de yapıyorsunuz. Anlatır mısın
31:40şu anda çalıştığınız soruyu?
31:42Sağ olun. Normalde
31:44sevgili Özlem Gürsat, Instagram'ı
31:46çok yoğun bir şekilde kullanıyordum ama
31:48akibeti ne olacak bilmiyorum. Ben orayı birazcık
31:50LinkedIn gibi kullanıyordum. Çünkü görsel
31:52işler yaptığım için
31:54normalde oradan ulaşılabilir. Bütün
31:56sosyal medya mecralarında
31:58Sinem Saka diye ulaşılabiliyorum.
32:00Aynı zamanda da eşim
32:02Erkan Saka'nın 12 yıldan beri
32:04yürüttüğü Sosyal Kafa'da
32:06daha yeni dezenformasyonla
32:08mücadele etmek için videolar
32:10üretmeye başladık.
32:12Bir de Şişli Belediyesi'nin
32:14katkılarıyla 21 haftadan beri de
32:16workshoplar
32:18veriyorum. Şişli'de,
32:20Habitat'ta
32:22oraya da gelebilirler. Özellikle
32:24hiç kullanmayanlar için yapay zeka
32:26ya da fotoğrafçılıkta yapay zeka
32:28gibi bazı böyle
32:30yeni dersler açıyorum, devamlı
32:32değiştiriyorum. Biraz sohbet tadında
32:34da oluyor. Çünkü herkesin çok
32:36farklı bir sorusu var.
32:38Ve benim hani
32:40öğretmek demek istemiyorum. Çünkü ben
32:42öğrendim aslında 21 haftada.
32:44Orada böyle biraz
32:46sanki magazinini yapıyor gibi
32:48insanlar başına gelen
32:50şeyleri aynı şu an dertleştiğimiz gibi
32:52anlatıyor ve ne yapabiliriz
32:54konuşuyoruz. Böyle
32:56şimdiye kadar da 2000'e yakın kişi
32:58katıldı bu derslere.
33:00Bu tarz genellikle
33:02zaten %70 gönüllü
33:04çalışıyorum. Aslında o yüzden sosyal
33:06fayda iletişimcisi diyorum kendime.
33:08Zaten bununla ilgili
33:10bir derneğimiz de var.
33:12Bu şekilde
33:14ben kaybolmam yani. Beni bulurlar.
33:16O sorun değil.
33:18İnşallah Instagram açılmış olur biz bu paylaşımı
33:20yaptığımızda. Çok teşekkür ediyorum.
33:22Sinem Saka bizimle beraberdi. Erkan
33:24hocamıza da çok sevgiler, saygılar, selamlar
33:26gönderiyorum. Şimdiden
33:28iyi yolculuklar Türkiye'ye dönüşte. Biliyorum
33:30şu anda Amerika Birleşik Devletleri'ndesiniz.
33:32Oradan bağlandınız. Tekrar çok
33:34teşekkürler. Ben çok teşekkür ederim.
33:36Kendinize çok iyi bakın. Görüşmek üzere.
33:38Bay bay.