Haber – Burak Altınok

Her geçen gün gelişen teknoloji hayatımıza etki edecek yenilikler getiriyor. Son yıllarda üzerine çalışmalar yapılan ve gelişiminde ilerleme kaydedilen yapay zekâ araçları, deepfake video, görsel ve ses içeriklerinin üretimini oldukça kolaylaştırdı. Haber Üsküdar’a açıklamalarda bulunan uzmanlar yapay zekâ araçlarının kişilik haklarımızı ihlâl edebilecek potansiyeli olduğunu ifade ettiler.

Son yıllarda hayatımıza giren yapay zekâ araçlarıyla üretilen sahte içerikler, hedef kitlenin gerçeklik algısını kırıyor. İngilizce olarak ‘deep’ yani ‘derin’ kelimesiyle, ‘fake’ yani ‘sahte’ kelimesinin birleşiminden oluşan deepfake, halka açık ve yayılımın kolay olduğu sosyal medya platformlarında büyük yankı uyandırmayı başarıyor. Özellikle politikacı, aktör veya sanatçı gibi tanınmış isimler özelinde hazırlanan içeriklerde söz konusu kişinin ses veya görüntülerini kopyalayarak, o kişiye yapmadığı veya söylemediği açıklamalar yaptırmak mümkün. Bu durum ise akıllara çok temel bir soruyu getiriyor: Yapay zekâ araçları kişilik haklarımızı ihlâl edebilir mi?

Prof. Dr. Erkan Saka: “İnsan zekâsına benzer yetenekler sergilemesi amaçlanıyor”

Konuyla alakalı Haber Üsküdar’a açıklamalarda bulunan İstanbul Bilgi Üniversitesi İletişim Fakültesi öğretim üyesi Prof. Dr. Erkan Saka, yapay zekânın çalışma sistemi hakkında bilgiler verdi. Yapay zekâyı, “makinelerin insan benzeri görevleri gerçekleştirmesini sağlayan bilgisayar biliminin dalı” olarak nitelendiren Saka, makinelerin planlama, akıl yürütme, programlama, problem çözme ve kendi kendini geliştirme becerisiyle insan zekâsına benzer yetenekler sergilemesinin amaçlandığını belirtti.

“Yapay zekânın getirdiği sorunlar var”

Yapay zekânın gelişimini sürdürdüğünü belirten Erkan Saka, her gün 3-4 yeni yapay zekâ aracı üretildiğini, bunların da beraberinde yeni problemler getirdiğini açıkladı. Problemleri sistematik yanılgılar, hacklenme durumu, dezenformasyon yayılımı, mahremiyet meseleleri ve güvenlik sorunları olarak sıralayan Saka, tüm bu süreci sosyal medyanın gelişimine benzettiğini su sözlerle açıkladı: “Yapay zekânın başlıca sorunlarından biri mahremiyet. İnsanların kişisel verilerini topluyorlar ki bu durum verilerin paylaşılmasına da yol açacaktır. Hatta Google, kendi yapay zekâ aracı olan Bard için çalışanlarına kişisel verilerinizi girmeyin açıklaması yaptı. Bu durum bana sosyal medyanın gelişim sürecini anımsatıyor. Aslında benzer şeyleri konuşuyoruz. Örneğin sosyal medya özelinde de ‘fakenews’ olarak geçen sahte haberlerden yakınıyoruz. Yapay zekâ için de aynısı geçerli. İnsanlar yapay zekâ araçlarını kullandıkça uygulama gelişecek ve daha gerçekçi bir şekilde sahte haber üretimi olacak. Bu da zaten zorla baş ettiğimiz alanda daha büyük bir yığını getirecek. Bir diğer problem konu ise işsizlik olacak. Evet, her teknoloji yeni iş alanları açıyor ama özellikle çok yetenek gerektirmeyen iş kollarının yerini makineler alabilir boyuta gelecek.”

“Yapay zekâ araçları kişilik haklarımızı ihlâl edebilir”

Sosyal medyada paylaşılan deepfake içeriklerin yapay zekâ aracılığıyla üretildiğini belirten Saka, “Deepfake içerikler yapay zekâ yardımıyla gerçek video, fotoğraf ve ses dosyalarının değiştirilmesi veya yeniden oluşturulmasıyla üretiliyor” dedi. Deepfake içeriklerin kötü amaçlara hizmet edebileceğini bildiren Saka, ünlüler veya siyasetçilere karşı kötü bir imaj oluşturmak, şantaj yapmak, itibar zedelemek amacıyla da kullanılabileceğini söyledi. Saka, “Bu noktadan bakılırsa yapay zekâ araçları kişilik haklarımızı ihlâl edebilir ve kullanabilir. İnsanları gözetleyerek, manipüle veya kontrol etmeye çalışarak, ayrımcılığa uğratarak zarar verebilir. Dolayısıyla kişilik haklarımızı ihlâl edebilir ama yapay zekâ kullanımında şeffaflık olursa, etik standartlara uyulursa ve gelişimi insan denetiminde olursa zarar biraz daha azaltılabilir” dedi.

“AHİM’de kazanılmış dava var”

Yapay zekâ araçlarının kişilik haklarını ihlâl etmesiyle alakalı Hollanda’da bir dava görüldüğünü söyleyen Saka, “Hollanda’da hizmet veren SYRI adlı bir algoritma, potansiyel sosyal yardım sahtekârlığını tespit etmek için kullanılırken kişilerin özel haklarını ihlâl ettiği gerekçesiyle Avrupa İnsan Hakları Mahkemesi tarafından cezalandırılmış. Bu ve benzeri davalar bence olacak ve çoğalacak” dedi.  

DEEPFAKE İÇERİKLER NASIL TEYİT EDİLİR?

Her gün binlerce yanlış bilgi paylaşılıyor. Bu da yanlış bilginin yayılımını hızlandırıyor. Teyit mekanizmaları olsa da kullanıcılar oldukça basit kontrollerle içeriğin doğruluğunu denetleyebilir. Yapay zekâ araçlarıyla üretilen deepfake içerikler de teyit edilebilir. Konuyla alakalı Haber Üsküdar’a konuşan bağımsız teyitçi Ceren Bala Teke, “bir içeriğin deepfake olup olmamasından ziyade deepfake iddiası taşıması dezenformasyona neden oluyor” dedi.

Ceren Bala Teke: “Medya okuryazarlığı önem kazanıyor”

Deepfake içeriklerden çok bir içeriğin ‘deepfake’ iddiası taşımasının dezenformasyona yol açtığını belirten teyit uzmanı Ceren Bala Teke, “2018 yılında Gabon Devlet Başkanı Ali Bongo Ondimba bir süre ortalıkta görünmedi ve öldü iddiaları ortaya atıldı. Ocak 2019’daysa bir videoyla geleneksel yeni yıl konuşmasını yaptı. Bu video öldü iddialarını çürütmek yerine besledi ve güçlendirdi. Videonun deepfake olduğu iddia edildi ve hatta videodan sonra ordu başarısızla sonuçlanan bir darbe girişimi bile yaptı. Örnekte de görüldüğü üzere videonun hangi teknolojiyle üretildiğinden daha çok kitlenin güven seviyesi ve medya okuryazarlığı önem kazanıyor. Medya okuryazarlığını yapay zekâ okuryazarlığı üzerinden geliştirmek düşünülebilir” dedi.

“İçeriklerin teyitlenmesinde ayrıntılar önemli”

Deepfake içeriklerin teyitlenmesi hakkında da bilgiler veren Teke, “Deepfake ve cheapfake içerikler teyitlenirken önce gözlere bakabiliriz. Eğer ortada bir deepfake video varsa gözlerde kırpma eylemi doğal olmayan şekilde gerçekleşiyor ve gözde anormal yansımalar oluyor. Bunun dışında yüzde anormal derecede pürüzsüzlük veya kırışıklıklar, gözlükte doğalı yakalamayan yansımalar, doğal olmayan yüz ifadeleri, garip görünen vücut hatları ve duruş, renklendirmede hatalar, sakalda ve saçlardaki beyazlıkların tutarsızlığı veya yaş ile ilgili tutarsızlıklar, diş sayısında, parmak sayısında hatalar ve son olarak da tutarsız gürültü ve sesler videonun tespiti için ilk bakılacak aşamalardır” dedi.

“Yapay zekâ okuryazarlığı gerekli”

Teyitçilikte sıkça kullanılan yöntemlerden biri olan tersine görsel aramanın deepfake içeriklerde de kullanıldığını belirten Teke, bu yöntemle etkili sonuçlar alınabildiğini söyledi. Teke, “Bir kişinin deepfake ile üretilen videosundan bir kesit alıp tersine görsel aramayla arattığımızda sonuçlandıramıyorsak veya ilgili kişinin videoda saç, sakal, kıyafet gibi detayları farklı bir görüntüsüyle uyuşuyorsa bu tespite yardımcı olabilir. Bu tarz aramalarda kullanılacak olan araçlar ise Sensity Ai ve Deepfake Matter. Tersine görsel aramada ise tüm arama motorlarını aynı anda tarayan RevEye. Bazıları profesyonel düzeyde olsa da sadece videodaki ayrıntılardan da içeriğin doğruluğunu kontrol etmek mümkün” dedi. Teke, sahte içeriklerin kontrolü için okulların, özellikle de iletişim fakültelerinin müfredatına yapay zekâ okuryazarlığının eklenmesi gerektiğini vurguladı.

YASALAR NE DİYOR?

Üretilen deepfake içerikler kişilik haklarımızı tehdit etme, telif hakkı gibi konularda problemler yaratabilme tehlikesi taşıyor. Böylesi ihlâllere karşı kendimizi korumamız gerekebilir. Konuyla alakalı görüşlerini bildiren Avukat Akın Erbaş, Türk hukuk sisteminin uyuşmazlıklara müdahalede yeterli olduğunu açıkladı.

Avukat Akın Erbaş: “Kişilik hakkı ihlâli ciddi yaptırımlarla sonuçlanabilir”

Kişilik haklarını, insanın yalnızca insan olması nedeniyle sahip olduğu ve doğuştan gelen hakları olarak tanımlayan Erbaş, “Kişilik hakları, kişiye sıkı sıkıya bağlı, vazgeçilemez, devredilemez ve dokunulamaz haklardır. Anayasa başta olmak üzere çeşitli kanunlarca hukuk sistemi tarafından güvence altına alınmıştır ancak sosyal medyanın hızlı gelişimi kişilik haklarında  ihlâllere sebebiyet vermektedir. Sosyal medyanın nispeten yeni bir oluşum olması insanlarda sosyal medyada yapılan kişilik hakları ihlâllerinin ciddi bir suç olmadığı yanılgısı oluşturmaktadır. Fakat bu ihlâller ciddi yaptırımlarla sonuçlanabilmektedir” dedi.

“Kriz getirecektir”

Kullandığımız web sitelerinin çerezleri kabul ettirme dayatmasını, “Bu siteden bilgi almak istiyorsanız çerezleri kabul etmek zorundasınız” cümlesiyle tanımlayan Erbaş, sitelerin özel hayatımıza ve kişisel tercihlerimize dair oldukça fazla bilgi topladığını söyledi. Erbaş, “Günümüzde bu konuda net bir çözüm bulunamasa da ilerleyen süreçte kişisel verilerin kullanılması noktasında oldukça ciddi bir kriz meydana getirecektir” dedi.

“Telif hakkı ihlâlleri yapılıyor”

Deepfake içeriklerde müzik vb. materyal kullanımının telif hakları ihlâli olabileceğini hatırlatan Erbaş, “Sanatçılar hayatları boyunca çeşitli eserler ortaya koymaktadır. Bu fikir ve sanat eserleri üzerinden de çeşitli mali haklara sahiplerdir. Telif hakları çerçevesinde eserin korunma süresi, eser sahibi yaşadığı sürece ve ölümünden itibaren 70 yıl devam etmektedir. Eser birkaç sanatçının ürünüyse de en son ölen sanatçının ölümünden itibaren hesaplanır. Sosyal medya kullanıcılarında ise ücretsiz servis edilen her eserin özgürce kullanılabileceği fikri çevresinde şekillenmiştir. Bu düşünce hukuken gerçeği yansıtmamakta ve telif hakkı sahiplerinin haklarına bir müdahale getirmektedir. Sosyal medyadaki tıklanma yarışı nedeniyle özellikle içerik üreticileri bu konuda sıklıkla hak ihlâllerine sebebiyet vermektedir. Teknolojinin de gelişmesiyle vefat eden sanatçıların seslerini, görüntülerini yahut ortaya koydukları herhangi bir eserleri izinsizce kullanılması kolaylaşmakta ve yaygınlaşmaktadır. Ancak hukuk, insanları arası uyuşmazlıklar ışığında geliştiği için gelecekte de bu tür ihlâllerin önlenmesi adına hukuki önlemler alınacaktır” dedi.

YAPAY ZEKÂ GELİŞİMİNİ SÜRDÜRECEK Mİ?

Yapay zekânın gelişiminin başında ve aslında çok yeni bir teknoloji olduğunu düşünürsek bu durum akıllara şu soruyu getiriyor: Daha ne kadar gelişebilir? Bu sorunun yanında bu potansiyel gelişim olumlu veya olumsuz nelere yol açabilir? Konuyla alakalı görüşlerini aktaran bilim gazetecisi Çağla Üren, şirketlerin yapay genel zekâ seviyesine geçme hazırlıkları yaptığını belirtti.

Çağla Üren: “Yapay zekâ en üst seviyesinde değil”

Yapay zekânın gelişimi açısından bilimsel birçok tartışma olduğunu söyleyen Üren, Google ve Open Ai gibi şirketlerin yapay zekâ asistanlarını, ‘yapay genel zekâ’ seviyesine geçirip geçiremeyeceklerini tartıştıklarını belirtti. Yapay genel zekânın “insan gibi düşünebilen, insan seviyesinde zekâya sahip olan sistemler” olarak tanımlandığını söyleyen Ürel, bunun fütüristik bir tartışma olduğunu belirtti. Üren, “Bugünün perspektifinden bakınca yapay zekâ sistemlerinin, yapay genel zekâ sistemlerine geçişi için uzun bir yolu var. Bu yol boyunca çeşitli tehlikeler, riskler ve müthiş kullanım alanları barındırıyor. Buradaki temel mesele, şirketler arasındaki yarış. Bu yarış aslında bugünden tartışılması gereken bir yarış. Google, Open Ai ve hatta Elon Musk bile bu risklere dikkat çekiyor ve gerçekten denetlenmesini talep ediyor. Bu talebin de dikkatle incelenmesi gerekiyor çünkü şirketler gelişimi yavaşlatıp, kendi çalışmalarını hızlandırabilirler. Open Ai ise “bu yarış zaten başladı, durdurmamız imkânsız ama ABD ve Avrupa olarak yasa çıkartıp bizi denetleyin” diyor. Aslında haklılar. Günümüz kapitalist koşullarında bu şirketlerin durma lüksleri yok. Örneğin Meta’yı ele alalım. Mark Zuckerberg özellikle sosyal medya ayağında yapabileceğinin maksimumunu yaptığını düşünüyor ve yeni alan neresiyse oraya gözünü dikmiş durumda. Kripto para, NFT’ler gibi. Bu işin bir ayağı da yapay zekâ. Facebook’un meselâ birçok yapay zekâ aracı var. Bu şirketler kâr elde etmek, şirketlerini kaybetmemek için bu yarışın içinde olmak zorundalar” dedi.

“Deepfake yapay zekânın en tehlikeli kolu”

Deepfake üretimleri “yapay zekânın en tehlikeli kolu” olarak tanımlayan Üren, “Deepfake’in neden olduğu kişilik hakları sorunları kesinlikle var. İnsanlar eski sevgililerinden intikam alabilmek için yüzlerini kullanıyor veya şantaj yapabilmek için seks kasetlerini çekiyorlar. Hatta bu o kadar karmaşık hale geldi ki ne gerçek ne değil ayırt etmek zorlaştı. Bunun yanı sıra doğru bilgi hakkımız gasp ediliyor. Tıpkı sosyal medyada olduğu gibi veri güvenliği meselesi var. Bu sistemler şirketlerin elinde olduğu için verilerimiz onların koruması altında ama onların sorumsuzlukları bizim verilerimizi riske atabiliyor. Örneğin Open Ai şirketinin uygulaması olan ChatGpt geçtiğimiz aylarda sistemsel bir sıkıntı yaşadı. Kullanıcılara diğer kullanıcıların sohbet arama geçmişleri gösterildi. Düşünün, uygulamaya giriyorsunuz ve eşinizin, arkadaşınızın arama geçmişini görüyorsunuz. Hatta bu olaydan sonra İtalya ChatGpt’yi yasaklamak istedi. ChatGpt hızlı reaksiyon alıp yeni önlemler duyurdu ve anlaşma sağlandı. İnternet söz konusu olduğunda bu tür veri ihlâlleri her zaman gündemde olacak” dedi.

“Deepfake ‘sahte güncel’ bilgiler yaratabilir”

Deepfake'ten yararlanarak insanlar üzerinde yapılan deneyden bahseden Üren, “Araştırmacılar kısa süreli belleğe odaklanan bir çalışma yapmışlar. Matrix’in başrolünün yüzüne Will Smith’in yüzünü yapıştırıp insanlara bunu izletmişler. İnsanlar da “Ben bu filmi hatırlıyorum, izledim, orijinalinden daha iyi olmuş, bu yeni serisi mi?” gibi yanıtlar vermiş. Yazılı olarak da benzer bir çalışma yapmışlar ve insanlar buna da inanmış. İnsanların aklında sahte anıların yaratılmasını geçtim, sahte güncel bilgiler yaratabilir. Özellikle Rusya-Ukrayna savaşında Zelensky ve Putin’in deepfake videolarında bunu gördük. Medya okuryazarlığı olan insanlar doğru bilgiye bir şekilde erişiyor ama çoğu insanın zihninde bu bilgi yanlış olarak kalıyor” diyerek medya okuryazarlığının önemine dikkat çekti.

“Yapay zekâ sistemleri bizden besleniyor”

Yapay zekâ sistemlerinin internette paylaşılan ve şimdiye kadar üretilen içeriklerden beslendiğini hatırlatan Üren, ırkçı sistemlerin geliştiğini söyledi. Üren, bu durumu şu sözlerle açıkladı: “Facebook’un öne sürdüğü sohbet botuna insanlar sorular sorunca sistem “ABD başkanı Trump’tır, zaferi elinden alındı” diyor ve Yahudilere, siyahlara hakaret ediyor. Tüm bunlar yapay zekânın suçu değil çünkü bizler ürettiklerimizle yapay zekâyı besliyoruz. ABD ve Çin suçları önceden tahmin etme sistemleri üzerine çalışıyorlar. Ürettikleri sisteme belirli tarihleri ve tüm suç verilerini girip, “Yakın zamanda nerede, ne gibi suç işlenebilir bana tahmin yap” diye aratıyorlar ama bu suçların arkasında sosyolojik nedenler var. Örneğin, ABD’nin belirli bir siyah mahallesinde suç oranları yüksektir, bu siyahların suça daha yatkın olduğunu kanıtlamaz. Bu verilerden dolayı sistemler yanlış insanları suçlayabiliyor. ChatGpt bu tarz durumları engellemek için Kenyalı işçiler ile anlaşıp ırkçı olabilecek tüm kelimeleri teker teker elden geçirtmiş. Bu da Cumhuriyetçilerin ‘politik doğruculuk’ meselesini ortaya çıkartıyor. Çeşitli ideolojiler doğrultusunda filtrelenmiş içerikler göreceğiz. Çin, ChatGpt’yi tehlike olarak görüp yasakladı ve kendi sohbet botunu “sosyalist değerler” doğrultusunda geliştireceklerini söyledi. Tüm bu ideolojik tartışmalar günün sonunda biz kullanıcıların doğru bilgiye erişme hakkını sınırlayabilir. Bu da internetin “global” ideolojisiyle ters düşer ve bölünmüş bir internete yol açar. Tüm bunlar da aslında dijital haklarımız için tehdit olabilir."

“Her teknoloji içinde tehlikeleri barındırıyor”

Yaşanan her teknolojik gelişmenin tehlikeler barındırdığını söyleyen Üren, bunu Z kuşağı örneği üzerinden ele aldı. Üren, “Sosyal medyanın, tabletin, telefonların çeşitli tehlikeler barındırdığını herkes biliyordu. Bütün Avrupa olarak öğrenciler daha iyi eğitim alsın, eğitim için teknolojiden faydalanalım diye çocuklara tabletler, akıllı tahtalar dağıttık ama günün sonunda Z kuşağında ciddi bir dikkat dağınıklığı sorunu baş gösterdi. Şimdi dağıtılan tabletler teker teker okullarda yasaklandı. Tabletler ilk çıktığında eğitim için o kadar fırsatlar sundu ki biz bunun bir jenerasyon sonra toplanabileceğini düşünmedik. Şimdi ise alfa kuşağında aynı durumun yaşanmaması için geri adım attık. Teknolojilerin çok büyük olanakları var ama biz bunların olumlu-olumsuz yönlerini deneyerek göreceğiz” dedi.

NOT: Haberin ana görseli, yapay zekâ platformu olan 'Stocking Ai' uygulamasıyla oluşturulmuştur. Uygulamaya, "Yapay zekâ araçlarının kişilik haklarını nasıl ihlâl edebileceğini oluşturun" komutu girilmiştir.