Fake news classification using machine learning and deep learning approaches
Makine öğrenimi ve derin öğrenme yaklaşımlarını kullanarak sahte haber sınıflandırması
- Tez No: 847173
- Danışmanlar: DR. ÖĞR. ÜYESİ TUBA ÇAĞLIKANTAR
- Tez Türü: Yüksek Lisans
- Konular: Bilgisayar Mühendisliği Bilimleri-Bilgisayar ve Kontrol, Computer Engineering and Computer Science and Control
- Anahtar Kelimeler: Belirtilmemiş.
- Yıl: 2023
- Dil: İngilizce
- Üniversite: Gazi Üniversitesi
- Enstitü: Fen Bilimleri Enstitüsü
- Ana Bilim Dalı: Bilgisayar Mühendisliği Ana Bilim Dalı
- Bilim Dalı: Belirtilmemiş.
- Sayfa Sayısı: 250
Özet
Modern dijital ortamda, çevrimiçi haber portalları farklı bir izleyici kitlesi için birincil bilgi kaynağı haline gelmiştir. Ancak yanlış bilgilerin hızla yayılması, gerçek haberleri sahte haberlerden ayırmada önemli zorluklara neden olmaktadır. Bu tez, sahte haberlerin tespitini geliştirmek için çeşitli makine öğrenimi (ML) ve derin öğrenme (DL) tekniklerinin kapsamlı bir incelemesini sunmaktadır. Araştırmamız, Rastgele Orman ve Karar Ağacı dahil olmak üzere yedi geleneksel makine öğrenimi yöntemini ve ayrıca LSTM ve CNN gibi beş gelişmiş DL yaklaşımını kapsamaktadır. ISOT, FakeNewsNet, Dataset1 ve Dataset2 olmak üzere dört farklı veri kümesi üzerinde detaylı testler gerçekleştirilmiştir. Her modelin performansının ayrıntılı analizi, doğruluk seviyelerindeki dikkate değer farklılıkları ortaya çıkarmıştır. Örneğin, CNN, ISOT veri kümesinde %98,59 gibi dikkate değer bir doğruluk elde ederken, CNN-GRU, FakeNewsNet veri kümesinde %99,97 gibi önemli bir doğruluk oranıyla öne çıkmaktadır. Buna karşılık, LSTM-AutoEncoder modeli %24 ile %62 arasında değişen daha düşük doğruluk oranları elde etmiştir. Çalışmamız, veri kümesi özelliklerinin model seçimi ve optimizasyonu üzerindeki önemli etkisinin ortaya koymaktadır. Sahte haber tespitinde ML ve DL etkinliğinin kapsamlı bir değerlendirmesini sunan bu araştırma, çevrimiçi yanlış bilgilerle mücadele için daha güçlü stratejilerin geliştirilmesine önemli ölçüde katkıda bulunmaktadır. 1. Giriş Modern kaynaklar, çoğu İnternet kullanıcısının sosyal ağ siteleriyle aylık olarak etkileşime girdiğini doğruluyor ve bu da sitelerin bireyler ve toplum üzerindeki etkisini doğruluyor.Bu durum, sosyal ağların etkilerini sınırlamak için neyin sahte, neyin gerçek olduğunu tespit etmenin yollarını bulma zorunluluğunu doğurdu. Bu tez, etkisinden kaçınmak için sahte haberleri gerçek haberlerden tespit edebilen bir sistemi ortaya çıkarmayı amaçlamaktadır. Sahte haber tespiti (FND) üç karmaşık alt kategoriyi kapsar: uydurma, aldatmaca ve hiciv. Uydurma, sansasyonel manşetlerin ustalığını ve güvenilmez kaynaklardan gelen bilgilerin kasıtlı olarak çıkarılmasını gerektirir ve çarpık bir anlatı yaratır. Aldatmacalar, halk arasındaki güvenilirliği artırmak için birden fazla yayılma kanalından yararlanarak daha karmaşık aldatma teknikleri kullanır. Öte yandan hiciv, mizah kisvesi altında hayali bilgiler sunar; bu, yanlış anlaşılırsa gerçekmiş gibi yanlış yorumlanabilecek incelikli bir yanlış bilgi biçimidir ve gerçeği aldatmadan ayırma manzarasını daha da karmaşık hale getirir. Sahte haberleri tespit edebilecek bir sistem oluşturabilmek için birden fazla veri setine birden fazla algoritma uygulanması gerekti. İkisi mevcut veri seti, ikisi ise birden fazla verinin birleştirilmesiyle oluşturulan dört veri seti kullanıldı. Daha sonra tüm sonuçlar karşılaştırıldı. Bazıları veri setinin sonuçlara etkisini belirlemek içindi. İster makine öğrenmesinde ister derin öğrenmede birden fazla algoritmanın kullanılmasının yanı sıra birden fazla algoritmanın kullanılması veri seti, modeli haber tespitinde daha kapsamlı hale getirme etkisine sahipti. Yanlış haber yaymanın sonuçları, halkın güvenini ortadan kaldırmaktan şiddeti kışkırtmaya kadar geniş kapsamlı ve ciddidir. Bilginin bütünlüğünü korumak ve halkın güvenilir ve doğru kaynaklara erişimini sağlamak için sahte haberleri etkili bir şekilde ayırt edip vurgulayabilen kesin metodolojiler geliştirmek zorunlu hale geliyor. Bu çalışma, yanlış haber tespiti için en etkili teknikleri belirlemeyi amaçlamaktadır. Araştırma, her modelin yalan haber tespit etme performansını titizlikle analiz ederek, yalan haber tespitine yönelik daha dayanıklı ve etkili araç ve metodolojilerin oluşturulmasına katkıda bulunmaya çalışıyor. Bu gelişmeler, yanlış bilgi ve dezenformasyona ilişkin etkilerin azaltılmasında önemli bir rol oynamakta ve böylece kamuya sunulan bilgilerin kalitesini ve güvenilirliğini artırmaktadır. Yapay zekanın (AI) son zamanlardaki evrimi, yalan haber ikileminin üstesinden gelmek için umut verici yollar sunuyor. Yapay zeka teknolojileri, çeşitli kaynaklardan gelen kapsamlı verileri analiz ederek yanlış bilgilerin yayıldığını gösteren davranış kalıplarını belirleyebilir. Bu teknolojiler, yanıltıcı veya yanlış içeriğin tespit edilmesinde ve işaretlenmesinde önemli bir rol oynuyor ve böylece yanlış haberlerin olumsuz etkisini azaltıyor. Yapay zekanın önemli bir bileşeni olan Doğal Dil İşleme (NLP), insan dilinin analiz için makineler tarafından anlaşılabilir bir şekilde işlenmesini ve yorumlanmasını sağlar. Yanlış haber tespitine ML modellerinin ve DL tekniklerinin uygulanması, yanlış haberleri belirlemek ve bunlara karşı koymak için etkili yöntemler geliştirmek için bir yol sağlar. Bu araştırmanın temel motivasyonu, sahte haberlerle ilgili kritik zorluklara karşı yapay zeka, NLP, makine öğrenimi ve DL'nin potansiyelinden yararlanmaktır. Bu tez, yanlış haber tespitine yeni algoritmalar ve modeller sunmayı, yanlış bilgileri etkili ve hızlı bir şekilde tanımlama ve bunlara karşı koyma yeteneğini artırmayı amaçlamaktadır. Yapay zeka teknolojisinin bu çabada kullanılması, yanlış haberlerin tespitini dönüştürme potansiyeline sahiptir; bilgi dağıtımının doğruluğunu korumak ve insanları ve toplulukları yanlış bilgilerin zararlı etkilerinden korumak için önemli araçlar sunar. Bu tez öncelikle, insanları ve toplumu ciddi risk altına sokan, artan yanlış haber tehdidiyle acilen mücadele etme ihtiyacından hareket etmektedir. Bu proje yapay zeka, NLP, ML ve DL tekniklerini kullanarak yanlış haber tespiti alanını geliştirmeyi amaçlıyor. Yanıltıcı bilgilerin tespit edilmesi ve çürütülmesi için etkili ve otomatikleştirilmiş stratejiler geliştirmeye odaklanır. Nihai hedef, güvenilir bilgilere dayanarak kararlar alabilen, daha dirençli ve bilgili bir toplum yetiştirerek yanlış haberlerin olumsuz sonuçlarını azaltmaktır. Son olarak bu çalışma, kayda değer yanlış haberlerin belirlenmesinde metin analizi ve kategorizasyona yönelik yeni yaklaşımlar geliştirerek NLP ve ML disiplinlerini ilerletmektedir. Yanlış haber tespitiyle etkili bir şekilde mücadele etmek için güvenilir ve aldatıcı bilgi kaynakları arasında ayrım yapacak yeni yaklaşımlara ihtiyaç vardır. Bu tezde sunulan DL algoritmaları, metin analizi ve sınıflandırmaya yeni bakış açıları sunarak NLP ve ML'de kullanılan yöntemleri geliştirir. Bu çalışma, halihazırda var olan bilgi birikimine katkıda bulunmanın yanı sıra, bu alanlarda gelecekteki araştırmalara ve daha gelişmiş algoritmalar ve modellerin geliştirilmesine de kapı açmaktadır. 2. Materyal ve Metot Sahte haberleri tespit edebilecek bir sistem oluşturabilmek için birden fazla veri setine birden fazla algoritma uygulanması gerekti. İkisi mevcut veri seti, ikisi ise birden fazla verinin birleştirilmesiyle oluşturulan dört veri seti kullanıldı. Daha sonra tüm sonuçlar karşılaştırıldı. Bazıları veri setinin sonuçlara etkisini belirlemek içindi. İster makine öğrenmesinde ister derin öğrenmede birden fazla algoritmanın kullanılmasının yanı sıra birden fazla algoritmanın kullanılması veri seti, modeli haber tespitinde daha kapsamlı hale getirme etkisine sahipti. Metodolojimiz, her biri FND'nin bütünsel bir anlayışına katkıda bulunan birkaç temel aşamadan oluşmaktadır. Süreç, uygun bir veri kümesinin seçilmesiyle başlar ve bunun sonraki araştırma aşamaları için temel oluşturma rolünün önemi vurgulanır. Daha sonra veri ön işlemenin önemini inceleyerek ham veri kümesinin nasıl temizlendiğini, iyileştirildiğini ve dönüştürüldüğünü açıklayarak pratik model eğitimine hazırlıyoruz. Çalışmamız öncelikle DL modellerinin uygulanmasıyla ilgilidir. CNN, CNN-LSTM ve CNN-GRU mimari kombinasyonlarının mimarisini ve seçim kriterlerini tartışıyoruz. Kapsamlı ve güvenilir bir analizin garanti edilmesi için katmanların seçimine, filtre boyutuna ve aktivasyon fonksiyonlarına özellikle dikkat edilir. Daha sonra test ve eğitim prosedürleri, modellerimizin verimliliğini ve geniş çapta uygulanabilirliğini garanti etmek için sektördeki en iyi uygulamalar kullanılarak ele alınır. Çalışmamız, veri setlerini birleştirerek çok boyutlu bir yaklaşımı birleştirmesi nedeniyle önceki araştırmalardan farklılık göstermektedir. Bu kombinasyon,“kısmen doğru”ve“biraz doğru”gibi daha ayrıntılı kategorileri içerecek şekilde temel ikili sınıflandırmanın ötesine geçen dikkatli incelemeyi kolaylaştırır. Bu katmanlı ve hiyerarşik veri seti, sınıflandırma yönteminin karmaşıklığını ve derinliğini artırmak için tasarlanmıştır. FND'de birkaç ardışık aşamadan oluşan yapılandırılmış süreç söz konusudur. İlk adım, özellikle bu alanla ilgisiyle tanınan ISOT veri kümesini kullanarak veri toplamayı içerir. Veri toplamanın ardından kapsamlı bir ön işleme aşaması gerçekleştirilir. Bu aşama, sonraki aşamalara hazır olmasını sağlamak için verilerin temizlenmesine ve hassaslaştırılmasına odaklanır. Ön işleme sonrasında odak noktası, önerdiğimiz sınıflandırma modellerini uygulamaya geçer. Karmaşık bir şekilde tasarlanmış bu modeller, sahte haberlerin belirlenmesinde çok önemlidir. Kurulumlarının ardından bu sınıflandırıcılar, işlenmiş veri kümesinden bilgiyi özümsedikleri bir eğitim aşamasına girer. Bu eğitim, modellerin parametrelerine ince ayar yapmak ve doğru tahmin yapma yeteneklerini artırmak için gereklidir. Eğitim tamamlandıktan sonra modeller, doğrulama için aynı hassas veri kümesinin farklı alt kümelerini kullanan bir test aşamasından geçer. Bu adım, genelleme becerilerini ve genel performanslarını değerlendirmek için kritik öneme sahiptir. Son aşama, her modelin etkinliğini değerlendirmek için derinlemesine bir analiz içerir. Bu değerlendirme, daha önce de belirtildiği gibi, her modelin güçlü yönlerine ve sınırlamalarına ilişkin kapsamlı bir fikir veren bir dizi performans ölçümünü içerir. Ayrıca, farklı modeller arasındaki performans farklılıklarını ayırt etmek için karşılaştırmalı analizler yapılmaktadır. Sahte haberleri etkili bir şekilde tanımlamak ve kategorize etmek için haber raporlamada doğruluğun çeşitli yönlerini kapsayan kapsamlı bir veri kümesine sahip olmak zorunludur. Sonuç olarak, metodolojimiz dört farklı veri kümesini birleştirerek daha ayrıntılı ve kapsamlı bir incelemeyi kolaylaştırır. ISOT Corpus Analizimizde, haber makalelerinin orijinal kaynaklardan türetilen“sahte”veya“gerçek”kategorilere göre ikili olarak sınıflandırılması için özenle bir araya getirilmiş bir veri kümesi olan ISOT külliyatını kullanıyoruz. Bu derleme, 21.417'si gerçek ve 23.481'i sahte olarak sınıflandırılmış ve her biri 12.600'den fazla makale içeren“True.csv”ve“Fake.csv”olmak üzere iki ayrı dosyaya bölünmüş 44.898 makale içermektedir. FakeNewsNet Veri Kümesi Sahte haberlerin inceliklerini araştıran akademisyenler için oluşturulmuş özel bir kaynak, FakeNewsNet veri kümesidir. Politifact ve Gossipcop olmak üzere iki farklı ve güvenilir kaynaktan alınan doğrulanmış gerçekler üzerine kuruludur ve sahte haberlerin inceliklerini incelemek için kapsamlı bir bakış açısı sunar. 23.196 satır ve beş temel sütundan oluşan FakeNewsNet veri seti, sahte haberlerin yayılmasında yer alan dinamiklerin kapsamlı bir şekilde anlaşılmasını sağlayacak şekilde düzenlenmiştir. Tasarımı, beş temel özelliği bir araya getirerek araştırmacının erişilebilirliği ve verimliliği için özel olarak tasarlanmıştır: Kimlik, Haber_URL'si, Başlık, Tweet_ID'ler, Etiket FakeNewsNet veri kümesi, gelişen FND ve anlayış alanındaki karmaşık analizlere uygun, iyi organize edilmiş ve zengin bir kaynaktır. LIAR-PLUS Veri Kümesi LIAR-PLUS veri kümesindeki öğelerin dahil edilmesi, FND ve sınıflandırma metodolojimizi önemli ölçüde geliştirir. Doğruluk, konu ve bağlam gibi standartlara göre manuel olarak açıklama eklenmiş 12.836 kısa ifadeyi içeren bu veri kümesi, ilk kez 2017 yılında Wang tarafından sunulan orijinal LIAR veri kümesinin bir uzantısıdır. Veri kümesinde doğruluk, şu şekilde kategorize edilmiştir:“pantolon ateşi”nden“gerçek”e kadar bir spektrum. LIAR-PLUS veri seti, Politifact gazetecileri tarafından yazılan tam metin karar raporlarından otomatik olarak çıkarılan gerekçeler veya delil cümleleri eklenerek önemli ölçüde iyileştirildi. Genellikle“kararımız”veya“özetleme”gibi başlıkların yer aldığı özet bölümlerinde bulunan bu açıklamalar, atanan dürüstlük notunun bağlamını sağlar. Özet bölümü yoksa, sonucu açıkça belirten herhangi bir cümle yerine, doğrulama makalesinin son beş cümlesi kullanılır. LIAR-PLUS veri seti, kapsamlı ve çok boyutlu bir bakış açısı sunan 15 sütundan oluşur: Kimlik, Etiket, Konular, Konuşmacı Detayları, Durum Bilgileri, Parti Bağlantısı, Konuşmacının kredi geçmişi, önceki doğruluk derecelendirmelerine göre değerlendirilir, bunlar“neredeyse doğru”,“yanlış”,“yarı doğru”,“çoğunlukla doğru”ve“pantolon yanıyor”olarak kategorize edilmiştir., Bağlam, Alıntılanan Gerekçe. LIAR-PLUS veri setini entegre etmedeki amacımız, FND algoritmalarımızın çok daha iyi performans göstermesine yardımcı olacak kanıt alma kalitesini artırmaktır. Haber parçalarının bütünlüğünü belirlemek için gerekli bağlamsal derinliği sağlamak amacıyla bu gerekçe cümlelerini kullanarak sınıflandırma sürecini güçlendirmeyi umuyoruz. Veri kümelerinin birleştirilmesi ISOT külliyatının LIAR-PLUS veri seti ile dikkatli bir şekilde entegrasyonu sayesinde, FND hakkındaki araştırmamız önemli bir gelişmeyi temsil etmektedir. Basit ikili sınıflandırmanın ötesinde, bu füzyon,“Yarı Doğru”ve“Zar zor Doğru”gibi kategorileri birleştirerek FND'ye daha incelikli bir yaklaşıma olanak tanır. Daha sonra ISOT külliyatını LIAR-PLUS'ın“Yarı Doğru”kategorisiyle birleştirerek Veri Kümesi 1 olarak etiketlediğimiz ilk veri kümemizi oluştururuz. Bunun üzerine inşa etmek için Veri Kümesi 2 adı verilen ve“Zar zor Doğru”kategorisini içeren başka bir veri kümemiz var.“ kategorisini kullanır ve Veri Kümesi 1'i büyütür. ISOT derleminin LIAR-PLUS'un ”Yarı Doğru“ ve ”Zar zor Doğru“ bileşenleriyle birleştirilmesiyle bileşik bir veri kümesi oluşturulur. Ön işleme ML modellerinin etkinliği, girdi verilerinin kalitesinden büyük ölçüde etkilenir ve verileri pratik analiz için optimize etmek amacıyla kapsamlı ön işleme adımları gerektirir. Ön işleme hattımız, her biri modelin anahtar terimleri tanımlama kapasitesini geliştirmeyi ve dolayısıyla performansını artırmayı amaçlayan bir dizi teknik içerir. Ön işleme rejimimizdeki adımlar şunları içerir: Öznitelik Seçimi Ana veri kaynaklarımız olan ISOT derlemindeki ve LIAR-PLUS'taki ”başlık“ ve ”metin“ özelliklerine odaklanarak başlıyoruz. FakeNewsNet veri kümesi için dağıtım dengesini, ”gerçek“ haber makalelerini ”sahte“ haber hacmiyle eşleşecek şekilde alt örnekleyerek elde ediyoruz. Her veri kümesi için birincil özellik setimiz, özenle seçilmiş bu iki özelliğin (başlık ve metin) tek bir sütunda birleştirilmesiyle oluşturulur. Metin Temizleme Bir sonraki adım, tüm metni küçük harfe çevirmeyi ve HTML etiketlerini, noktalama işaretlerini ve gereksiz boşlukları ortadan kaldırmak için normal ifadeler kullanmayı içerir. Bu standardizasyon, veri kümesi genelinde tutarlılığı garanti eder ve basitleştirmeye yardımcı olur. Tokenizasyon Doğal Dil İşleme'de (NLP) önemli bir teknik olan tokenizasyon üçüncü adımdır. Temizlenen metni kelimeler veya kelime öbekleri gibi daha küçük birimlere veya belirteçlere ayırır. Bu süreç, metni basitleştirerek temel öğelerin bir listesine dönüştürür ve özellik çıkarımı için zemin hazırlar. Dönem Frekansı-Ters Belge Frekansı (TF-IDF) Bir derlem hakkındaki bir belgedeki bir kelimenin önemini değerlendirmek için istatistiksel bir teknik olan TF-IDF'yi kullanıyoruz. Belirli bir belgede önemli olan ancak bütünde yaygın olmayan sözcükler, terim sıklığının (TF) ters belge sıklığıyla (IDF) çarpılmasıyla belirlenen TF-IDF puanıyla vurgulanır. Bu onları değerli farklılaştırıcılar yapar. Veri Bölme Kapsamlı ön işlemenin ardından veri kümesi, akademik araştırmamızda tahmin modelimizi eğitmek ve test etmek için akıllıca çeşitli alt kümelere bölündü. Veri setinin %80'ini eğitim için, kalan %20'sini ise test seti olarak özel olarak seçtik. Bu bölüm, test aşamasında modelin performansının tarafsız bir değerlendirmesine olanak tanırken, eğitim aşaması için güçlü bir örnek boyutu sağlayacak şekilde titizlikle tasarlandı. Ek olarak, model değerlendirmemizin güvenilirliğini artırmak için beş kat kullanan katmanlı bir K-Katlama çapraz doğrulama yaklaşımı kullandık. Bu yöntem, her tarihin modeli değerlendirmesine izin vererek eğitim derleminin değerini artırır ve her katlamada sınıfların orantılılığını korur. Bu stratejilerin birleştirilmesi, modelimizin dijital haber alanını etkileyen çeşitli ve karmaşık yanlış bilgi ifadelerini daha büyük bir doğruluk ve hassasiyetle tanımasına ve değerlendirmesine olanak tanır. Makine öğrenimi tabanlı sınıflandırıcılar ISOT veri setindeki sahte haberlerin verimli bir şekilde tespit edilmesi için çalışmamızda sekiz farklı ML algoritması uyguladık. Burada her algoritmayı inceleyerek temel fikirlerini ve yeteneklerini vurguluyoruz. Karar Ağacı (DT) DT algoritması, sınıflandırma ve regresyon görevlerindeki basit yaklaşımıyla tanınan, ML'de bir temel taşıdır [83]. Özünde, bir DT, bir veri kümesini giderek daha ince alt kümelere bölerken aynı anda ilişkili bir DT'yi oluşturur. Nihai model, karar ve yaprak düğümlerinden oluşan bir ağaçtır. Karar düğümleri bir giriş özelliği için farklı olası değerleri temsil ederken, yaprak düğümler tüm girdiler dikkate alındıktan sonra nihai kararı veya çıktıyı belirtir. Maliyet-karmaşıklık budaması gibi budama teknikleri, daha az etkili dalları ortadan kaldırarak aşırı uyumu önlemek için kullanılır. Bu, ağaç boyutunu ve uyumunu dengelemek için bir 'alfa' parametresini entegre eder. Ek olarak, ağaç derinliği, yaprak boyutu ve bölme başına özellik sayısı gibi hiper parametrelere ince ayar yapılarak yetersiz uyum ve aşırı uyum dengelenir. Rastgele Orman (RF) RF tekniği, EL'in temel bir bileşenidir ve bu nitelikler için iyi bilinen bir model oluşturmak üzere çok sayıda DT'nin birleşik gücünden ve sağlamlığından yararlanır. Yaklaşım, birden fazla zayıf öğrenicinin tek bir güçlü öğrenici oluşturmak için birleştirilebileceğini ve modelin tahmin gücünü ve istikrarını geliştirebileceğini öne süren EL teorisine dayanmaktadır. Merkezi limit teoremi ve büyük sayılar kanunu bu fikri destekleyen iki temel matematiksel ve olasılıksal fikirdir. Bu fikirlere göre, oldukça fazla sayıda nispeten bağımsız ağacın birleştirilmesi, normal bir dağılıma doğru yaklaşarak tahmin doğruluğunu arttırır ve sonuçları stabilize eder. RF algoritmasının eğitim aşaması sırasında, torbalamaya dayalı bir yaklaşım olan hem özellikleri hem de veri noktalarını seçen stokastik bir süreç aracılığıyla çok sayıda DT geliştirilir. Topluluktaki her ağaç, kombinatoryal ve optimizasyon tekniklerine dayanan bir yöntem olan, her düğümdeki özelliklerin rastgele alt kümelerinin seçilmesiyle sağlanan ağaçlar arasındaki çeşitlilikle bağımsız olarak yeni verileri tahmin eder. Bireysel ağaçları eğitmek için farklı önyükleme örnekleri üreten torbalama işlemi, önyargıyı biraz arttırırken tahmin varyansını azaltmayı amaçlamaktadır. RF'deki son tahmin, ya regresyon için tüm ağaç tahminlerinin ortalamasıdır ya da sınıflandırma için çoğunluk oyu olup, tipik olarak gelişmiş genelleme hatasıyla sonuçlanır. Bu hata, model karmaşıklığı ile tahmin doğruluğu arasındaki dengeyi anlamak için çok önemli olan önyargı-varyans ayrıştırması kullanılarak incelenir. Gradyan Arttırma Daha zayıf öğrenme modellerini, özellikle DT'yi metodik olarak birleştiren GB algoritması, matematiksel ve hesaplamalı kavramlara dayanan gelişmiş bir EL tekniğidir ve Gradyan iniş yöntemi, sistemi tekrar tekrar kayıp fonksiyonunu en aza indirmeye yönlendirmek için kullanılır; serideki her ağaç, öncekilerin hatalarını bu organize şekilde iyileştirmeye çalışır. Her ağacın katkısını etkileyen öğrenme oranı gibi bir dizi faktör, aşırı uyumu önleyen ve daha kapsamlı modellerin oluşturulmasını teşvik eden kontrol mekanizmaları olarak hizmet eder. GB tekniği, olağanüstü derecede kesin ve doğru tahmin modelleri oluşturmak için işbirliği yapan istatistik, optimizasyon ve hesaplama ile ilgili fikirlere dayanan karmaşık bir araçtır. Çeşitli tahmin senaryolarında olağanüstü işlev alanı optimizasyonu ve karmaşıklık uyarlaması sergileyen çağdaş ML'nin önemli bir bileşenidir. Bu, onu günümüzün makine öğrenimi araç kutusunda, karmaşık tahmine dayalı modelleme zorluklarını doğru ve kesin bir şekilde ele alabilen önemli bir araç haline getiriyor. Lojistik Regresyon (LR) Hem makine öğreniminin hem de istatistiğin önemli bir bileşeni olan LR, esnek ve temel bir denetimli öğrenme tekniğidir. Bu fonksiyon girdi olarak gerçek bir sayıyı kabul eder ve 0 ile 1 arasında bir değer döndürür; bu, belirli bir girdinin belirli bir kategoriye girme olasılığını gösterir. Sırt ve kement düzenlemesi gibi düzenlileştirme stratejileri, gerçek dünyadaki LR uygulamalarında aşırı uyumu önlemek için sıklıkla kullanılır. Bu teknikler, her özelliğe atanan ağırlıkların büyüklüğünü sınırlayarak yeni, görünmeyen verilere genelleme yapmada iyi performans gösteren daha basit modelleri destekler. Ayrıca, titiz özellik mühendisliği ve seçimi, LR modellerinin etkinliği açısından çok önemlidir. Ek olarak LR, hesaplama açısından kolayca anlaşılabilen bir mimariye sahiptir; bu da, modelin yorumlanabilirliğinin tahmin doğruluğundan öncelikli olduğu durumlarda onu iyi bir seçenek haline getirir. Basit olmasına rağmen LR, özellikle modele doğrusal olmama özelliği eklemek ve tahmin gücünü artırmak için polinom regresyonu gibi diğer yöntemlerle eşleştirildiğinde etkili bir araçtır. XGBoost XGBoost, olağanüstü hız ve verimlilik için tasarlanmış gelişmiş bir GB DT uygulamasıdır. Doğru tahminler yapabilen güçlü bir öğrenci yetiştirmek için bu yöntem, genellikle DT'ler şeklinde bir grup zayıf öğrenciyi bir araya getirir. Topluluğun önceki üyelerinin yaptığı hataları düzelten zayıf öğrenenler ekleyerek türevlenebilir bir kayıp fonksiyonunu optimize etmeye dayanan GB tekniğini kullanır. Bir düzenleme terimi ve belirli bir kayıp fonksiyonundan oluşan XGBoost'un amaç fonksiyonu, algoritmanın matematiksel temelini açıklamak için kullanılabilir. Algoritma, beklenen ve gerçek değerler arasındaki farkı ölçen kayıp fonksiyonu aracılığıyla en doğru tahminleri üretmeye yöneliktir. Öte yandan düzenlileştirme terimi, modelin karmaşıklığını düzenleyerek aşırı uyumun önlenmesine yardımcı olur. XGBoost algoritması, gelişmiş optimizasyon yöntemlerini etkili düzenleme ve hesaplama taktikleriyle birleştirerek olağanüstü tahmin performansı ve doğruluk sunan, makine öğrenimi profesyonelleri için güçlü bir araçtır. Sağlam bir matematiksel temele dayanmaktadır. Çok terimli Naif Bayes Multinomial Naïve Bayes (MNB), NLP'de yaygın olarak kullanılan olasılıksal bir öğrenme yöntemidir. NB sınıflandırıcısının bir çeşidi olarak MNB, sınıf değişkeninin değeri verilen her özellik çifti arasındaki ”saf“ koşullu bağımsızlık varsayımına sahip Bayes teoremine dayanmaktadır. Bu model, özelliklerin sayımlar veya sıklık sayımları olarak temsil edildiği sınıflandırma görevleri için özellikle uygundur, dolayısıyla özelliklerin tipik olarak belgelerdeki sözcük sayıları veya normalleştirilmiş sözcük sıklıkları olduğu metin sınıflandırma problemlerine iyi bir şekilde katkıda bulunur. MNB denklemindeki payda, olasılıkların 1'e kadar toplanarak normalleştirilmesini sağlar. Yeni bir belgenin sınıflandırılması gerektiğinde, MNB algoritması her sınıf için sonsal olasılığı hesaplar ve belgeyi en yüksek sonsal olasılığa sahip sınıfa atar. Sadeliğine ve bazen aşırı güçlü bağımsızlık varsayımına rağmen MNB, özellikle özelliklerin çok terimli olarak dağıtıldığı alanlarda karmaşık görevlerde şaşırtıcı derecede iyi performans gösterir ve bu da onu metin sınıflandırma araç setinde temel bir algoritma haline getirir. Destek Vektör Makinesi (SVM) SVM, problemler ve aykırı değerlerin tespiti için popüler bir denetimli makine öğrenimi tekniğidir. SVM'nin arkasında yatan fikir, veri noktalarını belirli bir özellik alanı içinde farklı sınıflara verimli bir şekilde bölmek için ideal hiperdüzlemi bulmaktır. Bu hiperdüzlem, ikili sınıflandırma senaryolarında farklı sınıflara ait destek vektörleri olarak bilinen en yakın veri noktaları arasındaki marjı maksimuma çıkaracak şekilde konumlandırılır. SVM, girdi özelliklerini daha yüksek boyutlu bir uzaya eşleyen bir çekirdek tekniği kullanır; burada bir hiperdüzlem, uygulamasını doğrusal olarak ayrılabilir konuların ötesine taşımak için sınıfları başarılı bir şekilde ayırabilir. RBF, polinom ve doğrusal çekirdekler sıklıkla kullanılan çekirdeklerdir. Çekirdek seçimi ve parametre ayarı, makinenin performansını büyük ölçüde etkilediğinden SVM'nin dağıtımında çok önemli aşamalardır. Matematikteki esnekliklerine ve titizliklerine rağmen, SVM'lerin eğitim sırasında ikinci dereceden programlama sorununun hesaplama maliyeti nedeniyle özellikle büyük veri kümeleri için ölçeklenebilirlik konusunda sınırlamaları vardır. Ancak SVM, doğru optimizasyonlar ve çekirdek seçimleri verildiğinde, çeşitli veri ortamlarında önemli modelleri ortaya çıkarabilen ve karmaşık sınırlar çizebilen, makine öğrenimi araç kutusunda güçlü bir araç olmaya devam ediyor. Bu, endüstriyel ve bilimsel kullanımlar açısından önemini vurgulamaktadır. Derin öğrenmeye dayalı sınıflandırıcılar İncelenen zorluklar karmaşık olduğundan, çeşitli model konfigürasyonlarını dikkatli bir şekilde oluşturuyoruz. Bu çalışmada, iki temel mimari paradigmaya odaklanarak DL'nin gelişmiş yeteneklerini kapsamlı bir şekilde araştırıyoruz: CNN'ler ve RNN'ler. Bunlar, CNN-GRU ve CNN-LSTM hibrit mimarilerini ve bağımsız CNN ve RNN modellerini içerir. Her model, spesifik bilimsel soruları ve hesaplama zorluklarını özel olarak ele almak için yapılmıştır. Evrişimli Sinir Ağı (CNN) Görsel görüntüleme işleme için kullanılan popüler bir DNN türü CNN'dir. Girdi verilerinden hiyerarşik mekansal özelliklerin otomatik ve uyarlanabilir şekilde öğrenilmesi, mimarisinin temelini oluşturur. Girdi verilerindeki kalıpları tanımlayan nöron katmanlarının giderek daha karmaşık hale gelmesiyle, CNN'ler görsel korteksin bilgi işlemesini taklit edecek şekilde tasarlanmıştır. Daha yüksek seviyeli özellikler, standart bir CNN mimarisinde ayrı katmanların bir yığını tarafından giriş verilerinden kademeli olarak çıkarılır. Giriş sırası sözcüklerini 128 birimlik yüksek boyutlu vektörlere dönüştüren bir gömme katmanıyla başlayarak bu modelle sırayla çalışıyoruz. Daha yüksek seviyeli işlemler için bu, girişin yoğun bir temsilini sunar. Bırakma katmanları, az miktarda veriyle eğitilen birçok modelin başına gelen aşırı uyumu durdurmak için kullanılır. Daha sonra, verilerdeki yerelleştirilmiş modeller, her biri 128 filtreye sahip üç farklı evrişim katmanı tarafından yakalanır. Çekirdek boyutlarının (3, 4 ve 5) değiştirilmesiyle geniş bir aralıkta uzamsal özellik çıkarımı sağlanır. Modelin dahili temsilinin boyutluluğunu azaltarak, küresel maksimum havuzlama katmanı sınıflandırma için gerekli özellikleri korur. Sonuçta, bu özellikler bir veya daha fazla yoğun katman tarafından karmaşık korelasyonların keşfedilebileceği bir alana haritalanır. Modelin sonunda bir sigmoid fonksiyonu tarafından etkinleştirilen yoğun bir katman, her sınıf etiketi için sınıflandırma olasılıkları üretir. LSTM LSTM ağları, geleneksel RNN'lerin eğitiminde karşılaşılan zorlukların üstesinden gelmek için titizlikle hazırlanmış özel bir Tekrarlayan Sinir Ağı (RNN) mimarisidir. Bu zorluklar öncelikle, diziler içindeki uzun vadeli bağımlılıkları yakalama ve öğrenme yeteneğini engelleyen, kaybolan ve patlayan gradyan sorunlarından kaynaklanmaktadır. LSTM'ler, bilgi akışını kontrol eden bir dizi geçit mekanizmasını birleştirerek bu engellerin üstesinden gelmek için özel olarak tasarlanmıştır. Bir LSTM ünitesinin mimari karmaşıklığı üç farklı kapıyla karakterize edilir: giriş kapısı, unutma kapısı ve çıkış kapısı. Bir LSTM hücresindeki her kapı, sırasıyla yeni bir girdinin sahip olması gereken etki derecesini, mevcut bilginin ne ölçüde korunması gerektiğini ve bir sonraki zaman adımına aktarılacak iç durumların oranını belirleyen bir nöbetçi gibi çalışır. LSTM'lerin pratik sonuçları derindir; çünkü dil modelleme, çeviri, dizi tahmini ve daha fazlasını içeren çok çeşitli görevlerde mükemmeldirler. LSTM içindeki kapıların ve durumların karmaşık etkileşimi, bilgilerin uzun süreler boyunca hatırlanmasına ve ilgisiz verilerin seçici olarak unutulmasına olanak tanır. Sonuç olarak, LSTM'ler sinir ağları alanında önemli bir ilerlemeyi temsil eder ve daha önce makine anlayışının ötesinde olduğu düşünülen sıralı verilerdeki kalıpların keşfedilmesine ve öğrenilmesine olanak tanır. Otomatik Kodlayıcı Otomatik kodlayıcılar, boyutluluk azaltma ve özellik öğrenme arayışını somutlaştıran bir sinir ağı paradigmasını temsil eder. Otomatik kodlayıcının temel amacı, orijinal girdinin sıkıştırılmış bilgi temsilini zorlayan ağ içinde bir darboğaz oluşturarak, tipik olarak boyut azaltma amacıyla belirli bir veri kümesi için bir temsili (kodlama) öğrenmektir. Bir otomatik kodlayıcının mimarisi, iki ana bileşenden oluşan zarif bir simetri sergiler: kodlayıcı ve kod çözücü. Kodlayıcının rolü, giriş verilerini gizli alan temsiline sıkıştırmaktır. Bunu, giriş verilerinin boyutlarını çeşitli katmanlar aracılığıyla kademeli olarak azaltarak ve sonuçta kodlanmış (sıkıştırılmış) bilgileri içeren darboğaza ulaşarak başarır. Buna karşılık, kodlayıcıyı yansıtan kod çözücü, bu kodlanmış girişi alır ve verileri orijinal boyutluluğuna göre yeniden yapılandırır. Otomatik kodlayıcıların mimari yapısı ve eğitim yaklaşımı, onları son derece çok yönlü hale getirir; veri gürültüsünü gidermeye, üretken modellemeye ve hatta diğer sinir ağları için bir ön eğitim adımı olmaya uygundur. Veri odaklı çağda ilerledikçe, otomatik kodlayıcıların önemi artmaya devam ediyor ve karmaşık veri kümelerinin içinde gizlenen doğal yapılara ve kalıplara ilişkin değerli bilgiler sağlıyor. LSTM-Otomatik Kodlayıcı Gelişmiş sinir ağı araştırmalarında, hibrit LSTM-Otomatik Kodlayıcı mimarisi, hem LSTM hem de Otomatik Kodlayıcıların güçlü yönlerinden yararlanan gelişmiş bir model olarak ortaya çıkmıştır. Bu kompozit yapı, zamansal bağımlılıkları yakalamak ve boyutsallık azaltmayı gerçekleştirmek için ustalıkla tasarlanmıştır; özellikle zaman serisi analizi, sinyal işleme ve doğal dil işleme gibi alanlarda yaygın olan dizi verilerinin işlenmesi için çok uygundur. Hibrit model kusursuz bir şekilde entegre edilmiş iki bileşenden oluşur: LSTM katmanları ve Otomatik Kodlayıcı çerçevesi. Başlangıçta, LSTM katmanları kodlayıcı görevi görür ve giriş dizisi verilerini tekrarlayan bağlantıları ve bilgi akışını kontrol eden kapılı mekanizmalar aracılığıyla işleyerek zamansal dinamikleri ustaca yakalar. LSTM'nin bilgiyi seçici olarak hatırlama ve unutma konusundaki benzersiz yeteneği, diziyi darboğazındaki sabit boyutlu bir vektöre kodlamasına ve girdi dizisinin zamansal özelliklerini kapsüllemesine olanak tanır. Daha sonra bu vektör, kodlanmış gösterim görevi görür ve bu daha sonra mimarinin Otomatik Kodlayıcı bölümüne girilir. Otomatik Kodlayıcı tipik olarak kodlayıcının mimarisini yansıtan ancak bunun tersini yapan bir kod çözücüye sahiptir. Amacı, LSTM'nin kodlanmış vektöründen orijinal diziyi yeniden oluşturmaktır. Yeniden yapılandırma aşaması, ağı, temel zamansal özelliklerini koruyan dizi verilerinin sıkıştırılmış bir temsilini öğrenmeye zorladığı için çok önemlidir. Hibrit bir LSTM-Otokodlayıcının eğitim süreci, zaman içinde geri yayılımı (BPTT) içerir; bu sırada model, orijinal giriş dizisi ile kod çözücü tarafından yeniden oluşturulan dizi çıkışı arasındaki farklılığı en aza indirmeyi öğrenir. Bu yinelemeli süreç, LSTM'nin önemli zamansal özellikleri yakalamasını teşvik ederken, Otomatik Kodlayıcının yeniden yapılandırma yeteneklerini geliştirmesine olanak tanır. Sonuç, sıralı verilerin sıkıştırılmış ancak bilgilendirici bir temsilidir. Hibrit LSTM-Otomatik Kodlayıcı modeli, karmaşık sıralı bilgileri ayrıştırma ve yorumlama kapasitemizde önemli bir ilerlemeyi temsil eder ve DL alanındaki en zorlu zorluklardan bazılarına zarif bir çözüm sunar. CNN-LSTM Hibrit Bu CNN-LSTM hibrit yaklaşımı, video sınıflandırma, NLP ve zaman serisi analizi gibi alanlarda yaygın olarak karşılaşılan karmaşık zorlukları çözmek için her iki mimarinin ilgili güçlü yönlerinden yararlanır. Bu alanlar genellikle önemli mekansal ve zamansal dinamiklere sahip verileri içerir ve bu da mekansal ve sıralı bilgilerin entegre edilmesini çok önemli hale getirir. Giriş verilerinden mekansal hiyerarşiler elde etmeye odaklanan bu hibrit mimarideki CNN bileşeni, hiyerarşik bir özellik çıkarıcı olarak işlev görür. Bir dizi evrişimli katman ve havuzlama katmanı, genellikle uzamsal boyutları en aza indirmek ve kritik bilgileri korumak için kullanılır. Bu aşama, havuzlama, evrişim ve doğrusal olmayan aktivasyon gibi teknikleri kullanarak mekansal özelliklerin çıkarılmasını kolaylaştırır ve boyutluluğu azaltır. Çıktı, girdi verilerini çeşitli düzeylerde temsil eden bir soyutlama katmanıdır. CNN-LSTM hibrit mimarisinin verimli bir şekilde kullanılmasında önemli bir unsur, hem CNN hem de LSTM bileşenlerinin parametrelerinin ve yapısının kasıtlı olarak düzenlenmesidir. İkisi birlikte, LSTM ağından alınan zamansal olarak akıllı analizleri CNN'den gelen mekansal olarak zengin temsillerle birleştiren bu formda daha etkili bir şekilde çalışır. Nihai sonuç, verilerde mevcut olan zamansal ve mekansal dinamiklerin kapsamlı bir şekilde anlaşılmasıdır. CNN-LSTM hibrit mimarisinin kullanımı, birçok farklı alanda üstün performansın arttırılmasında önemli olmuştur. Bu, zamansal dinamiklerin LSTM aracılığıyla anlaşılmasına ve mekansal bilgilerin CNN kullanılarak eş zamanlı olarak anlaşılmasına olanak tanıyan video analizi gibi alanları içerir. Sıralı verileri dikkatlice inceleyerek mimari, doğal dil işleme için metin verilerinde bulunan yapısal karmaşıklıkları ve bağlantıları yakalamada başarılı olur. CNN-LSTM hibrit modeli, uyarlanabilirliği ve esnekliği nedeniyle zengin mekansal ve zamansal dinamiklere sahip karmaşık veri türlerini yönetmek için etkili bir araçtır. Yöntemimiz CNN-LSTM mimarisinin avantajlarından yararlanmaktadır. Mimarimiz, giriş dizisindeki her kelimeyi CNN modeline benzer şekilde yoğun bir vektör temsiline dönüştüren bir yerleştirme katmanıyla başlar. Model daha sonra çekirdek boyutu üç ve filtreleri 64 ve 128 olan tek boyutlu evrişim katmanlarını (Conv1D) kullanır. Özellik haritası boyutunun azaltılması yoluyla hesaplama maliyetini en aza indirmek için her evrişim katmanından sonra bir maksimum havuzlama prosedürü uygulanır. Maksimum havuzlama ve evrişim katmanlarından sonra, önemli bir 64 birimlik LSTM katmanı eklenir. Bu katman, veri dizileri içindeki zamansal bağımlılıkların yakalanmasını mümkün kılar. Aşırı uyumu azaltmak için 0,2 oranında bir bırakma katmanı ekliyoruz. Sonunda, mimariyi tamamlamak için ReLU aktivasyonuna sahip 64 birimlik yoğun bir katman ve ardından ikili sınıflandırma uygulamaları için çok yararlı olan sigmoid fonksiyon aktivasyonuna sahip ikinci, 2 birimlik yoğun bir katman kullanıyoruz. CNN-GRU Hibrit Bu gelişmiş hibrit model, zamansal ve uzaysal dinamikler arasında düzgün bir etkileşim gerektiren DL uygulamaları için çok uygundur; çünkü uzaysal modellerin çıkarılmasında ve sıralı bilgilerin yakalanmasında iyi performans gösterecek şekilde dikkatle tasarlanmıştır. Artan bir filtre hiyerarşisi, bu algoritmanın ilk aşamasını içeren her bir evrişim katmanını belirler. 64 filtreyle başlayıp 128 kat daha büyük bir katmana doğru ilerliyor. Bu evrişimli bileşenler, giriş verilerinden hassas bir şekilde hiyerarşik özellikleri çıkarır. Her bir evrişim aşamasını takip eden maksimum havuzlama katmanlarının eklenmesi bu süreci vurgulamaktadır. Mimarinin sıralı bileşenine geçildiğinde, 64 birimlik önemli bir GRU katmanı etkinleştirilir. Bu GRU katmanı, benzersiz geçitleme teknikleriyle zamansal bağımlılıkların dikkatli bir şekilde incelenmesini koordine eden sistemin merkezi bileşenidir. Bu süreçler, dizinin her aşamasında hangi verinin saklanması veya yok edilmesi gerektiğine karar vererek bilgi akışını kontrol eder. Mimarinin dayanıklılığını güçlendirmek için, kasıtlı olarak 0,2 oranında bir bırakma katmanı eklenir. ReLU işlevi, mimari hiyerarşinin sonraki katmanlarının bir parçası olan yoğun bir katmandaki 64 birimi etkinleştirir. CNN-GRU hibrit modeli, zamansal ve mekansal analizleri düzgün bir şekilde birleşik bir çerçevede birleştiren kapsamlı bir çözümdür. Bu model, mevcut DL projeleri için tahmin doğruluğunu iyileştirmenin potansiyel olarak yararlı bir yolunu sunar. Değerlendirme önlemleri Çalışmamızda, uygulanan sınıflandırıcıların değerlendirilmesi, her modelin belirlenen görevi yerine getirmedeki etkinliğinin anlaşılmasında önemli bir rol oynamaktadır. Bu anlayışa ulaşmak için, sınıflandırıcıların etkinliğine ilişkin farklı bakış açıları sunan bir dizi performans ölçütü kullanıyoruz. Bu ölçümler matematiksel denklemlerle titizlikle tanımlanır. Bu ölçümler şunlardır: Geri Çağırma (REC), Hassasiyet (PREC), ACC ve F1-Score (F1). Bu göstergelerin her biri, bir bütün olarak ele alındığında sınıflandırıcı performansını değerlendirmek için benzersiz bir bakış açısı sağlarken, hem model seçimine hem de gelecekteki araştırma alanlarına rehberlik eden kapsamlı bilgiler sunar. 3. Tartışma Çalışmamız kendisini FND (FND) alanındaki önceki araştırmalardan birkaç önemli yönüyle ayırmaktadır. İlk olarak, metodolojimiz ISOT külliyatı, FakeNewsNet ve LIAR-PLUS veri seti gibi veri setlerini entegre ederek kapsamlı ve çok boyutlu bir yaklaşımı içermektedir. Bu birleştirme, temel ikili sınıflandırmayı aşarak ”Yarı Doğru“ ve ”Çok Az Doğru" gibi daha incelikli kategorileri içerecek şekilde incelikli bir incelemeyi kolaylaştırır. Bu katmanlı ve hiyerarşik veri derlemesi, sınıflandırma yöntemimizin karmaşıklığını ve derinliğini giderek artırmak ve sahte haberlerin yol açtığı çok yönlü zorlukları daha kapsamlı bir şekilde ele almak üzere tasarlanmıştır. Ayrıca çalışmamızda RF ve XGBoost'tan CNN, LSTM ve LSTM AutoEncoder'a kadar çeşitli ML ve DL sınıflandırıcıları kullanılmaktadır. Çeşitli modellerin dahil edilmesi, farklı veri kümeleri genelinde performansın daha kapsamlı bir şekilde değerlendirilmesine olanak tanır ve her modelin değişen bağlamlardaki etkinliğine ışık tutar. Sonuçlar açısından, çalışmamız ISOT, FakeNewsNet, Dataset1 ve Dataset2 gibi veri kümelerinde ML sınıflandırıcıları için değişen ACC düzeylerini göstermektedir. Özellikle XGBoost modelinin tüm veri kümelerinde sürekli olarak yüksek performans göstermesi ve dikkat çekici ACC seviyelerine ulaşması dikkat çekicidir. Doğrusal SVM, performansta kayda değer değişkenlik sergiliyor ve RF sınıflandırıcı, FakeNewsNet veri kümesinde kayda değer ACC ile sağlam bir performans sunuyor. Bu, bu kadar çeşitli sınıflandırıcıları veya veri kümelerini keşfetmemiş olabilecek önceki çalışmalarla çelişiyor ve çalışmamızın alana benzersiz katkılarını ve içgörülerini sergiliyor. DL alanında çalışmamız, farklı veri kümelerinde CNN, CNN-LSTM, CNN-GRU, LSTM ve LSTM AutoEncoder gibi modellerin performansındaki önemli değişkenliği ortaya koyuyor. Özellikle LSTM modeli, ISOT veri kümesinde mükemmele yakın ACC ile öne çıkıyor. İlginçtir ki, LSTM AutoEncoder modeli sürekli olarak muadillerine göre daha düşük performans sergiliyor ve bu da uygun DL modellerinin seçiminde veri kümelerinin spesifik özelliklerinin dikkate alınmasının önemini vurguluyor. Çalışmamız FND hakkında giderek artan bilgi birikimine katkıda bulunuyor. Çeşitli veri kümelerini entegre etmesi ve çok çeşitli sınıflandırıcıları ve modelleri keşfetmesiyle kendisini farklı kılar. Sonuçlar FND'nin incelikli doğasını ortaya koyuyor ve dijital ortamda yanlış bilginin yol açtığı gelişen zorlukları ele almak için özel ve bağlama özgü bir yaklaşıma duyulan ihtiyacı vurguluyor. 4. Sonuç ve Bulgular Özetle, kapsamlı araştırmamız, çeşitli uygulamalardaki yanlış bilgileri tanımlamaya yönelik çeşitli ML ve DL modellerinin potansiyeline ilişkin temel bir araştırma sağlar. Her modelin performansının kapsamlı bir değerlendirmesini sağlamak için her biri farklı özelliklere sahip çeşitli veri kümelerinden yararlandık. RF, Doğrusal SVM ve DT gibi geleneksel makine öğrenimi algoritmaları, CNN, LSTM ve hibrit versiyonlar gibi gelişmiş derin öğrenme çerçeveleriyle birlikte değerlendirildi. Analizimiz, bir modelin etkinliğini belirlemede veri kümesinin ve sınıflandırma görevinin kritik rolünün altını çizdi. Bazı modeller tüm veri kümelerinde sürekli olarak yüksek ACC elde ederken, diğerleri belirli senaryolarda olağanüstü performans gösterdi. Bu, FND'nin karmaşık sorununu çözmeye yönelik evrensel bir çözümün bulunmadığını vurgulamaktadır. Bunun yerine sonuçlarımız, eldeki görevin özelliklerine özel olarak uyarlanmış modelleri birleştirerek en iyi sonuçların elde edilebileceği çok modlu bir stratejinin gerekliliğini vurgulamaktadır. Bu güçlü tekniğin desteğiyle, giderek dijitalleşen dünyada gerçeği daha iyi koruyabilir ve bilgi paylaşımının bütünlüğünü koruyabiliriz. 5. Gelecek İş Hızla gelişen bu alandaki araştırma ortamı birçok heyecan verici fırsat sunmaktadır. İlk olarak, teknoloji ilerlemeye devam ettikçe sahte haber oluşturma ve yaymada kullanılan yöntemler muhtemelen giderek daha karmaşık hale gelecektir. Bu gelişen taktiklerin ilerisinde kalabilmek için modellerimizi sürekli olarak uyarlama ve geliştirme sürecini sürdürmemiz gerekiyor. Bir başka ilgi çekici araştırma yönü ise yanlış haberlerde sıklıkla gözlemlenen duygu analizi veya dil kalıpları gibi unsurların dahil edilmesidir. Bu eklemeler modellerimizin tahmine dayalı ACC'sini geliştirebilir. Çeşitli modellerin avantajlarını birleştiren topluluk yaklaşımlarının oluşturulması, yanlış bilgiye karşı daha güçlü bir bariyer oluşturmak için uygulanabilir bir plan sunmaktadır.
Özet (Çeviri)
In the contemporary digital landscape, online news portals have become the primary information source for a diverse audience. However, the rampant spread of misinformation poses considerable challenges in discerning genuine news from fabricated narratives. This thesis undertakes an extensive examination of diverse machine learning (ML) and deep learning (DL) techniques to enhance the detection of fake news across various settings. Our research encompasses seven conventional ML methods, including Random Forest and Decision Tree, alongside five advanced DL approaches like LSTM and CNN. Rigorous testing was conducted on four distinct datasets: ISOT, FakeNewsNet, Dataset1, and Dataset2. A detailed analysis of each model's performance reveals notable variations in accuracy levels. For instance, CNN achieved a remarkable accuracy of 98.59% on the ISOT dataset, while CNN-GRU excelled on the FakeNewsNet dataset with an impressive 99.97% accuracy. In contrast, the LSTM-AutoEncoder model exhibited lower accuracy rates, ranging between 24% and 62%. Our study underscores the pivotal influence of dataset characteristics on model selection and optimization. By offering a comprehensive evaluation of ML and DL effectiveness in fake news detection, this research significantly contributes to advancing more potent strategies for combating online misinformation.
Benzer Tezler
- Stance classification for fake news detection in social media
Sosyal medyada sahte haber tespiti için durum sınıflandırması
MAYSAA M. S. ALSAFADI
Yüksek Lisans
İngilizce
2023
Bilgisayar Mühendisliği Bilimleri-Bilgisayar ve KontrolKaradeniz Teknik ÜniversitesiBilgisayar Mühendisliği Ana Bilim Dalı
DR. ÖĞR. ÜYESİ MURAT AYKUT
- Yapay zekâ ve demokrasi
Artificial intelligence and democracy
AYŞE NUR YAZICILAR
Yüksek Lisans
Türkçe
2023
HukukGalatasaray ÜniversitesiKamu Hukuku Ana Bilim Dalı
PROF. DR. ŞULE ÖZSOY BOYUNSUZ
- Fake news detection with deep learning and machine learning methods
Sahte haberlerin derin öğrenme ve makine öğrenmesi ile tespiti
HATİCE KÜBRA KILINÇ
Yüksek Lisans
İngilizce
2021
Bilgisayar Mühendisliği Bilimleri-Bilgisayar ve KontrolHasan Kalyoncu ÜniversitesiElektronik ve Bilgisayar Mühendisliği Ana Bilim Dalı
DR. ÖĞR. ÜYESİ BÜLENT HAZNEDAR
- Fake news detection using deep neural networks
Derin sinir ağlarını kullanarak sahte haber tespiti
ABUBAKER ABDALLAH ALGUTTAR
Doktora
İngilizce
2024
Bilgisayar Mühendisliği Bilimleri-Bilgisayar ve KontrolAnkara Yıldırım Beyazıt ÜniversitesiBilgisayar Mühendisliği Ana Bilim Dalı
PROF. REMZİ YILDIRIM
- Sosyal medyadaki Türkçe sahte haberlerin derin öğrenme yaklaşımıyla tespiti ve sınıflandırılması
Detection and classification of fake news in Turkish on social media using a deep learning approach
GÜLSÜM KAYABAŞI KORU
Doktora
Türkçe
2024
Bilgisayar Mühendisliği Bilimleri-Bilgisayar ve KontrolGazi ÜniversitesiAdli Bilişim Ana Bilim Dalı
PROF. DR. ÇELEBİ ULUYOL