Geri Dön

Search for direct supersymmetric top quark with deep learning techniques at LHC and HL-LHC

Derin öğrenme teknikleriyle LHC ve HL-LHC'de süpersimetrik top kuark arayışı

  1. Tez No: 527750
  2. Yazar: CEREN GÜZELGÜN
  3. Danışmanlar: DOÇ. DR. MUAMMER ALTAN ÇAKIR
  4. Tez Türü: Yüksek Lisans
  5. Konular: Fizik ve Fizik Mühendisliği, Physics and Physics Engineering
  6. Anahtar Kelimeler: Belirtilmemiş.
  7. Yıl: 2018
  8. Dil: İngilizce
  9. Üniversite: İstanbul Teknik Üniversitesi
  10. Enstitü: Fen Bilimleri Enstitüsü
  11. Ana Bilim Dalı: Fizik Mühendisliği Ana Bilim Dalı
  12. Bilim Dalı: Belirtilmemiş.
  13. Sayfa Sayısı: 141

Özet

Belli tiplerdeki parçacıkların bir araya gelerek maddeyi oluşturması, milattan önce altıncı yüzyılda bile filozofların akıllarında yer eden bir düşünceydi. Bu fikirler 19. yüzyılın başlangıcında fiziksel olarak da güvenilirlik kazanmaya başlasalar da, günümüzdeki haliyle bildiğimiz“temel parçacık”konsepti seneler içerisinde anlamını bir çok kere değiştirdi. Örneğin modern fizik; uzun yıllar boyu“dayanıklı”kabul edilen temel parçacıkların bozunabileceğini ya da yıkıcı çarpışmalara girebileceğini gösterdi. Temel parçacıklar bu çarpışmaların sonucunda var olmayı durdurabilirler, veya yeni parçacıkların oluşmasına sebep olabilirler. Maddenin yapıtaşı arayışı tarih boyunca daha küçük yapıda parçacıkların bulunmasına yol açtı. Molekülleri oluşturan atomlar, atomları oluşturan atom altı parçacıklar gibi. Parçacık fiziği, evreni oluşturan bu parçacıkları, etkileşimlerini ve çeşitli enerji seviyelerindeki yapılarını inceler. Bu alanda en gelişmiş çalışmalar yarım yüzyılı aşkın bir süredir İsviçre'nin Cenevre kentinde konuşlanmış olan Avrupa Nükleer Araştırmalar Merkezi (CERN)'de yürütülmektedir. 21 üye ülke başta olmak üzere, dünyanın 100 farklı ülkesinden gelen (veya uzaktan çalışan) 11000 bilim insanı, CERN'ün imkanlarından faydalanmaktadır. Dünyanın en büyük ve kompleks enstrümanları temel parçacıkları daha iyi anlayabilmek için bu merkezde kullanılır. \textit{Large Hadron Collider} (LHC), yerin 175 metre altında ve 25 kilometre çapındaki dairesel bir tünelin içerisinde yer alan bir parçacık hızlandırıcısıdır. Bu komplex yapı, inşa edilmiş en büyük ve kompleks deneysel fasilitedir. Hızlandırıcıdaki ilk araştırma, 2010 yılının mart ayında başlamış ve 2013'e kadar sürmüştür. Bu araştırma çerçevesinde ışın başına 4 teraelektronvolt mertebesinde enerjilere ulaşılmış, ve bir hızlandırıcı için o zamanın dünya rekoru dörde katlanmıştır. İki yıllık bir bakım sürecine giren LHC, 2015'in başlarında yeniden çalıştırılmış ve günümüzde de çalışmaya devam etmektedir. LHC'nin odağı çeşitli parçacık fiziği teorilerini test etmektir. Higgs parçacığının özellikleri, süpersimetri tarafından öngörülen yeni parçacıkları gözlemleyebilmek gibi, henüz çözülememiş fizik sorularına yanıtlar aramaktadır. Hızlandırıcının dört noktasında, farklı amaçlara hizmet eden yedi dedektör bulunur. LHC, genel olarak proton demetlerini çarpıştırsa da, gerektiğinde ağır iyonlarla da deneyler yapılabilir. 2013 ve 2016 yıllarında yapılan proton-kurşun çarpışmaları, 2010, 2011 ve 2013 yıllarında tekrarlanan kurşun-kurşun çarpışmaları buna örnek verilebilir. LHC'de bir başka rekortmen, hesaplama ağıdır. Çarpışmala verisi, eşi benzeri görülmemiş bir hızda üretilir, ve dünya üzerinde 42 ülkede bulunan 170 merkezden oluşan bir ağda işlenir. Önceki paragraflarda bahsi geçen LHC üzerindeki dedektörler, 4 ana deneye hizmet eder. Bu deneyler ATLAS, CMS, ALICE ve LHCb olarak isimlendirilmiştir. CMS ve ATLAS deneyleri, aynı fiziksel sorunun cevabına farklı tekniklerle ulaşmaya çalışmaktadır. Deneylerde farklı yapılarda tasarlanmış, genel kullanıma yönelik dedektörler kullanılır. ALICE deneyi kuark-gluon plazmayı incelerken, LHCb madde ve antimadde miktarı arasındaki eşitsizliği araştırır. Tezin içeriğini oluşturan simülasyon ve incelemeler CMS dedektörü bünyesinde gerçekleştirildiğinden, özette sadece bu deneyden detaylıca bahsedilmesi uygun görülmüştür. Türkçe anlamı“kompakt müon solenoit”olan CMS, LHC'de yer alan iki ana dedektörden biridir. Bu dedektörle yapılan deneyler kara maddeyi oluşturabileceği düşünülen parçacıkları araştırma, ekstra boyutlar ve Higgs bozonunun özellikleri gibi konulara yöneliktir. CMS dedektörü 21.6 metre uzunluğunda, 15 m çapında ve 14000 ton ağırlığındadır. Fransa'nın Cessy kentinde, yerin altında bulunur. 43 ülke ve 199 enstitüden gelen 3800 bilim insanı, dedektörü kuran ve işleyişini sağlayan CMS işbirliğini oluşturur. Deney üyeleri, ATLAS deneyi üyeleri ile birlikte 2012 yılının temmuz ayında, Higgs bozonunun keşfini açıklamışlardır. Bu, fizik tarihinde çığır açan bir gözlem olmakla birlikte, fizikte hala cevaplanamamış bir çok önemli soru olduğu unutulmamalıdır. Bu soruların başında, özetin devamında değinilecek olan Standart Model'in eksiklikleri, kara madde, ve kara enerji gelir. Elektromanyetik, güçlü nükleer, zayıf nükleer kuvvetler ile yerçekimi, evrendeki dört temel kuvvetlerdir. Evreni oluşturan parçacıkları ve bu kuvvetleri tanımlayan teoriye ise, Standart Model adı verilir. Bu teorinin oluşturulmasındaki ilk adım, 1961 yılında Sheldon Glashow'un elektromanyetik ve zayıf etkileşimleri birleştirebilmesiyle atılmıştır. Standart modele göre 1/2 spinli fermiyonlar ile 1 spinli bozonlar (ve bu fermiyon ile bozonların antiparçacıkları) temel parçacıkları oluşturur. Model 3 farklı lepton ve kuark jenerasyonu içerir, her jenerasyon 2 üye barındırır. Modeldeki 6 kuark üst, alt, tılsım, garip, yukarı ve aşağı olarak isimlendirilmiştir. 6 adet lepton; elektron, müon, tau ve bunların nötrinolarından oluşur. Kuvvet etkileşimlerini sağlayan 8 gluon, 1 foton, $Z^{0}$, 2 adet $W^{\pm}$ ve 2012 yılında keşfi ile standart model parçacıklarını tamamlayan Higgs bozonu olmak üzere toplam 13 adet bozon bulunur. Kendi içinde tutarlı olan ve fizik tarihinin en sağlam teorilerinden birisi olan standart model, yine de bazı soruları cevaplamakta güçlük çekmektedir. Madde-antimadde arasındaki dengesizlik, evrenin neredeyse $\%95$'ini oluşturan kara madde ve kara enerji gibi konular henüz bu modelin yardımıyla açıklanamaktadır. Bu nedenle fizikçiler, cevabı standard modelin ötesindeki teorik modellerde aramaya başlamışlardır. Deneysel anlamda bir kanıt sağlanamamış olsa da, teorik yönden otuz yılı aşkın bir süredir en başarılı olan kuram, Süpersimetridir (SUSY). Standart model tarafından tanımlanan her parçacığın bir partneri olduğunu savunan SUSY, fermion ve bozonlar arasında bir simetri kurar. Hesapsal olarak fermiyonları bozonlara, bozonları da fermiyonlara dönüştürebilir. Teorik alanda vaat ettiği başarıların da yardımıyla SUSY günümüzde hala bir çok deney ve teori grubu tarafından üstünde çalışılan bir alandır. SUSY araştırmalarında aranan parçacıklar sinyal olarak adlandırılırken kalan bütün standart model kaynaklı fiziksel olaylar ardalan olarak bahsedilir. Sinyali ardalandan ayırt edebilmek için bir çok teknik kullanılmakta olup, derin öğrenme ve yapay zeka sık başvurulan yöntemlerdendir. Tezde SUSY sinyalleri Monte Carlo simülasyon teknikleriyle üretilmiş olup, stardart modelden kaynaklanan ardalan Madgraph ve Pythia isimli bilimsel yazılımlar yardımıyla sağlanmıştır. Sinyal ve ardalanı birbirinden ayırabilmek adına çeşitli derin öğrenme yöntemleri üzerinde çalışılmıştır. Dedektör etkisi sinyal ve ardalan verilerine Delphes adındaki bir başka bilimsel yazılım yardımıyla eklenmiş, ve veriler ROOT veri analizi programı tarafından okunabilen ağaç (tree) formatına çevrilmiştir. Farklı yığılım sonuçları, Delphes programındaki kartlar yardımı ile simüle edilmiş, yığılımsız ve 50 yığılımlı senaryolar 300$fb^{-1}$ luminositede incelenirken 140 yığılımlı senaryoda 3000$fb^{-1}$ kullanılmıştır. Bu ağaç formatında fiziksel bilgiler barındıran veri dalları bulunur ve ilk aşamada Delphes'ten çıkan bu dosyalar dezavantaj sağlayacak büyüklüklere sahiplerdir. Analizin yararına olacak parametreler belirlendikten sonra özelleştirilmiş yazılım yardımıyla bu bilgileri barındıracak ntuple adı verilen yeni, ve daha küçük boyuttaki ağaçları yaratılmıştır. Sinyali ardalandan ayırmak amacıyla, bilinen fiziksel gerçeklerden yola çıkılarak veride bir takım sınırlamalar - veya kesintiler - uygulanmıştır. Örneğin, sadece belirlenen bir momentum sınırından yüksek veya alçak olayları kabul etmek gibi. İki aşamalı bir kesme sistemi uygulanmakta olup, ilk aşamada genel parametrelere dikkat edilirken ikinci aşamada sinyal bölgesini ele alarak hareket edilmiştir. Yıllardır bu alanda yapılan çalışmalar ve yayınlardan yararlanarak sinyali ardalandan ayırmada en etkili değişkenler $H_{T}, E_{T}^{miss}, M_{T}$ ve $M_{T2}^{W}$ olarak seçilmiş olup, $\alpha_{M_{T2}^{W}}$ isimli yeni bir değişken de tez sahibi ve danışman hocanın çalışmaları sonucunda teklif edilmektedir. Bu değişkenlere uygulanan işlemler sonucu kalan sinyal ve ardalan miktarı sayılır. Son adım, değişkenler üzerinden analiz yapan TMVA (Toolkit Multivariate Data Analysis) programına seçilen değişkenlerden oluşan ağaçların beslenmesidir. TMVA bünyesinde ötelenmiş karar ağacı (BDT) ile, çok katmanlı sinir ağları (MLP) metodları incelenmiştir. Aynı sinyallere farklı luminosite ve yığılım senaryolarında bakarak, yığılımın öğrenimleri nasıl etkilediği anlanmaya çalışılmıştır. Öğrenim sonuçlarındaki farklılıklar, yığılımın kendi başına bir etken olabileceğine işaret etmektedir. Aynı koşullarda farklı değişkenler kullanılarak yapılan öğrenimlerde ise, bu değişkenlerin performansları daha iyi anlanmaya çalışılmıştır. Tezin planlanması şu şekilde yapılmıştır: Bölüm 1'de Standart Model ve Süpersimetri teorilerine kısa bir giriş yapılmıştır. Bölüm 2, LHC ile CMS'in teknik yapısını tartışır. Bölüm 3, analiz stratejisini, yapılan seçilimleri, kullanılan değişkenleri ve derin öğrenim metodlarını tanıtır. Elde edilen sonuçlar, Bölüm 4'te ayrıntılı bir şekilde tartışılır. Bölüm 5, analizi ve elde edilen sonuçlardan dersler çıkararak gelecek işlerde yapılabilecek iyileştirmeler için öneriler teklif eder.

Özet (Çeviri)

The idea that certain particles can come together to form up matter has been around since 6 BC. Although these ideas started gaining physical credibility around the 19th century, the description of elementary particles have changed multiple times throughout the years. At first, elementary particles were thought to be indestructible, nevertheless we now know thanks to modern physics that they can decay, go under destructive collisions and either stop existing, or cause new particles to be created. The search for the building blocks of matter gave way to smaller and smaller particles throughout years e.g molecules that are made up of atoms, atoms that are made up of subatomical particals. Particle physics take interest in these particles, their interactions, and their behaviour under certain energy scales. For more than half a century, the most advanced research on this area have been made at European Organization for Nuclear Research (CERN) in Geneva, Switzerland. About 11000 scientist coming from over 100 countries around the world have been benefiting from the tools in this gigantic facility. Worlds largest and most complex equipments are being used at CERN to have a better understanding of the universe. Large Hadron Collider (LHC) is a particle accelerator that is 25 km long in circumference and placed 175 meters underground. This complex structure is the largest experimental facility that has ever been built. First research with LHC was done in March, 2009 and continued until 2013. A world record has been broken with this research when a 4 TeV of energy per beam was reached. LHC had to go under maintenance for two years after this experiment, and started running again in early 2015. LHC focuses on testing various particle physics theories. It seeks the answers to the questions such as the properties of the Higgs boson or observing particles that are anticipated by beyond the standard model theories such as supersymmetry and exotic models. Seven detectors are placed at four points of the collider. Although LHC primarily collides protons, if necessary it can also work with heavy ions. Proton-lead collisions in 2013 and 2016, or lead-lead collisions in 2010, 2011, and 2013 are given examples. Another record breaking quality of LHC is the computing-grid. Data from collisions are produced at an extraordinary rate, and processed at 170 computing centers located in 42 countries around the world. The afforementioned detectors built on LHC serve to 4 main experiments named ATLAS, CMS, ALICE and LHCb. CMS and ATLAS experiments seek the answers to the same question with different experimental techniques. The difference emerges from the use two individually built, general purpose detectors that bear the same name with their corresponding experiments. ALICE experiment takes interest in quark-gluon plasmas, whereas LHCb dwells on the aftermath of antimatter. Monte Carlo (MC) simulation is a vital tool in experimental particle physics. MC is used in the high energy physics (HEP) area for designing or optimizing detectors, simulating particle interactions within the detector, and physics analysis. It helps simulate predicted physics such as the SM and BSM particles, is an effective tool in background estimation and event selection. In this manner this thesis uses a large portion of Monte Carlo samples to understand unknown interactions at LHC. SUSY samples used in this thesis are produced with Madgraph and Pythia, whereas the standard model (SM) background comes from Snowmass effort. Various deep learning methods were studied to separate signal from the background. Detector response was simulated with Delphes software, letting us observe different pile-up scenarios. No pileup, 50 pileup, and 140 pileup are chosen as different cases. Signals at no pileup and 50 pileup are simulated at LHC conditions, with 300$fb^{-1}$, whereas 140 pileup case is simulated at the High Luminosity LHC (HL-LHC) 3000$fb^{-1}$. Tree format is consisted of branches and leaves that contain physical information. At this step the files are large enough to cause disadvantages for analysis. After deciding on the necessary information and variables, lighter ntupled trees are generated. Certain cuts rooting from physical properties were applied in order to separate signal from background. Two steps of cuts are followed, namely; baseline and signal cuts. In baseline cuts good events are selected and made sure the resulting events define the signature we want. In signal cuts the first step is to decide on good kinematical variables that supress the SM background the best. In this thesis, these variables are $H_{T}, E_{T}^{miss}, M_{T}$ and $M_{T2}^{W}$. A new varaible is proposed that is defined as $\alpha_{M_{T2}^{W}}$. Cutflow tables were then built for left signal and background events. Toolkit Multivariate Data Analysis (TMVA) software was used to analyse kinematical variables. Boosted desicion trees (BDT) and neural networks (MLP) methods were chosen for analysis. By doing the trainings at LHC and HL-LHC, the effect of pileup is carefully observed. BDT and MLP responses of the same signals at different pileup scenarios differed from each other. The aim in using different variables at the same conditions is to have a better understanding of their performance. The thesis is structured as follows: an introduction to the standard model and supersymmetry is given in Chapter 1. Technical details of the Large Hadron Collider and CMS detector is discussed in Chapter 2. Chapter 3 is devoted to the analysis strategy, selections, kinematic variables and multivariate analysis techniques. Results are interpreted and discussed in detail in Chapter 4. Finally, in Chapter 5 the work is concluded with final remarks, and improvements were discussed for future works.

Benzer Tezler

  1. Farklı süpersimetrik modeller ve diğer bazı yeni fizik yaklaşımlarında hadronik FCNC geçişlerinin fenomenolojisi

    Phenomenology of the hadronic FCNC transitions in different supersymmetric models and some other new physics approaches

    ASİYE TUĞBA OLGUN

    Doktora

    Türkçe

    Türkçe

    2014

    Fizik ve Fizik Mühendisliğiİstanbul Üniversitesi

    Fizik Ana Bilim Dalı

    PROF. DR. SEHBAN KARTAL

    DOÇ. DR. KAZEM AZIZI

  2. Su ve karbondioksitin direk tepkimesi için katalizör geliştirilmesi

    Development of catalyst for direct reaction of water and carbon dioxide

    GÜLSÜM ARIT

    Yüksek Lisans

    Türkçe

    Türkçe

    2024

    Kimya MühendisliğiKocaeli Üniversitesi

    Kimya Mühendisliği Ana Bilim Dalı

    DOÇ. DR. MURAT EFGAN KİBAR

  3. Türkiye'de finansal sektörün reel sektöre fon yaratma gücü ve finansal fon akımları

    The fund creation power to the private sector in Turkey and financial fund flowings

    MAHMUT ALİ MÜMTAZ KOZAN

    Yüksek Lisans

    Türkçe

    Türkçe

    2007

    EkonomiMarmara Üniversitesi

    İktisat Ana Bilim Dalı

    PROF.DR. ORHAN SEZGİN

  4. Modeling the behaviour of carbon dioxide content in geothermal reservoirs using multiple tank lumped parameter models

    Jeotermal rezervuarlarda karbondioksit miktarının çoklu tank modeli ile modellenmesi

    ALPER SÜLEYMAN CAN

    Yüksek Lisans

    İngilizce

    İngilizce

    2018

    Enerjiİstanbul Teknik Üniversitesi

    Enerji Bilim ve Teknoloji Ana Bilim Dalı

    DOÇ. DR. ÖMER İNANÇ TÜREYEN

  5. Biyomagnetik olaylar

    Başlık çevirisi yok

    M.TOGAN ÇANDIR

    Yüksek Lisans

    Türkçe

    Türkçe

    1996

    Elektrik ve Elektronik Mühendisliğiİstanbul Teknik Üniversitesi

    PROF.DR. İNCİ AKKAY