How to govern military ai: On the global governance of artificial intelligence from an international security perspective
Askeri yapay zeka nasıl yönetilmeli: Uluslararası güvenlik perspektifinden yapay zekanın küresel yönetimi
- Tez No: 683902
- Danışmanlar: DOÇ. DR. EMİNE ASLI ÇALKIVİK
- Tez Türü: Yüksek Lisans
- Konular: Bilim ve Teknoloji, Savunma ve Savunma Teknolojileri, Uluslararası İlişkiler, Science and Technology, Defense and Defense Technologies, International Relations
- Anahtar Kelimeler: Belirtilmemiş.
- Yıl: 2021
- Dil: İngilizce
- Üniversite: İstanbul Teknik Üniversitesi
- Enstitü: Lisansüstü Eğitim Enstitüsü
- Ana Bilim Dalı: Bilim, Teknoloji ve Toplum Ana Bilim Dalı
- Bilim Dalı: Bilim, Teknoloji ve Toplum Bilim Dalı
- Sayfa Sayısı: 146
Özet
Yapay zekanın insanlık üzerindeki potansiyel etkileri uzun bir süreden beri bilim kur-gu sinema ve edebiyatın ilgi çekici konularından biri olagelmiştir. Akıllı cihazların ucuzlaması ve yaygınlaşması ile birlikte her bir bireyin veri üreticisi ve bu verilerle eğitilen algoritmaların günlük kullanıcıları haline geldiği günümüzde bilim kurgu sen-aryolarının artık gerçek olma ihtimali her zamankinden çok daha yakındır. Distopik geleceğin en korkutucu aktörlerinden ölümcül otonom robotlar artık ciddi politik tartışmaların bir parçasıdır. Ölümcül otonom silah sistemleri genel adıyla anılan bu sistemler artık teknik olarak mümkün, politik ve finansal olarak da makul seviyelere gelmiştir. Öyle ki Çin, Rusya, ABD gibi büyük devletler 2035 yılına kadar envanter-lerine otonom uçuş ve otonom ateşleme özelliğine sahip dronelar ekleyeceğini açıklamıştır. Yapay zekanın askeri alanda üzerinde ortak olarak anlaşılmış bir regüla-syondan geçmeden hızlıca entegre planları yapılması özellikle sivil toplum ve uluslararası organizasyonlar nezdinde karşıt kampanyalar şeklinde reaksiyon bulmuştur. Bu tez yapay zekanın uluslararası yönetimi için bir çerçeve sunmayı amaçlar. Bu hedef çerçevesinde ilk olarak yapay zekanın mevut problematik yanlarını ve yapay zeka üzerine sunulan yönetim ve regülasyon çerçevelerini analiz eder. Yapay zekanın problematic yanlarının en başında tanımsal muğlaklık gelir. Geniş ve sürekli gelişen teknik bir alan olarak yapay zekanın üzerine ortak anlaşılmış bir tanımı yoktur. Politi-ka odaklı dökümanlarda yapay zeka insani özelliklere benzetilerek tanımlanır, bunun yanında bilimsel dökümanlardaki tanımlar fonksiyonalite ve teknik becerileri kulla-narak yapay zekayı tanımlarlar. Politik tanımlar yapay zekayı insan zekasının teknik bir tezahürü olarak lanse ettiğinden, teknolojinin gelişim sürecinin nihai noktası olarak yapay süper zekayı görürler. Akademik tanımlar ise günümüzde kullanımda olan tekniklere atıf yaparak bir yapak“dar”zeka tanımı yaparlar: sınırlandırılmış belli amaçları sınırları belirlenmiş bir çevrede insan müdahalesi olmadan otonom olarak gerçekleştirebilen sistemler. Tanımlama metodolojileri arasındaki uçurum iki tarafın ortak bir dil konuşmasına mani olmaktadır ve bu ortak dil yakalanmadığı sürece ya-pay zekayı teknik açıdan regüle etmek isteyen karar vericilerin bürokratik iletişimde aşılmaz bariyerler ile karşılaşacağı öngörülmektedir. Problemin ikinci ayağını etik problemler oluşturur. Yapay zekanın sivil alanlarda kullanımları dahi ciddi problemler doğurmaktadır, ve bu problemlerin tam olarak or-tadan kaldırılması için yeterli yönetim kabiliyeti bulunmamaktadır. Algoritmalara emanet edilen insan kaynakları sistemlerinin cinsiyetçi tercihler yapması, adres bazlı fiyatlama algoritmasının ırkçılıkla suçlanması ve en iyi niyetle dahi yönetilse de veri güvenliğinin hiçbir zaman %100 sağlanamıyor olması, yapay zekanın eşitlik, mahrem-iyet ve adalet konularında güvenilmez sistemler olduğunu ortaya koyuyor. Bu etik problemlerin yanında yapay zeka sistemlerinin istemli olarak kötü amaçlar için kullanımı da mümkündür. Halihazırdaki fiziksel ve siber tehditlerdeki karar verme senaryolarının otomatize edilmesi yapay zeka ile daha kolay olacaktır. Yapay zeka sistemlerinin ölçeklenebilir ve sürekli eğitilebilir olması alınan her yeni önlemi de geçersiz kılabilme yeteneğine sahiptir. Fiziksel saldırılarda karar verici ile hedef arasındaki fiziksel mesafe psikolojik yükü de ortadan kaldıracağından ölümcül amaçlı saldırıların artmasından endişe edilmektedir. Bunun yanında yalan haber ve deep-fake gibi yanıltıcı içeriklerin ölçekli şekilde yapay zeka ile üretimi daha da kolay hale gelecek ve bu durum da siyasi tehdit olarak karşımıza çıkma potansiyeline sahiptir. Otonom ölümcül silah sistemlerinin hiç olmadığı kadar gerçeğe yakın olması karmaşık hukui tartışmaların da doğmasına sebep olmuştur. Yapay zeka tarafından navigasyon ve ateşleme sistemleri kontrol edilen silahların uluslararası savaş hukuku ve uluslararası insancıl hukuk karşısında çözümlenmesi çok zor sorunlar doğurmaktadır. Bir kesim araştırmacı yapay zeka destekli sistemlerin silahlı çatışma durumunda ölüm-leri azaltacağını idda ederken, diğer bir kesim yapay zeka sistemlerinin silahlı çatışmanın karmaşık ve anlık doğasını çözümleyemeyeceğini ve daha çok ölüme se-bep olacağını savunmaktadır. Öyle ki bir insanın makul hedef olup olmaması çok görecelidir ve otomatize edilemeyecek karmaşıklıkta olduğu iddia edilir. Bu sebeple mevcut savaş hukukuna göre bu tür silahların hiç faaliyete bile giremeyeceği iddia edilir. Ancak buna rağmen büyük devletler arasında bir yapay zeka silahlanma yarışının da başladığı görünmektedir. ABD, Çin, Rusya, Avrupa Birliği ve Güney Kore özellikle otonom silahlı drone teknolojilerine en çok yatırım yapan ve yatırım yapmayı taahhüt eden ülkeler arasındadır. Bu hızlanan silahlanma yarışında mğulak bir seviyede kalan hukuki tartışmaların ülkeler nezdinde bağlayıcılığı bulunmamak-tadır. Buna rağmen yapay zekanın küresel yönetimi için önerilen çerçeveler bulunmaktadır. Bu çerçevelerden ilki etik çerçevelerdir. Etik çerçeveler yapay zeka sistemlerin nasıl davranması gerektiğini değerler üzerinden belirten dökümanlardır. Bu dökümanlar soyut kavramlar ile ideal yapay zeka sistemlerini tasarlarlar. En öne çıkan kavram açıklanabilir yapay zeka (XAI) kavramıdır. XAI, yapay zekanın aldığı kararları açıklayabiliyor olması gerektiğini belirtir. Bunun haricindeki etik çerçeveler çok soyut kalmaktadır: yapay zekanın güvenilir olması gerektiği teknik olarak tanımlaması zor bir özelliktir. İkinci tür çerçeveler ölümcül otonom silah sistemlerinin mevcut si-lahsızlanma anlaşmaları dahilinde yönetilebileceğini savunur. Bu öneriler Nükleer Silahların Yayılmasının Önlenmesi Antlaşması'nın otonom ölümcül silah sistemlerine uygulanabileceğini iddia eder. Ancak nükleer silahların üretiminin takip edilmesi göreceli daha kolaydır. Uranyumun nadir element olması ve ticaretinin takip edilebili-yor olması, nükleer santrallerin büyük ve uydulardan saklanamayacak yapılar oması, nükleer silah üretiminin ve operatörlüğün yüksek kapasiteli kalifiye personel gerek-tirmesi bu silahları yapay zeka destekli sistemlerden ayırır. Yapay zeka destekli ölümcül silahlar ticari olarak ulaşılabilir parçalarla üretilebilir, takip edilebilecek özel bir maddesi yoktur, üretim için büyük alanlar gerektirmez. İlk algoritmanın üretilmesi sonrası kullanım için kalifiye operatör gerektirmeyen sistemler olan ölümcül otonom silah sistemler mevcut silahsızlandırma çabaları arasında radara takılmama özelliğine sahiptir. Üçüncü kategoride ölümcül otonom silah sistemlerinin koşulsuz ve şartsız önceden yasaklanması gerektiğini savunanlar bulunur. İnsan Hakları İzleme Örgütü ve Uluslararası Kızılhaç Komitesi'nin öncülük ettiği bu çerçevede ülkelerin bu çağrıya katılmaları için için lobi faaliyetleri gerçekleştirilir. Otonom ölümcül silahların hiçbir şartta insan hakları ve savaş hukukuna uyamayacağını savunan bu grup yapay zekanın ölümcül amaçlar için kullanılmasının tamamen yasaklanmasını savunur. 2020 yılına kadar 30 hükümet bu yasak çağrısına olumlu yanıt vermiştir ancak bu ülkelerin ekser-iyeti belirtilen silahların geliştirilmesi konusunda teknik ve finansal altyapıya sahip değildir. Bu kapasiteye sahip olan ülkeler ise mevzubahis silah sistemlerinin hala tam bir karşılığının olmadığını, bu sebeple de mevcut olmayan sistemler üzerinden yasaklama kararının verilmesini doğru bulmadıklarını belirtmektedirler. Bu tez mevcut yönetim çerçevelerinin dışında, kullanıma hazır kural ve regülasyon-ların haricinde bir küresel yönetim çerçevesi oluşturmak adına yapay zekaya si-lahsızlanma çerçevesinden değil, bir küresel yönetim sorunu olarak ele almayı önerir. Bu sebeple diğer silahsızlanma anlaşmalarına bakmak yerine, aynı karakteristiklere sahip küresel yönetim problemlerine odaklanır. Tezde küresel iklim yönetimi vaka olarak alınmıştır. İklim yönetiminin vaka olarak seçilmesi küresel iklim yönetimi ve küresel yapay zeka yönetiminin benzer karakteristiklere sahip olmaları sebebiyledir. İki senaryoda da küresel güney/kuzey ayrımı bulunmaktadır. İklim değişikliğinde küresel kuzey ülkeleri en çok sera gazını salgılar, yapay zekada en büyük üretim kapa-sitesine küresel kuzey ülkeleri sahiptir. İki senaryoda da her seviyeden aktör sürece aktif olarak dahildir. Son olarak iki senaryoda da yönetim ve karar verme çok kat-manlı olarak gerçekleşmektedir. Bu bilgiler ışığında küresel iklim yönetimi için en önemli organizasyon olan Hükûmetlerarası İklim Değişikliği Paneli (IPCC) üzerine bir vaka analizi yapılması uygun görülmüştür. Bu analizin amacı bir organizasyonun çok paydaşlı bir krizi çözmede nasıl bir rol aldığını görmek ve buradan yapay zeka yöne-timi için dersler çıkarmaktır. IPCC kendi akademik araştırmalarını gerçekleştirmeyen, mevcut bilimsel çalışmalar üzerinde literatür çalışması yapan bir kurumdur. Bu kurum siyasetten bağımsız ama siyasetin kullanımına uygun bilimsel bilgi üreten ve bu bilgi ile küresel iklim yöne-timine yön veren bir kurumdur. IPCC'nin en önemli özellikleri bilim dünyası ile karar vericiler arasında köprü olması, tüm kararları ortak alması ve hazırladığı raporların geniş çerçevede kabül görmesidir. Yapay zeka alanında gözlemlenen problemler de bunlardır. Teknik uzmanlar, sosyal bilimciler ve karar vericilerin bir araya geleceği bir platform mevcut değildir. Etkileşimin olmadığı bir senaryoda politikaya dönüşe-bilecek kapsayıcı bilgi üretimi mümkün değildir. 2015'ten itibaren yapay zeka üzerine hem teknik hem de sosyal perspektiften yüksek miktarda akademik çalışma yapılmıştır. Bu çalışmaların uluslararası düzeyde ele alınıp kullanılabilir veriye dö-nüştürülmesi elzemdir. Yine IPCC gibi bütün hükümetleri bilimsel bilginin ışığı etra-fında toplamak alınan kararların da daha kabul edilen ve uygulanan kararlar olmasını sağlayacaktır. Özetle bu tez yapay zekanın küresel yönetiminin etkin bir uluslararası sınır organizasyonu ile gerçekleşebileceğini savunmaktadır.
Özet (Çeviri)
The growing capabilities of artificial intelligence have made the technology feasible to be deployed as part of military systems. So much that more than forty-five governments have published their AI development plans, promising a striking amount of investment in the military and commercial development of AI. Indeed, AI-enabled military systems promise a dramatic competitive edge as well as cause grave humanitarian concerns which leads to opposing views on how to govern it. This thesis summarizes existing governance frameworks to identify the governance gap, shows the underlying causes of this gap by analyzing problematic aspects of AI systems, and proposes a new way of thinking about how to govern AI on the international level. It is argued that AI even in the non-military fields produces ethically problematic results, so implementing these technologies in military fields without proper regulation would lead to cata-strophic scenarios. It is showed that AI represents digital, physical, and political security threats and the current international laws are limited in addressing the problems. This thesis categorizes current policies (and policy proposals) for the global governance of AI and analyze their advantages and shortcomings. Main argument of this is that current governance works and proposals on AI are based on positions, not commonly agreed upon, policy-relevant scientific knowledge. This thesis focuses on the co-production of knowledge for better informed policy making and argues that it is this lack of science-policy interface on AI that prevents finding common grounds between stakeholders. As both social and technical literature on AI has grown drastically, it will be more helpful to employ the organizational structure and tools that boundary organization concept offers, to bring all experts, governments, international organizations, corporations, NGOs together to perform policy-relevant yet policy-neutral scientific review on AI to enlighten the governance path ahead of it. Rather than looking for policy-specific inspirations from previous treaties, forming a boundary organization on AI will allow interactions between technical experts, ethicists, decision makers, civil society, and business to co-produce relevant knowledge that would eventually lead to commonly accepted policies. An illustrative case study was built on the IPCC to show how an organization was formed to bridge the gap between science and policy to facilitate knowledge-driven policymaking in climate governance. This thesis concludes by arguing that an IPCC-type boundary organization is needed for global governance of AI to bridge the gap between social scientists and technical experts, as well as with decision-makers. Such a platform is needed to make sure that policy-relevant knowledge is produced to ensure that AI systems are working in accordance with the international humanitarian law, as well as the scientific development of the field is encouraged.
Benzer Tezler
- Çanakkale'de eğitim ve eğitim kurumları
Education and training institutions in Çanakkale
NURHAN ACAR AZKIN
Yüksek Lisans
Türkçe
2012
Eğitim ve ÖğretimÇanakkale Onsekiz Mart ÜniversitesiOrtaöğretim Sosyal Alanlar Eğitimi Ana Bilim Dalı
YRD. DOÇ. DR. ŞERİF KORKMAZ
- İttihat ve Terakki Cemiyeti üyelerinden İsmail Canbulad (1880-1926)
A member of the Committee of Union and Progress, İsmai̇l Canbulad (1880-1926)
NERMİN ZAHİDE AYDIN
Doktora
Türkçe
2014
TarihKahramanmaraş Sütçü İmam ÜniversitesiTarih Ana Bilim Dalı
PROF. DR. AHMET EYİCİL
- The life on the margins: The experiences of childhood within the military complex
Kıyılarda yaşamak: Ordu kompleksinde çocukluk deneyimleri
SERTAÇ KAYA ŞEN
Yüksek Lisans
İngilizce
2014
AntropolojiSabancı ÜniversitesiKültürel Çalışmalar Ana Bilim Dalı
DOÇ. DR. AYŞEGÜL ALTINAY
- Paylaşım tasarıları çerçevesinde Ortadoğu'nun şekillendirilmesi (1918-1945)
Shaping the Middle East within the frame of sharing designs (1918-1945)
MELEK YENİSU
- Osmanlı lalaları ve siyasi faaliyetleri (Fatih Dönemi sonuna kadar)
Ottoman 'lalas' and their political activities (up until the end of The Fatih Period)
BÜŞRA ÖZYURT
Yüksek Lisans
Türkçe
2024
TarihErciyes ÜniversitesiTarih Ana Bilim Dalı
DR. ÖĞR. ÜYESİ MUHAMMED İBRAHİM YILDIRIM