M. Beheşti AYDOĞAN*
*Warwick Üniversitesi, Dr. Adayı
1. Giriş
2016’da kurulan Pentagon Savunma İnovasyon Kurulu, 31 Ekim 2019 tarihinde genel olarak silahlı çatışmalar hukuku, savunma sanayi ve yapay zekâ ilişkisine dair olduğunu söyleyebileceğimiz “Yapay Zekâ İlkeleri: Savunma Bakanlığının Yapay Zekâyı Ahlaki Kullanımına Dair Tavsiyeler” başlıklı belgeyi yayınlamıştır. Kurul, belgede yer alan yapay zekâya dair beş ahlak ilkesini, Amerikan Savunma Bakanlığının onayına sunmaktadır. Bu bakımdan belgede yer alan ilkeler kısmını kısa bir değerlendirme ile beraber çevirmenin Amerikan bakış açısını görmek açısından faydalı olabileceğini düşündük.
Metin daha önceden bu konuda yayınlanmış ahlaki ilke metinleri karşısında geç kaldığının farkındadır. Ancak metin yazarlarına göre yapay zekâ ile ilgilenen yapıların bu teknolojinin teşkil ettiği sorunları çözmüş olması mümkün değildir. Üst perdeden bir dille yapılan bu girişle metnin yazılış sebebi açıklanmak istenmektedir. Yapay zekanın beraberinde getirdiği sorunların başka yapılar tarafından çözülemediğine dair bu ifadeler aynı zamanda belgenin yazarlarının ilkelere duyduğu güvensizliğin ve yapay zekanın getirdiği sorunların yakın gelecekte çözülemeyeceğine dair düşüncelerinin bir göstergesi olarak da okunabilir.
Metnin odak noktasının yapay zekanın ahlaki çalışmasından ziyade iyi çalışması olduğu görülmektedir. Beş ilkenin üçünün iyi çalışma haliyle ilgili olduğu görülmektedir. Bu bakımdan dikkate değer bir noktanın belgenin Pentagon çalışanlarından yapay zekaya “teknik bir hakimiyet” beklentisi içinde olduğu görülmektedir. Bunun da aynı zamanda yapay zekânın kontrol edilemezliğine dair olan bir korkuyu/belirsizliği ima ettiğini söyleyebiliriz. Son üç ilkedeki “takip edilebilir, güvenilir ve yönetilebilir” şeklindeki başlıkların endişe içerdiği görülmektedir. Özellikle yönetilebilirlik başlığı altında değinilen “gerginlik yaratan istenmeyen davranış” ifadesinin yapay zekâ sistemlerinin devlet-devlet arasındaki ilişkilerde hızlı tepki vermelerinden dolayı gerginliği önleyici tercihler yapılmasını önlemesi ile ilgili olduğu anlaşılmaktadır.
Yine de üçüncü ve beşinci ilkeler yapay zekayı kontrol eden değil de onunla muhatap olan bakımından düşünüldüğünde ahlaki beklentiler olarak da görülebilir. Bu bakımdan yapay zekanın teknik olarak denetlenebilmesi ve istenmeyen davranışlarının durdurulması bu iki ilkenin ahlaki yanını teşkil ettiği düşünülebilir. Kurul ilkelerin açıklamasında, yapay zekayı geliştirme aşamasındaki teknik gözetimin bu sistemlerin uygun ve sorumlu kullanımını beraberinde getireceğini iddia etmektedir.
Benzer bir şekilde kurulun, güvenilirlik ilkesini makine öğrenmesinin açıklanabilirliği ile ilişkilendirmesi de ahlaki bir endişe olarak okunabilir. Bir kişinin mülkiyetine, esenliğine veya hayatına halel gelebileceği hallerde yapay zekanın tavsiye veya eyleminin açıklanabilir olması veya garanti sunması gerekmektedir. Kurula göre bunların dışındaki hallerde açıklanabilirlik veya garanti ya az gerekmekte ya da hiç gerekmemektedir. Açıklanabilirliğin imkânı ve mümkünse ne derecede mümkün olduğu konusu bir yana, kurul garanti sunmaktan tam olarak neyi kastettiğini yeterince açıklamamaktadır.
Otonom silah sistemleri ve yapay zekâ sistemleri ile ilgili sıkça dile getirilen karar mekanizmasına insan müdahalesi olması yönündeki eleştiri, metin yazarları tarafından benimsenmiş görünmektedir. Metin yapay zekanın gelişimden-kullanım sonuçlarına kadarki tüm aşamalarda insanların uygun bir seviyede karar mercii olarak konumlandırılması ve buna binaen sorumlu tutulmaları gerektiğini ifade etmektedir. Literatürde Heather Roff, Amerika’nın “uygun seviyede insan kararı” şeklinde ifade ettiği bu sistemin yapay zekâ sistemlerinin üzerinde “anlamlı bir insan kontrolü” talebini fazla sınırlayıcı bulduğu ve kişilerin sorumluluğuna dikkat çektiğini ifade etmektedir. Kişilerin sorumluluğuna olan vurgunun kurulun açıklamalarında da yer bulduğu görülmektedir. Buna göre silahlı çatışma sırasındaki yapay zekâ sisteminin kullanılması bakımından kumandan ve harekatçı ilgili yapay zekâ sisteminin davranışı ve durumun şartları hakkında bilgi sahibi olup olmadıklarına göre sorumlu olacaklardır.
Metnin ikinci ilkede adil muamele kapsamında önyargılara yaptığı atıf, yapay zekanın gelişimi sırasında beslendiği verilerin veya dizayn ediliş şeklinin ayrımcılık yaratabileceği konusundaki eleştirilerden haberdar olduğunu ve hatta bir anlamda bu eleştirileri kabul ettiğini göstermektedir.
2. Çeviri
PENTAGON YAPAY ZEKÂ AHLAK İLKELERİ
31.10.2019
Yapay zekâ kullanımının, Amerikan Savunma Bakanlığının mevcut ahlaki sistemi içerisinde gerçekleşmesi gerektiğini ikrar etmekteyiz.
Bu esasa binaen daha çok yapay zekayla ilgili olan aşağıdaki ilkeleri önermekte ve ilkelerin hem muhabere hem de muhabere harici sistemlere uygulanacağına dikkat çekmekteyiz.
Yapay zekâ hızlı gelişmekte olan bir alandır. Halihazırda yapay zekâ sistemleri geliştiren veya bunları alanda kullanan ya da yapay zekâya dair ahlaki ilkeler benimsemiş hiçbir örgüt aşağıdaki ilkelerde mündemiç zorlukları çözdüğünü iddia edemez.
Yine de Bakanlık kendisinin yapay zekâ sistemlerini kullanımının [aşağıdaki ilkeler uyarınca] olacağına dair hedefini belirlemelidir.
1. Sorumlu: İnsanlar; Amerikan Savunma Bakanlığının yapay zekâ sistemlerinin geliştirilmesi, konuşlandırılması, kullanımı ve sonuçları üzerinde yeterli seviyede karar alabilmeli ve sorumlu olmalıdırlar.
2. Adil. Amerikan Savunma Bakanlığı, muhabere ve muharebe harici yapay zekâ sistemlerinin geliştirilmesi ve konuşlandırılması sırasında kazara kişilere zarar verecek istenmeyen önyargıların oluşmasını önlemek için dikkatli adımlar atmalıdır.
3. Takip edilebilir. Amerikan Savunma Bakanlığının yapay zekâ mühendislik disiplini yeterince gelişmiş olmalıdır. Öyle ki teknik uzmanlar Amerikan Savunma Bakanlığının yapay zekâ sistemlerinin -şeffaf ve denetlenebilir metodolojiler, veri kaynakları, dizayn usulü ve belgeleme dahil olmak üzere- çalışma yöntemlerinden, geliştirilme süreçlerinden ve teknolojisinden yeterince anlamalıdırlar.
4. Güvenilir. Amerikan Savunma Bakanlığının yapay zekâ sistemlerinin açık ve iyi tanımlanmış bir kullanım alanı olmalıdır. Bu sistemlerin emniyeti, güvenliği ve sağlamlığı kullanım alanındaki tüm hayat döngüleri boyunca test edilmeli ve kesinleştirilmelidir.
5. Yönetilebilir. Amerikan Savunma Bakanlığının yapay zekâ sistemleri, istenilen işlevi yerine getirmek üzere dizayn edilmeli ve yapılmalıdır. Aynı zamanda istenmeyen zarar ve sorunu tespit edip önleme becerisine sahip olmalı ve [ayrıca] konuşlandırılan sistemlerden gerginlik yaratan veya başka bir istenmeyen davranış gösterenlerinin insan tarafından veya otomatik olarak geri çekilme ya da devre dışı bırakılma özelliği olmalıdır.