Anthropic'in Pentagon Tutumu, Yapay Zeka ve Savunma İlişkisini Sorgulatıyor
Önde gelen yapay zeka şirketlerinin askeri işbirliklerine dair politikalarındaki muğlaklık ve Çin Halk Kurtuluş Ordusu'nun yapay zeka kullanım çabaları, teknoloji ile ulusal güvenlik arasındaki sınırları yeniden tartışmaya açıyor.
Yapay zeka şirketi Anthropic'in ABD Savunma Bakanlığı (Pentagon) ile ilişkisine dair etik ve güvenlik kaygıları, sektörün en hassas konularından birini, yapay zeka teknolojilerinin askeri kullanımını, yeniden gündeme getirdi. Stratechery'nin analizine göre, şirketin bu tutumunun gerçek dünya jeopolitiği ve rekabeti karşısında sürdürülebilirliği sorgulanıyor. Bu durum, öncü yapay zeka şirketlerinin devletlerle, özellikle de savunma departmanlarıyla nasıl bir ilişki kuracağına dair daha geniş bir belirsizliğin parçası.
Eski OpenAI Jeopolitik Ekibi Lideri Sarah Shoker, bir sosyal medya platformunda yayımlanan değerlendirmesinde, sektör devlerinin askeri kullanım politikalarını "tutarsız, belirsiz ve sıklıkla değişmeye meyilli" olarak nitelendiriyor. Shoker'a göre, bu kasıtlı bir muğlaklık stratejisi; şirket yönetimlerine, gelecekteki koşullara bağlı olarak farklı yönlere gitme esnekliği veya "seçenekliliği" koruma imkânı tanıyor. Bu yaklaşım, şirketlerin hem etik ilkelerini savunabilme hem de devletle potansiyel işbirliklerinin kapısını aralık tutabilme çabası olarak yorumlanıyor.
OpenAI'nin Pentagon ile geçen yıl imzaladığı ve CEO Sam Altman'ın da "kesinlikle aceleye geldi" ve "dışarıdan görünüşü iyi değil" şeklinde yorumladığı anlaşma, bu ikilemin somut bir örneği. TechCrunch'ın haberine göre, bu anlaşma şirket içinde de tartışmalara yol açmıştı. Bu tür işbirlikleri, yapay zeka sistemlerinin savaş alanı karar destek mekanizmaları, siber operasyonlar veya lojistik planlamada kullanılması gibi senaryoları beraberinde getiriyor.
Küresel rekabet perspektifinden bakıldığında, durum daha da karmaşık bir hal alıyor. Foreign Affairs'ta yer alan bir analize göre, Çin Halk Kurtuluş Ordusu'nun (PLA) temin belgeleri, insansız hava aracı pilotluğu, siber saldırılar, karar alma süreçleri ve dezenformasyon kampanyalarında yapay zekadan sistematik bir şekilde yararlanma çabalarını ortaya koyuyor. Çin'in devlet destekli bu yaklaşımı, Batılı yapay zeka şirketlerinin kendi hükümetleriyle işbirliği konusundaki tereddütlerini, ulusal güvenlik endişeleriyle karşı karşıya getiriyor.
Hukuki çerçeve ise bu hızlı teknolojik gelişmenin gerisinde kalıyor. Anadolu Ajansı'nın teknoloji haberinde de belirtildiği gibi, uluslararası insancıl hukuk yapay zekayı doğrudan düzenlemiyor. Ancak, yeni silah sistemlerine ilişkin mevcut kuralların, otonom silah sistemleri ve gelişmiş yapay zeka uygulamalarına nasıl uygulanacağı, BM nezdinde ve diğer uluslararası forumlarda giderek daha acil bir tartışma konusu haline geliyor. Temel soru, ölüm kalım kararlarında insan kontrolünün ("human in the loop") ne ölçüde ve nasıl korunacağı.
Anthropic'in durumu, daha geniş bir ikilemi yansıtıyor. Şirketler, kurucu ilkeleri, hissedar beklentileri, rakiplerin hamleleri ve ulus devletlerin artan baskısı arasında sıkışmış durumda. Batı'da özel sektör odaklı gelişen yapay zeka ekosistemi, teknolojisinin nihai kullanımı üzerindeki kontrolü ne ölçüde elinde tutabileceği sınavı veriyor. Bu tartışma, yalnızca etik bir mesele değil, aynı zamanda 21. yüzyılın teknolojik egemenlik mücadelesinin de bir parçası. Önümüzdeki dönem, şirketlerin bu "seçeneklilik" duruşunu ne kadar sürdürebileceğini ve devletlerin bu alana dair net kurallar getirip getiremeyeceğini gösterecek.