Singapur'un Yapay Zeka Güvenliği Vizyonu ABD-Çin Uçurumunu Kapatıyor

Singapur hükümeti, ABD, Çin ve Avrupa'dan AI araştırmacılarının bir toplantısının ardından bugün yapay zeka güvenliği konusunda küresel iş birliği için bir plan yayınladı. Belge, rekabetten ziyade uluslararası iş birliği yoluyla AI güvenliği üzerinde çalışmak için ortak bir vizyon ortaya koyuyor.
Geçtiğimiz ay AI önde gelenlerinin toplantısını düzenlemeye yardımcı olan MIT'deki bir bilim insanı olan Max Tegmark, "Singapur, gezegende hem Doğu hem de Batı ile iyi geçinen birkaç ülkeden biri" diyor. "Kendilerinin [yapay genel zeka] inşa etmeyeceklerini biliyorlar - kendilerine bunu yaptıracaklar - bu yüzden onu inşa edecek ülkelerin birbirleriyle konuşması kendi çıkarlarına."
AGI inşa etme olasılığı en yüksek ülkeler elbette ABD ve Çin'dir; ancak bu ülkeler birlikte çalışmaktan çok birbirlerini alt etmeye daha istekli görünüyor. Ocak ayında, Çinli girişim DeepSeek'in son teknoloji bir model yayınlamasının ardından, Başkan Trump bunu "endüstrilerimiz için bir uyanış çağrısı" olarak adlandırdı ve ABD'nin "kazanmak için rekabete lazer gibi odaklanması" gerektiğini söyledi.
Küresel Yapay Zeka Güvenliği Araştırma Öncelikleri Konusundaki Singapur Mutabakatı, araştırmacıların üç temel alanda iş birliği yapmasını talep ediyor: Sınırdaki yapay zeka modellerinin oluşturduğu riskleri incelemek, bu modelleri oluşturmanın daha güvenli yollarını keşfetmek ve en gelişmiş yapay zeka sistemlerinin davranışlarını kontrol etmek için yöntemler geliştirmek.
Mutabakat, bu yıl Singapur'da düzenlenen önde gelen yapay zeka etkinliklerinden biri olan Uluslararası Öğrenme Temsilleri Konferansı (ICLR) ile birlikte 26 Nisan'da düzenlenen bir toplantıda oluşturuldu.
OpenAI, Anthropic, Google DeepMind, xAI ve Meta'dan araştırmacıların yanı sıra MIT, Stanford, Tsinghua ve Çin Bilimler Akademisi gibi kurumlardan akademisyenler de AI güvenliği etkinliğine katıldı. ABD, İngiltere, Fransa, Kanada, Çin, Japonya ve Kore'deki AI güvenliği enstitülerinden uzmanlar da katıldı.
Tsinghua Üniversitesi Dekanı Xue Lan, yaptığı açıklamada, "Jeopolitik parçalanmanın yaşandığı bir çağda, yapay zeka güvenliği konusunda son teknoloji araştırmaların kapsamlı bir şekilde sentezlenmesi, küresel toplumun daha güvenli bir yapay zeka geleceği şekillendirmek için ortak bir kararlılıkla bir araya geldiğinin umut verici bir işaretidir" dedi.
Giderek daha yetenekli AI modellerinin geliştirilmesi, bazıları şaşırtıcı yeteneklere sahip, araştırmacıların bir dizi risk konusunda endişelenmesine neden oldu. Bazıları önyargılı AI sistemlerinin neden olduğu sorunlar veya suçluların teknolojiyi kullanma potansiyeli gibi yakın vadeli zararlara odaklanırken, önemli sayıda kişi AI'nın daha fazla alanda insanları alt etmeye başladıkça insanlık için varoluşsal bir tehdit oluşturabileceğine inanıyor. Bazen "AI felaket tellalları" olarak adlandırılan bu araştırmacılar, modellerin kendi hedeflerine ulaşmak için insanları aldatabileceğinden ve manipüle edebileceğinden endişe ediyor.
Yapay zekanın potansiyeli ayrıca ABD, Çin ve diğer güçlü uluslar arasında bir silahlanma yarışından bahsetmeye de yol açtı. Teknoloji, politika çevrelerinde ekonomik refah ve askeri hakimiyet için kritik olarak görülüyor ve birçok hükümet, nasıl geliştirileceğine dair kendi vizyonlarını ve düzenlemelerini belirlemeye çalıştı.
DeepSeek'in Ocak ayındaki çıkışı, ihracat kontrolleriyle Çin'in AI donanımına erişimini kısıtlama çabalarına rağmen Çin'in ABD'yi yakalayabileceği veya hatta geçebileceği yönündeki korkuları artırdı. Şimdi Trump yönetimi, Çin'in son teknoloji AI inşa etme yeteneğini kısıtlamayı amaçlayan ek önlemler düşünüyor.
Trump yönetimi ayrıca, ABD'de teknolojiyi inşa etmek için daha agresif bir yaklaşım lehine AI risklerini küçümsemeye çalıştı. 2025'te Paris'te düzenlenen büyük bir AI toplantısında, Başkan Yardımcısı JD Vance, ABD hükümetinin AI'nın geliştirilmesi ve konuşlandırılması konusunda daha az kısıtlama istediğini ve önceki yaklaşımı "aşırı riskten kaçınan" olarak tanımladı .
MIT bilim insanı Tegmark, bazı yapay zeka araştırmacılarının, giderek güçlenen yapay zekanın oluşturduğu potansiyel risklere yeniden dikkat çekerek "Paris'ten sonra gidişatı biraz tersine çevirmek" istediklerini söylüyor.
Singapur'daki toplantıda Tegmark, yapay zekanın güvenli bir şekilde nasıl inşa edilebileceğine dair bazı varsayımları sorgulayan teknik bir makale sundu. Bazı araştırmacılar daha önce, daha zayıf olanları kullanarak güçlü yapay zeka modellerini kontrol etmenin mümkün olabileceğini öne sürmüştü. Tegmark'ın makalesi, bu dinamiğin bazı basit senaryolarda işe yaramadığını , yani yapay zeka modellerinin ters gitmesini önlemede başarısız olabileceğini gösteriyor.
"Bunu sayılarla ifade etmek için elimizden geleni yaptık ve teknik olarak istediğiniz seviyede işe yaramıyor," diyor Tegmark. "Ve biliyorsunuz, riskler oldukça yüksek."
wired