İhtiyaç duyulan korkuluklar üzerinde ortak fikir birliğine varılmasının acil olduğu durumlarda, yapay zekayı (AI) yönetmek için toplu küresel çabaların olması gerekir.
Birleşmiş Milletler (BM) Genel Sekreteri António Guterres, farklı küresel önlem ve girişimlere yönelik çağrıların ortasında, AI yönetişiminin karmaşık olacağını ve evrensel bir yaklaşım gerektirdiğini söyledi. Guterres, BM Güvenlik Konseyi’ne hitaben yaptığı konuşmada, AI modellerinin halihazırda halka açık olduğunu ve nükleer malzeme ve biyolojik ajanların aksine araçlarının iz bırakmadan hareket ettirilebileceğini söyledi.
Ayrıca: WormGPT: ChatGPT’nin kötü niyetli kuzeni hakkında bilinmesi gerekenler
Konsey üyeleri, Anthropic’in kurucu ortağı Jack Clark ve Çin Bilimler Akademisi Otomasyon Enstitüsü profesörü ve Uluslararası Yapay Zeka Etiği ve Yönetişimi Araştırma Merkezi direktörü Zeng Yi’nin de konuşmacı olarak yer aldığı yapay zeka konusundaki ilk resmi toplantısı için bu hafta bir araya geldi.
Üretken yapay zekayı yeteneklerde “radikal bir ilerleme” olarak tanımlayan Guterres, ChatGPT’nin yalnızca iki ayda 100 milyon kullanıcıya ulaşmasıyla teknolojinin kazandığı hız ve erişimin “tamamen emsalsiz” olduğunu söyledi.
Ancak yapay zekanın küresel kalkınmayı önemli ölçüde hızlandırma ve sağlık hizmetleri de dahil olmak üzere insan haklarını gerçekleştirme potansiyeline sahipken, aynı zamanda önyargı ve ayrımcılığı da artırabileceğini söyledi. Teknoloji, otoriter gözetimi daha da etkinleştirebilir.
Halihazırda insani, etik, yasal ve siyasi kaygıların olduğunu vurgulayarak, konseyi yapay zekanın barış ve güvenlik üzerindeki etkisini değerlendirmeye çağırdı.
Ayrıca: Bir araştırmaya göre, GPT-4 zamanla önemli ölçüde aptallaşıyor
“[AI] Guterres, şiddet kalıplarını belirlemek, ateşkesleri izlemek ve daha fazlası için giderek daha fazla kullanılıyor ve barışı koruma, arabuluculuk ve insani yardım çabalarımızı güçlendirmeye yardımcı oluyor. Ancak AI araçları, kötü niyetli kişiler tarafından da kullanılabilir. AI modelleri, insanların kendilerine ve birbirlerine büyük ölçekte zarar vermelerine yardımcı olabilir.”
Halihazırda AI, kritik altyapıları hedef alan siber saldırıları başlatmak için zaten kullanılıyor. Askeri ve askeri olmayan AI uygulamalarının küresel barış ve güvenlik için ciddi sonuçlara yol açabileceğini kaydetti.
Clark, küresel hükümetlerin bir araya gelmesi, kapasite oluşturması ve AI sistemlerinin geliştirilmesini, pazardan pay almak için yarışan bir avuç oyuncunun liderliğinden ziyade “ortak bir çaba” haline getirmesi ihtiyacını destekledi.
Anthropic’in kendi Claude’u, OpenAI’nin ChatGPT’si ve Google Bard gibi yapay zeka modellerinin geliştirilmesinin kurumsal çıkarlar tarafından yönlendirildiğini belirterek, “Yapay zeka geliştirmeyi yalnızca özel sektör aktörlerine bırakamayız” dedi. Sofistike sistemlere, büyük veri hacimlerine ve fonlara erişimi olan özel sektör şirketleri ile, muhtemelen AI sistemlerinin gelişimini tanımlamaya devam edeceklerini de sözlerine ekledi.
Ayrıca: Üretken yapay zeka, esnek ekonomiyi bu şekilde daha iyi hale getirecek
Bu, yapay zekanın kötüye kullanılma potansiyeli ve öngörülemezliği nedeniyle hem faydalara hem de tehditlere neden olabilir. Teknolojinin biyolojiyi daha iyi anlamak ve biyolojik silahlar yapmak için kullanılabileceğini açıkladı.
Yapay zeka sistemleri geliştirilip uygulandığında, geliştiricileri tarafından beklenmeyen yeni kullanım alanları ortaya çıkarılabilir. Sistemlerin kendileri de öngörülemeyen veya kaotik davranışlar sergileyebilir, dedi.
Clark, “Bu nedenle, bu sistemlerin geliştiricilerinin küresel güvenlikten ödün vermeyen güvenli ve güvenilir sistemler oluşturmaları ve dağıtmaları için hesap verebilir olmalarını nasıl sağlayacağımızı çok dikkatli düşünmeliyiz.” Dedi.
Guterres, üretken yapay zekanın ortaya çıkmasının artık dezenformasyonu daha da ileriye götürebileceğini ve gerçekleri baltalayabileceğini, bununla birlikte insan davranışını manipüle etmenin yeni yollarını getirebileceğini ve büyük ölçekte istikrarsızlığa yol açabileceğini söyledi. Deepfake’lere atıfta bulunarak, bu tür AI araçlarının kontrol edilmediği takdirde ciddi güvenlik riskleri oluşturabileceğini söyledi.
Ayrıca: En iyi yapay zeka sohbet botları
Yapay zeka ile nükleer silahlar, biyoteknoloji, nöroteknoloji ve robotik arasındaki etkileşimin “derinden endişe verici” olması gibi, arızalı yapay zeka sistemlerinin de önemli bir endişe kaynağı olduğunu sözlerine ekledi.
“Üretken yapay zeka, ölçekte iyilik ve kötülük için muazzam bir potansiyele sahip. Yaratıcılarının kendileri, çok daha büyük, potansiyel olarak yıkıcı ve varoluşsal risklerin önümüzde olduğu konusunda uyardı” dedi. “Bu riskleri ele almak için harekete geçmezsek, şimdiki ve gelecek nesillere karşı sorumluluklarımızı ihmal etmiş oluruz.”
Guterres, Uluslararası Atom Enerjisi Ajansı ve Hükümetler Arası İklim Değişikliği Paneli’ne benzer şekilde yapay zekayı yönetmeye yönelik toplu çabaları kolaylaştırmak için bir BM biriminin oluşturulması çağrılarını desteklediğini söyledi.
“En iyi yaklaşım, mevcut zorlukları ele alırken aynı zamanda gelecekteki riskleri izleme ve bunlara yanıt verme kapasitesi yaratır” dedi. “Esnek ve uyarlanabilir olmalı ve teknik, sosyal ve yasal soruları dikkate almalıdır. Özel sektörü, sivil toplumu, bağımsız bilim insanlarını ve AI inovasyonunu yönlendiren herkesi entegre etmelidir.”
Ayrıca: AI ve gelişmiş uygulamalar, mevcut teknoloji altyapılarını zorluyor
Küresel standartlara ve yaklaşımlara duyulan ihtiyaç, Birleşmiş Milletleri bunun gerçekleşmesi için ideal bir yer haline getiriyor” dedi.
Yeni BM organı, ülkeleri yapay zekanın faydalarını en üst düzeye çıkarma, riskleri azaltma ve izleme ve yönetişim için uluslararası mekanizmalar kurma konusunda desteklemeyi hedeflemelidir. Yeni kuruluşun ayrıca gerekli uzmanlığı toplaması, uluslararası topluluğun kullanımına sunması ve sürdürülebilirliği sağlayan yapay zeka araçlarının araştırma ve geliştirme çabalarını desteklemesi gerekecek.
Guterres, yıl sonuna kadar küresel AI yönetişimi için seçenekler önermek amacıyla işleri başlatmak için “AI için üst düzey bir danışma kurulu” oluşturduğunu söyledi.
“Barış için yeni bir gündem” hakkında yaklaşan bir politika özetinin, BM üye devletleri için AI yönetişimine ilişkin tavsiyeleri de kapsayacağını da sözlerine ekledi. Bunlar, yapay zekanın sorumlu bir şekilde geliştirilmesi ve kullanılmasına ilişkin ulusal stratejiler için tavsiyelerin yanı sıra, yapay zekanın askeri uygulamaları etrafında normlar ve ilkeler geliştirmeye yönelik çok taraflı taahhütleri içerir.
Üye devletlerden ayrıca terörle mücadele amacıyla yapay zeka da dahil olmak üzere veriye dayalı teknolojinin kullanımına yönelik gözetim mekanizmalarını düzenlemek ve artırmak için küresel bir çerçeveyi kabul etmeleri istenecektir.
Ayrıca: İnsanlık gerçekten ölüme mahkum mu? AI’nın Aşil topuğu düşünün
Politika özeti için müzakerelerin 2026 yılına kadar sonuçlandırılması hedefleniyor ve bununla insan gözetimi olmadan çalışan ölümcül otonom silahları yasaklamak için yasal olarak bağlayıcı bir anlaşma yapılacak.
Clark ayrıca uluslararası toplumu sistemlerin yeteneklerini, kötüye kullanımlarını ve potansiyel güvenlik kusurlarını test etmenin yollarını geliştirmeye çağırdı. Çin, AB ve ABD dahil olmak üzere birçok ülkenin AI politika tekliflerinde güvenlik değerlendirmesine odaklandığını garanti ettiğini söyledi.
Ayrıca, şu anda eksik olan ayrımcılık ve kötüye kullanım gibi kilit alanlar için bu tür sistemlerin nasıl test edileceğine dair standartlara ve en iyi uygulamalara duyulan ihtiyacın altını çizdi.
Zeng, üretken yapay zeka da dahil olmak üzere mevcut yapay zeka sistemlerinin, akıllı görünen ancak gerçek bir anlayışa sahip olmayan bilgi işleme araçları olduğunu kaydetti.
“Bu nedenle, insanların karar vermesine yardımcı olabilecek sorumlu ajanlar olarak güvenilemezler” dedi. Örneğin diplomasi görevleri otomatikleştirilmemelidir. Yapay zeka, özellikle, daha büyük riskler yaratmak için insan sınırlamalarını ve zayıflıklarını artırabileceğinden, farklı ülkeler arasındaki dış müzakerelere uygulanmamalıdır.
AI destekli silah sistemlerinin yeterli ve sorumlu insan kontrolüne ihtiyaç duyulması gerektiğini savunurken, “AI asla insanmış gibi davranmamalı” dedi. “İnsanlar, nükleer silahların kullanımına ilişkin nihai karar verme sürecini her zaman sürdürmeli ve bundan sorumlu olmalıdır.”
Ayrıca: ChatGPT ve yeni yapay zeka, siber güvenliğe heyecan verici ve korkutucu şekillerde zarar veriyor
Birleşik Arap Emirlikleri’nin ileri bilimler ve teknolojiden sorumlu bakan yardımcısı Omran Sharaf, küresel paydaşların artık yapay zeka için gerekli korkuluklarla ilgili tartışmalarda birleşmek için bir fırsat penceresine sahip olduğunu söyledi.
“Çok geç olmadan” önce, üye devletleri, AI araçlarının aşırılıkçılığı ve çatışmayı körükleyebilecek yanlış bilgi ve dezenformasyonu önleyecek mekanizmalar da dahil olmak üzere gerekli kurallar üzerinde bir fikir birliğine varmaya çağırdı.
Sharaf, diğer dijital teknolojilere benzer şekilde, AI’nın benimsenmesinin siber alemde geçerli olması gereken uluslararası yasalar tarafından yönlendirilmesi gerektiğini söyledi. Bununla birlikte, düzenlemelerin çevik ve esnek olması gerektiğini, böylece yapay zeka teknolojilerinin ilerlemesini engellemeyeceğini belirtti.
Veri politikasındaki amaçlarla sınırlı ve mevzuata uygun şekilde çerez konumlandırmaktayız. Detaylar için veri politikamızı inceleyebilirsiniz.