Singapur, yapay zeka (AI) modellerini ve sistemlerini eğitmek için kullanıldığında kişisel verilerin nasıl yönetilmesi gerektiğine ilişkin taslak yönergeler yayınladı.
Belge, Yasayı yöneten Kişisel Verileri Koruma Komisyonu’na (PDPC) göre, işletmelerin yapay zeka sistemlerini geliştirmek ve eğitmek için kişisel bilgileri kullandıklarında ülkenin Kişisel Verileri Koruma Yasası’nın (PDPA) nasıl uygulanacağını özetliyor. Yönergeler ayrıca, yapay zeka sistemlerinin kişisel verileri kararlar, tahminler ve öneriler yapmak için nasıl kullandığı konusunda şeffaflık oluşturmaya yönelik en iyi uygulamaları da içerir.
Ayrıca: Bir yapay zeka uzmanına göre, yapay zekanın iklim değişikliğinden çok dünyanın kıyametine neden olma olasılığı daha yüksek
Bununla birlikte, yönergeler yasal olarak bağlayıcı değildir ve mevcut herhangi bir yasayı tamamlamaz veya değiştirmez. Makine öğrenimi modelleri veya sistemlerinin geliştirilmesinde şirketlerin PDPA içindeki mevcut istisnalardan nasıl yararlanabileceği gibi konulara ve durumlara bakarlar.
Yönergeler ayrıca kuruluşların tahminleri, kararları ve önerileri kolaylaştıran makine öğrenimi yapay zeka sistemleri için kişisel verileri toplarken izin, hesap verebilirlik ve bildirim içeren gereksinimleri nasıl karşılayabileceğini de ele alıyor.
Belgede ayrıca, şirketlerin yapay zeka modellerini eğitmek için kişisel verilerin kullanımı için izin almak zorunda kalmadan araştırma ve iş geliştirme için iki istisnaya başvurmalarının uygun olduğu durumlardan da bahsediliyor.
Ayrıca: ChatGPT’nin kullanılabileceği 6 zararlı yol
İş geliştirme istisnaları, şirketler geliştirmek istedikleri bir ürün geliştirdiklerinde veya mevcut bir ürünleri olduğunda geçerli olabilir. Bu istisna, AI sistemi, operasyonel verimliliği artıran veya kişiselleştirilmiş ürün ve hizmetler sunan karar alma süreçlerine güç sağlamak için kullanıldığında da geçerli olabilir.
Örneğin, iş geliştirme istisnası, bir rol için potansiyel adayların ilk kesimini sağlamak için kullanılan dahili insan kaynakları tavsiye sistemleri için uygulanabilir. Ürün ve hizmetlerin rekabet gücünü artıran yeni özellikler sağlamak için yapay zeka veya makine öğrenimi modellerinin ve sistemlerinin kullanımında da uygulanabilir.
Ancak kuruluşlar, kişisel verileri bireysel olarak tanımlanabilir bir şekilde kullanmadan iş geliştirme amacına “makul bir şekilde” ulaşılamadığından emin olmak zorunda kalacaklar.
Ayrıca: Bu üretken yapay zeka ne kadar büyük? İnternet düzeyinde kesinti düşünün
Araştırma istisnası kapsamında, kuruluşların kişisel verileri, mevcut ürün ve hizmetlerde veya ticari faaliyetlerde acil bir uygulaması olmayabilecek araştırma ve geliştirme yapmak için kullanmasına izin verilir. Bu, yeni AI sistemleri geliştirmek için diğer şirketlerle ortak ticari araştırma çalışmalarını içerebilir.
Kuruluşlar, kişisel verilerin tanımlanabilir bir biçimde kullanılmadan araştırmanın makul bir şekilde gerçekleştirilemeyeceğinden emin olmalıdır. Kişisel verilerin araştırma amacıyla kullanılmasında açık kamu yararı da bulunmalıdır ve araştırma sonuçları bireyi etkileyen kararlar almak için kullanılamaz. Ayrıca, araştırmanın yayınlanan sonuçları kişiyi tanımlamamalıdır.
Yönergeler ayrıca, yapay zeka sistemleri için kişisel verileri kullanan kuruluşların, verilere uygulanan risk azaltma ve iyileştirme önlemlerinin etkinliğine bakan bir veri koruma etki değerlendirmesi yürütmesini tavsiye eder.
Ayrıca: AI, tüm işlerin %25’ini otomatikleştirebilir. İşte en çok risk altında olanlar
Veri korumasıyla ilgili olarak kuruluşlar, kişisel verileri kullanan yapay zeka sistemlerini geliştirirken, eğitirken ve izlerken uygun teknik süreçleri ve yasal kontrolleri dahil etmelidir.
Yönergeler, “AI sistemlerini geliştirme bağlamında, kuruluşlar veri minimizasyonunu iyi bir uygulama olarak uygulamalıdır” diyor.
“Yalnızca yapay zeka sistemini veya makine öğrenimi modelini eğitmek ve iyileştirmek için gereken öznitelikleri içeren kişisel verileri kullanmak, gereksiz veri korumayı ve yapay zeka sistemine yönelik siber riskleri de azaltacaktır.”
PDPC, 31 Ağustos’a kadar sunulması gereken taslak yönergeler hakkında kamuoyundan geri bildirim istiyor.
Gizlilik koruma araçlarını test etmek için ortaklık
Singapur ayrıca, yerel işletmelerin “gizliliği artıran teknolojilerin” kullanımını veya hükümetin madeni para PET’leri test etmesini sağlayan Google ile bir ortaklık duyurdu.
Bunları kuruluşların veri kümelerini oluşturmasına yardımcı olacak ek araçlar olarak öne süren İletişim ve Bilgi Bakanı Josephine Teo şunları söyledi: “PET’ler, işletmelerin tüketici veri kümelerinden değer elde etmesine olanak tanırken kişisel verilerin korunmasını sağlar. Veri paylaşımını kolaylaştırarak, işletmelerin yararlı veri içgörüleri ve yapay zeka sistemleri geliştirmesine de yardımcı olabilir.”
Teo, örneğin PET’lerin kullanılmasının, bankaların müşterilerinin kimliğini ve finansal verilerini korurken daha etkili dolandırıcılık tespiti için veri toplamasına ve yapay zeka modelleri oluşturmasına olanak tanıdığını söyledi.
PET’lerin benimsenmesini sağlamak için, Infocomm Medya Geliştirme Kurumu (IMDA) geçen yıl işletmelere bu tür çözümleri geliştirmek için hibelere ve kaynaklara erişim sağlamak üzere bir PET sanal alanını tanıttı.
Ayrıca: Fütürist, ChatGPT’nin insan beyninden çok ‘uzaylı zekası’ gibi olduğunu söylüyor
Google ile yapılan işbirliği, Singapur kuruluşlarının Google gizlilik korumalı alan uygulamalarını IMDA korumalı alan içinde test etmelerine olanak tanıyacak. PDPC, bu sistemin şirketlerin hassas bilgileri ifşa etmeden verileri kullanabilecekleri veya paylaşabilecekleri güvenli bir ortam sağladığını söyledi.
IMDA ve Google korumalı alanının Singapur merkezli işletmeler tarafından kullanılabileceğini ve diğerlerinin yanı sıra reklam teknolojisi, yayıncılar ve geliştiriciler için tasarlandığını da sözlerine ekledi.
Ayrıca: ChatGPT konuşmalarınız neden düşündüğünüz kadar güvenli olmayabilir?
Teo’ya göre bu ortaklık, Google’ın PET’lerin test edilmesini ve benimsenmesini kolaylaştırmak için Asya-Pasifik’teki bir düzenleyiciyle bu türden ilk iş birliğini işaret ediyor.
Girişim sayesinde kuruluşlar, hâlihazırda faaliyet gösterdikleri bir platformda PET’leri kullanan pilot projeler için “güvenli bir alana” erişebileceklerini söyledi.
“Üçüncü taraf tanımlama bilgilerinin kullanımdan kaldırılmasıyla birlikte, işletmeler artık tarayıcı aracılığıyla tüketicilerin davranışlarını izlemek için bunlara güvenemez ve alternatif olarak PET’lere ihtiyaç duyacaktır” dedi. “Tüketiciler, kişisel verilerinin tehlikeye atılmasından korkmadan daha ilgili içeriklerin sunulduğunu deneyimleyecekler.”