Salesforce Etik Yapay Zeka Uygulaması Baş Mimarı Kathy Baxter, yapay zeka geliştiricilerinin algoritmik önyargıyı ele alan sistemler geliştirmek ve dağıtmak için hızlı hareket etmesi gerektiğini söyledi. Baxter, ZDNET ile yaptığı bir röportajda, adil ve tarafsız yapay zeka sistemleri sağlamak için veri kümelerinde ve kullanıcı araştırmalarında çeşitli temsillere duyulan ihtiyacı vurguladı. Ayrıca bireysel mahremiyeti korurken AI sistemlerini şeffaf, anlaşılır ve hesap verebilir hale getirmenin önemini vurguladı. Baxter, herkese fayda sağlayan sağlam ve güvenli yapay zeka sistemleri geliştirebilmemiz için Ulusal Standartlar ve Teknoloji Enstitüsü’nün (NIST) kullandığı model gibi sektörler arası işbirliğine duyulan ihtiyacı vurguluyor.
Yapay zeka etiğindeki temel sorulardan biri, yapay zeka sistemlerinin mevcut sosyal önyargıları güçlendirmeden veya yenilerini yaratmadan geliştirilmesini ve dağıtılmasını sağlamaktır. Bunu başarmak için Baxter, yapay zeka teknolojisinden kimin yararlandığını ve kimin ödediğini sormanın önemini vurguladı. Kullanılan veri setlerini göz önünde bulundurmak ve bunların herkesin sesini temsil ettiğinden emin olmak çok önemlidir. Geliştirme sürecinde kapsayıcılık ve kullanıcı araştırması yoluyla potansiyel zararların belirlenmesi de önemlidir.
Ayrıca: AI uzmanı, ChatGPT’nin zekasının sıfır olduğunu, ancak kullanışlılıkta bir devrim olduğunu söylüyor
Baxter, “Bu, tartışmamız gereken temel sorulardan biri” dedi. “Özellikle beyaz olmayan kadınlar bu soruyu soruyor ve yıllardır bu alanda araştırma yapıyor. Pek çok insanın özellikle üretken yapay zekanın kullanımıyla ilgili olarak bunun hakkında konuştuğunu görmek beni heyecanlandırıyor. Ama ihtiyacımız olan şeyler Temel olarak, bu teknoloji için kimin yararlandığını ve kimin ödediğini sorun. Kimin sesleri dahil?”
Sosyal önyargı, onları eğitmek için kullanılan veri setleri aracılığıyla AI sistemlerine aşılanabilir. Ağırlıklı olarak bir ırka sahip veya kültürel farklılaşmadan yoksun görüntü veri kümeleri gibi önyargılar içeren temsili olmayan veri kümeleri, önyargılı AI sistemlerine neden olabilir. Ayrıca, AI sistemlerini toplumda eşit olmayan bir şekilde uygulamak, mevcut klişeleri devam ettirebilir.
Yapay zeka sistemlerini ortalama bir kişi için şeffaf ve anlaşılır kılmak için geliştirme sürecinde açıklanabilirliğe öncelik vermek çok önemlidir. “Düşünce zinciri istemleri” gibi teknikler, yapay zeka sistemlerinin çalışmalarını göstermesine ve karar verme süreçlerini daha anlaşılır hale getirmesine yardımcı olabilir. Kullanıcı araştırması, açıklamaların net olmasını ve kullanıcıların yapay zeka tarafından oluşturulan içerikteki belirsizlikleri belirleyebilmesini sağlamak için de hayati önem taşır.
Ayrıca: AI, tüm işlerin %25’ini otomatikleştirebilir. İşte en çok (ve en az) risk altında olanlar
Bireylerin mahremiyetini korumak ve sorumlu AI kullanımını sağlamak şeffaflık ve onay gerektirir. Salesforce, veri kaynağına saygı duymayı ve yalnızca müşteri verilerini izin alarak kullanmayı içeren sorumlu üretken yapay zeka yönergelerini izler. Kullanıcıların veri kullanımlarını etkinleştirmelerine, devre dışı bırakmalarına veya veri kullanımları üzerinde kontrol sahibi olmalarına izin vermek, gizlilik için çok önemlidir.
Baxter, “Müşteri verilerini yalnızca onaylarını aldığımızda kullanırız” dedi. “Birinin verilerini kullanırken şeffaf olmak, katılmalarına izin vermek ve verilerinin artık dahil edilmesini istemedikleri zaman geri dönüp söylemelerine izin vermek gerçekten önemli.”
Üretken yapay zekada inovasyon rekabeti yoğunlaştıkça, giderek otonom hale gelen yapay zeka sistemleri üzerinde insan kontrolünü ve özerkliği sürdürmek her zamankinden daha önemli hale geliyor. Kullanıcıları, yapay zeka tarafından oluşturulan içeriğin kullanımı hakkında bilinçli kararlar alma konusunda güçlendirmek ve bir insanı döngüde tutmak, kontrolün sürdürülmesine yardımcı olabilir.
Yapay zeka sistemlerinin güvenli, güvenilir ve kullanılabilir olmasını sağlamak çok önemlidir; Bunu başarmak için endüstri çapında işbirliği hayati önem taşıyor. Baxter, çeşitli sektörlerden 240’tan fazla uzmanın dahil olduğu NIST tarafından oluşturulan yapay zeka risk yönetimi çerçevesini övdü. Bu işbirlikçi yaklaşım, risklerin belirlenmesi ve çözümlerin paylaşılması için ortak bir dil ve çerçeve sağlar.
Bu etik AI sorunlarının ele alınmaması, yüz tanıma hatalarından veya zararlı görüntülerin oluşturulmasından kaynaklanan haksız tutuklamalarda görüldüğü gibi ciddi sonuçlar doğurabilir. Önlemlere yatırım yapmak ve yalnızca gelecekteki potansiyel zararlardan ziyade şu ana ve buraya odaklanmak, bu sorunları hafifletmeye ve yapay zeka sistemlerinin sorumlu bir şekilde geliştirilmesini ve kullanılmasını sağlamaya yardımcı olabilir.
Ayrıca: ChatGPT nasıl çalışır?
Yapay zekanın geleceği ve yapay genel zeka olasılığı merak uyandıran konular olsa da, Baxter şimdiye odaklanmanın önemini vurguluyor. Bugünün sorumlu yapay zeka kullanımını sağlamak ve sosyal önyargıları ele almak, toplumu gelecekteki yapay zeka gelişmeleri için daha iyi hazırlayacaktır. Etik yapay zeka uygulamalarına yatırım yaparak ve sektörler arasında iş birliği yaparak, yapay zeka teknolojisi için daha güvenli ve kapsayıcı bir gelecek yaratmaya yardımcı olabiliriz.
Baxter, “Zaman çizelgesinin çok önemli olduğunu düşünüyorum,” dedi. “Şimdiye ve buraya gerçekten yatırım yapmalı ve bu kas hafızasını yaratmalı, bu kaynakları yaratmalı, ilerlemeye devam etmemize izin veren ancak bunu güvenli bir şekilde yapmamıza izin veren düzenlemeler oluşturmalıyız.”
Veri politikasındaki amaçlarla sınırlı ve mevzuata uygun şekilde çerez konumlandırmaktayız. Detaylar için veri politikamızı inceleyebilirsiniz.