Mektupta, “Tarih bize, hızla yanlış türde bir düzenlemeye yönelmenin, rekabete ve yeniliğe zarar verecek şekilde güç yoğunlaşmasına yol açabileceğini gösteriyor” diye belirtiliyor Hafta sonu, Facebook’un ana şirketi Meta’nın baş yapay zeka bilimcisi Yann LeCun X’e götürdüm OpenAI ve Google’ın DeepMind’ı da dahil olmak üzere bazı şirketlerin, açık AI Ar-Ge’sine karşı lobi yaparak “AI endüstrisinin düzenleyici açıdan ele geçirilmesini” sağlama çabalarını kınamak “Ancak, aynı şeyin özel teknolojiler için de geçerli olduğunu ve artan kamu erişiminin ve incelemesinin teknolojiyi daha tehlikeli değil, daha güvenli hale getirdiğini defalarca gördük Bunun küresel bir öncelik olması gerekiyor ”
genel-24
LeCun, “Korku çığırtkan kampanyalarınız başarılı olursa, bunlar *kaçınılmaz olarak* sizin ve benim felaket olarak tanımlayacağımız bir sonuçla sonuçlanacak: az sayıda şirket yapay zekayı kontrol edecek” diye yazdı ”
Geçtiğimiz birkaç on yıl boyunca daha geniş yazılım alanında olup bitenlere benzer şekilde, gelişen yapay zeka devriminin ana zemini açık ve özel mülkiyet arasındaydı ve her birinin artıları ve eksileri vardı
Tescilli kontrolGerçek muhtemelen bundan biraz daha ayrıntılıdır, ancak bu arka planda düzinelerce insan bugün daha fazla açıklık çağrısında bulunarak adını bir açık mektuba koydu “Açık modeller açık bir tartışmaya ışık tutabilir ve politika oluşturmayı geliştirebilir Temel yapay zeka modellerinin sıkı ve özel kontrolünün bizi toplum çapındaki zararlardan korumanın tek yolu olduğu fikri en iyi ihtimalle naif, en kötü ihtimalle tehlikelidir
Mektupta “Yapay zeka yönetiminde kritik bir kavşaktayız” ifadesi yer alıyor Eğer hedeflerimiz emniyet, güvenlik ve hesap verebilirlik ise, açıklık ve şeffaflık bizi bu noktaya ulaştıracak temel unsurlardır “Yapay zeka sistemlerinin mevcut ve gelecekteki zararlarını azaltmak için açıklığı, şeffaflığı ve geniş erişimi benimsememiz gerekiyor Julien Chaumond ve ünlü teknoloji uzmanı Brian Behlendorf Linux Vakfı’ndan
Meta’ya 10 yıl önce katılan değerli yapay zeka araştırmacısı LeCun, Google Brain ve Coursera kurucu ortağı Andrew Ng, Hugging Face kurucu ortağı ve CTO’su da dahil olmak üzere diğer birçok önemli ismin yanı sıra kendi adını da mektuba ekledi
Mektupta “Evet, açık olarak sunulan modeller riskler ve güvenlik açıklarıyla birlikte gelir; yapay zeka modelleri kötü niyetli aktörler tarafından kötüye kullanılabilir veya yetersiz donanıma sahip geliştiriciler tarafından konuşlandırılabilir” deniyor Bir yandan büyük yapay zeka şirketlerinin başkanları, açık kaynaklı yapay zekanın kötü aktörler tarafından daha kolay kimyasal silahlar oluşturmak için manipüle edilebileceğini savunarak yapay zekanın oluşturduğu varoluşsal tehditler konusunda uyarıda bulunurken, diğer yandan karşı argümanlar öne sürüyor bu tür korkutmaların amacının kontrolün birkaç korumacı şirketin elinde yoğunlaşmasına yardımcı olmak olduğunu söylüyor
Birleşik Krallık’ın yapay zeka güvenliği zirvesi için dünyanın bazı kurumsal ve siyasi liderlerini Bletchley Park’ta aynı odada topladığı gün, 70’ten fazla imza sahibi yapay zeka gelişimine daha açık bir yaklaşım çağrısında bulunan bir mektuba adını koydu
Ve bu, Başkan Biden’ın idari emri ve bu hafta İngiltere’nin ev sahipliği yaptığı Yapay Zeka Güvenliği Zirvesi gibi artan yönetişim çabalarına nüfuz etmeye devam eden bir tema
Mektup özellikle, daha fazla bağımsız araştırma ve işbirliğinin sağlanması, kamu incelemesinin ve hesap verebilirliğin arttırılması ve yapay zeka alanına yeni girenlerin girişindeki engellerin azaltılması dahil olmak üzere, açıklığın güvenli yapay zeka gelişimine yardımcı olabileceği üç ana alanı tanımlıyor