Yapay zekanın kontrol edilmesine yardımcı olmak için OpenAI ekibi üç ana soruya odaklanacak:
- Kötüye kullanılırsa, bugün sahip olduğumuz ve gelecekte oluşturulacak son teknolojiye sahip yapay zeka sistemleri ne kadar tehlikeli olabilir?
- Son teknolojiye sahip yapay zeka modelleri ele geçirilirse, kötü niyetli bir aktör bunlarla tam olarak ne yapabilir?
- En son teknolojiye sahip yapay zeka sistemlerinin tehlikeli yeteneklerini izlemek, değerlendirmek, tahmin etmek ve bunlara karşı koruma sağlamak için nasıl bir çerçeve oluşturabiliriz?
Bu ekip, MIT Konuşlandırılabilir Makine Öğrenimi Merkezi direktörü ve MIT Yapay Zeka Politika Forumu eş direktörü Aleksander Madry tarafından yönetiliyor Özellikle kişiselleştirilmiş iknayı (yani alıcının duymak istediği şeye uyarlanmış içerik), küresel siber güvenliği, otonom kopyalama ve adaptasyonu (kendini değiştiren bir yapay zeka) ve hatta kimyasal, biyolojik, radyolojik ve nükleer saldırılar gibi yok olma tehditlerini izleyecektir
Kaynak : ZDNet »
Yapay zeka nasıl nükleer savaşa neden olabilir?Bugün bilgisayarlar her yerde bulunuyor ve askeri saldırıların ne zaman, nerede ve nasıl gerçekleşeceğini belirlemeye yardımcı oluyor
Yapay zeka, teknolojiyle etkileşim şeklimizde devrim yaratmaya devam ediyor ve geleceğimiz üzerinde inanılmaz bir etkiye sahip olacağı inkar edilemez Ancak bu yılın başlarında, aralarında Google DeepMind CEO’su Demis Hassabis’in de bulunduğu bir grup üst düzey yapay zeka araştırmacısı, mühendisi ve CEO’sunun, ciddi bir uyarı yayınladı : “Pandemi ve nükleer savaş gibi toplumsal risklerin yanı sıra, yok olma riskinin yapay zeka aracılığıyla azaltılması küresel bir öncelik olmalıdır Yapay zeka, henüz işin içinde değilse bile gelecekte yer alacak Ancak bu teknoloji, halüsinasyonlara yatkın olmasının yanı sıra, bir insanın bu tür kararlar verebilecek bir felsefesine de sahip değildir
“Şu anda en gelişmiş modellerde mevcut olan yetenekleri aşan son teknolojiye sahip yapay zeka modelleri, tüm insanlığa fayda sağlama potansiyeline sahip olacak 000 $’a kadar API kredisi teklif ediyor
OpenAI, araştırmasını genişletmek için ayrıca “Yapay Zeka Hazırlık Mücadelesi” Felaketlere yol açabilecek suiistimalleri önlemek için com
genel-15
Yapay zeka tarafından başlatılan bir nükleer savaşın biraz abartılı olduğunu düşünüyor olabilirsiniz
OpenAI tarafından bir araya getirilen yeni bir uzman ekibinin devreye girdiği yer burasıdır Şirket, OpenAI teknolojilerinin olası ancak felaketle sonuçlanabilecek şekilde kötüye kullanımını yayınlayan en iyi 10 başvuruya 25
Yapay zeka çalışmasını izleyin“Felaket” riskleri olarak adlandırdığı risklerle mücadeleye yardımcı olmak için tasarlanan OpenAI’nin Hazırlık adlı uzman ekibi, çeşitli risk faktörlerine dayalı olarak mevcut ve gelecekteki yapay zeka modellerini değerlendirmeyi planlıyor Ancak aynı zamanda giderek daha büyük riskler de oluşturacaklar” diye uyarıyor OpenAI
Resim: Yuichiro Chino/Getty Images Yapay zekanın kontrol edilmediği takdirde oldukça ciddi riskler doğurduğu da inkar edilemez