Yapay zeka risklerinin daha iyi anlaşılması ve yönetilmesi gerekiyor

Yeni araştırmalar, yapay zekanın (AI) toplumları olumlu yönde dönüştürme kapasitesine sahip olmakla birlikte, aynı zamanda daha iyi anlaşılması ve yönetilmesi gereken riskleri de beraberinde getirdiği konusunda uyardı. Birleşik Krallık’taki Lancaster Üniversitesi’nden profesör Joe Burton, yapay zeka ve algoritmaların, ulusal güvenlik kurumları tarafından kötü niyetli çevrimiçi etkinlikleri engellemek için kullanılan basit araçlardan daha fazlası olduğunu ileri sürüyor.

Yakın zamanda Technology in Society Journal’da yayınlanan bir araştırma makalesinde Burton, yapay zeka ve algoritmaların aynı zamanda kutuplaşmayı, radikalizmi ve siyasi şiddeti de körükleyebileceğini ve dolayısıyla bizzat ulusal güvenliğe yönelik bir tehdit haline gelebileceğini öne sürüyor.

“Yapay zeka sıklıkla şiddet içeren aşırıcılığa karşı kullanılacak bir araç olarak çerçeveleniyor. Burton, “İşte tartışmanın diğer tarafı.” dedi.

Makale, yapay zekanın tarihi boyunca, medyada ve popüler kültür tasvirlerinde nasıl güvenlikleştirildiğini inceliyor ve siyasi şiddete katkıda bulunan kutuplaştırıcı, radikalleştirici etkilere sahip modern yapay zeka örneklerini araştırıyor.

Araştırma, “sofistike ve kötü niyetli” bir yapay zeka tarafından gerçekleştirilen bir soykırımı tasvir eden klasik film serisi Terminatör’ün, yapay zekaya ilişkin popüler farkındalığı ve makine bilincinin insanlık için yıkıcı sonuçlara yol açabileceği korkusunu çerçevelemek için her şeyden daha fazlasını yaptığını belirtiyor. bu durumda bir nükleer savaş ve bir türün yok edilmesine yönelik kasıtlı bir girişim.

“Makinelere olan bu güven eksikliği, onlarla ilgili korkular ve bunların insanlığa yönelik biyolojik, nükleer ve genetik tehditlerle olan ilişkisi, hükümetlerin ve ulusal güvenlik kurumlarının teknolojinin gelişimini etkileme arzusuna katkıda bulundu; Burton, riski azaltmak ve olumlu potansiyelinden yararlanmak için çaba sarf ettiğini söyledi.

Burton, Ukrayna’daki savaşta kullanılanlar gibi gelişmiş dronların rolünün artık hedef belirleme ve tanıma gibi işlevler de dahil olmak üzere tam özerkliğe sahip olduğunu söylüyor.

‘Katil robotların’ yasaklanması ve ölüm kalım meselesine ilişkin karar alma konusunda insanların bilgilendirilmesi yönünde BM de dahil olmak üzere geniş ve etkili bir kampanya tartışması olsa da, silahlı insansız hava araçlarına entegrasyon ve hızlanma, hızla devam ettiğini söylüyor.

Burton, siber güvenlikte (bilgisayarların ve bilgisayar ağlarının güvenliği) yapay zekanın büyük ölçüde kullanıldığını, en yaygın alanın ise bilgi(dezenformasyon) ve çevrimiçi psikolojik savaş olduğunu söyledi.

Pandemi sırasında yapay zekanın virüsü takip etme ve takip etme konusunda olumlu görüldüğünü ancak aynı zamanda mahremiyet ve insan hakları konusunda endişelere yol açtığını söyledi.

Makalede yapay zeka teknolojisinin kendisi inceleniyor ve tasarımında, dayandığı verilerde, nasıl kullanıldığında, sonuçlarında ve etkilerinde sorunların mevcut olduğu öne sürülüyor.

Burton, “Yapay zeka kesinlikle toplumları olumlu yönde dönüştürme kapasitesine sahip ancak aynı zamanda daha iyi anlaşılması ve yönetilmesi gereken riskler de sunuyor” diye ekledi.

Yapay zeka risklerinin daha iyi anlaşılması ve yönetilmesi gerekiyor

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

Başa dön