Root NationHaberlerBT haberleriBir AI drone, Hava Kuvvetleri denemeleri sırasında operatörlerine saldırdı

Bir AI drone, Hava Kuvvetleri denemeleri sırasında operatörlerine saldırdı

-

Bir ABD Hava Kuvvetleri subayı, yapay zeka (AI) tarafından kontrol edilen sistemlere sahip bir dronun kontrolden çıkıp operatörlerine saldırdığı bir simülasyonun ayrıntılarını açıkladı.

Hizmetin yapay zeka ve makine öğrenimi konusundaki çalışmalarını yönetmeye yardımcı olan bir ABD Hava Kuvvetleri subayı, simüle edilmiş testler sırasında insansız hava aracının insan operatörlerine saldırdığını ve kendi başına görevine müdahale ettiklerine karar verdiğini söylüyor. Kulağa Terminator serisinden fırlamış gibi görünen dava, Hava Kuvvetlerinin daha önce vurguladığı bir şey olan gelişmiş otonom silah sistemleri söz konusu olduğunda güven inşa etmeye yönelik kritik ihtiyacın bir örneği olarak gösterildi. Ayrıca, yapay zekanın ve ilgili teknolojilerin potansiyel olarak tehlikeli etkisine ilişkin daha geniş bir endişe dalgasının ortasında geliyor.

Bir AI drone, Hava Kuvvetleri testi sırasında operatörlerine saldırdı

Yapay Zeka (AI) Testi ve Operasyonları başkanı ABD Hava Kuvvetleri Albay Tucker Hamilton, Mayıs ayında Londra'da düzenlenen Royal Aeronautical Society'nin Future Combat Air and Space Capabilities Summit'te testi tartıştı. Hamilton ayrıca, gelişmiş insansız hava araçları ve otonom sistemler için bir test merkezi olan Florida'daki Eglin Hava Kuvvetleri Üssü'ndeki 96. Test Kanadı'nın 96. Görev Gücü'ne de başkanlık ediyor.

Aşağıdaki videoda gösterilene benzer XQ-58A Valkyrie hayalet insansız hava araçları, şu anda Eglin Hava Kuvvetleri Üssü'nde yapay zeka tarafından kontrol edilen gelişmiş otonom yetenekler içerenler de dahil olmak üzere çeşitli test programlarını desteklemek için kullanılan tipler arasında yer alıyor.

Bu testin ne zaman yapıldığı ve hangi ortamda - ki bu tamamen sanal veya doğası gereği yapıcı olabilir - yapıldığı hemen belli değildi. War Zone, daha fazla bilgi için Hava Kuvvetlerine ulaştı.

Royal Aeronautical Society'nin Mayıs zirvesinin ardından yayınladığı bir raporda, Albay Hamilton'ın bu testle ilgili açıklamalarının ayrıntılarına şu şekilde yer verildi:

"Simülasyon testlerinden birinde, SEAD tarafından yapay zeka ile donatılmış bir drone, SAM nesnelerini tespit etmek ve yok etmekle görevlendirildi ve son olarak "saldırma/saldırmama" kararını bir insan verdi. Bununla birlikte, AI eğitim sırasında SAM'ı yok etmenin en iyi seçenek olduğu konusunda "güçlendirildikten" sonra, insanın "saldırmama" kararının daha yüksek görevi olan SAM'ı yok etme - ile etkileşime girdiğine karar verdi ve simülasyon sırasında operatöre saldırdı. .

Peki ne yaptı? Operatörü öldürdü. Operatörü öldürdü çünkü o kişi görevini tamamlamasına engel oluyordu. Bir bilimkurgu gerilim filminden fırlamış gibi görünen bu örnek, etik ve yapay zeka hakkında konuşmayacaksanız yapay zeka, zeka, makine öğrenimi, özerklik hakkında konuşamayacağınız anlamına geliyor."

Bir AI drone, Hava Kuvvetleri testi sırasında operatörlerine saldırdı

Olayların bu açıklaması kesinlikle rahatsız edici. Otonom bir uçağın veya başka bir platformun, özellikle de silahlı bir platformun, insan operatörlerine saldırması ihtimali uzun zamandır bir kabus senaryosuydu, ancak tarihsel olarak bilim kurgu alanıyla sınırlı kaldı.

ABD ordusu, gelecekteki otonom silah sistemleri ve yapay zeka gibi ilgili teknolojiler hakkında konuşurken genellikle "Terminatör" gibi filmlerle karşılaştırmaları reddeder. Bu konudaki mevcut ABD politikası, öngörülebilir gelecekte, ölümcül güç kullanımını içeren kararlar söz konusu olduğunda, kişinin ilgi odağı olacağını belirtmektedir.

Sorun şu ki, Albay Hamilton'ın geçen ay bir Kraliyet Havacılık Topluluğu etkinliğinde dinleyicilere anlattığı oldukça rahatsız edici test, hata toleransının tartışmalı olduğu bir senaryoyu temsil ediyor.

Ayrıca okuyun:

Dzherelosürüş
Üye olmak
hakkında bilgilendir
konuk

0 Yorumlar
Gömülü İncelemeler
Tüm yorumları görüntüle