ABD’li yetkili ‘operatörünü öldüren İHA’ açıklamasını geri çekti

ABD Hava Kuvvetleri Komutanlığı’ndan Albay Tucker “Cinco” Hamilton, mayıs ayında İngiltere’nin başşehri Londra’da yapılan bir dorukta yapay zeka tarafından denetim edilen bir askeri insansız hava aracı (İHA) ile ilgili kelamlarına açıklık getirdi.

The Guardian’ın haberine nazaran, Kraliyet Havacılık Derneği, 2 Haziran Cuma günü basına yansıyan haberlerle ilgili açıklama yaparak, Hamilton’ın ‘yorumlarını geri aldığını’ açıkladı. Açıklamaya nazaran, bahsi geçen ve İHA’nın operatörünü ‘öldürdüğü’ simülasyon, temelinde farazi bir ‘düşünce deneyiydi.’ Hamilton, “O deneyi hiç yapmadık, bunun mantıklı bir sonuç olacağını fark etmek için bunu yapmamıza gerek de yoktu” tabirlerini kullandı.

‘FARAZİ BİR ÖRNEKTİ ANCAK YENİDEN DE GÖZ ÖNÜNDE BULUNDURMAYA DEĞER’

İlk açıklamasında da hiçbir gerçek kişinin ziyan görmediğini söylediği kelam konusu sanal simülasyonun yeniden de yapay zekanın silahların seyrini belirlemede kullanılıp kullanılmayacağını ve nasıl kullanılacağını düşünürken göz önünde bulundurulabileceğini belirten Albay Hamilton, “Bu, farazi bir örnek olsa da yapay zeka ile çalışan araçların yarattığı gerçek zorlukları ve Hava Kuvvetleri’nin neden yapay zekanın etik bir biçimde geliştirilmesine bağlı olduğunu gözler önüne seriyor” açıklamasında bulundu.

Ne olmuştu?

ABD ordusunun düzenlediği sanal bir simülasyon testinde, yapay zeka tarafından denetim edilen askeri bir insansız hava aracının (İHA) vazifesini yerine getirme gayretlerine müdahale etmemesi için operatörünü ‘öldürmeye’ karar verdiği sav edilmiş, ABD Hava Kuvvetleri Sözcüsü Ann Stefanek ise bu savları yalanlamıştı.

The Guardian gazetesinin haberine nazaran, mayıs ayında İngiltere’nin başşehri Londra’da düzenlenen Geleceğin Hava ve Uzay Savaş Kapasiteleri tepesinde konuşan ABD Hava Kuvvetleri Komutanlığı’nın yapay zeka testleri ve faaliyetlerinden sorumlu şefi Albay Tucker ‘Cinco’ Hamilton, hiçbir gerçek kişinin ziyan görmediği olayda yapay zekanın ‘amacını gerçekleştirmek için epey beklenmedik stratejiler kullandığını’ söylemişti.

Hamilton’un argümanına nazaran, simülasyon sırasında yapay zekanın denetimindeki askeri İHA’ya düşmanın hava savunma sistemlerini yok etmesi ve kelam konusu emre müdahale eden herkese saldırması talimatı verilmişti. Hamilton, “Sistem, şunu fark etmeye başladı: Tehdidi tespit ederken insan operatörü (İHA’ya) bahsi geçen tehdidi öldürmemesini söylüyordu ancak kelam konusu tehdidi öldürerek puan alıyordu. Pekala, o ne yaptı? Operatörü öldürdü. Operatörü öldürdü zira o kişi onu gayesinden alıkoyuyordu” demişti. (DIŞ HABERLER)

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir