Bisnis.com, JAKARTA – Militer Israel dilaporkan menggunakan basis data bertenaga kecerdasan (artificial intelligence/AI) yang belum teruji dan dirahasiakan untuk mengidentifikasi target-target penyerangan di Jalur Gaza.
Temuan ini membuat para pakar hak asasi manusia dan teknologi khawatir dan mengatakan bahwa hal tersebut dapat dikategorikan sebagai kejahatan perang.
Melansir Al Jazeera, Kamis (4/4/2024), majalah Israel-Palestina +972 Magazine dan media berbahasa Ibrani, Local Call, baru-baru ini melaporkan bahwa militer Israel mengisolasi dan mengidentifikasi ribuan warga Palestina sebagai target pengeboman potensial dengan menggunakan sistem penargetan dengan bantuan AI yang disebut Lavender.
"Basis data tersebut bertanggung jawab untuk menyusun daftar pembunuhan sebanyak 37.000 target," kata Rory Challands dari Al Jazeera.
Pejabat intelijen Israel yang tidak disebutkan namanya yang berbicara kepada media tersebut mengatakan bahwa Lavender memiliki tingkat kesalahan sekitar 10 persen.
"Namun hal itu tidak menghentikan Israel untuk menggunakannya guna mempercepat identifikasi para anggota Hamas tingkat rendah di Gaza dan mengebom mereka," kata Challands.
Baca Juga
Asisten profesor di Middle East Studies dan humaniora digital di Hamid Bin Khalifa University Marc Owen Jones mengatakan bahwa semakin jelas bahwa tentara Israel mengerahkan sistem AI yang belum teruji untuk membantu membuat keputusan hidup dan mati warga sipil.
"Mari kita perjelas: Ini adalah genosida yang dibantu oleh AI, dan ke depannya, perlu ada seruan untuk moratorium penggunaan AI dalam perang," tambahnya.
Publikasi Israel melaporkan bahwa metode ini menyebabkan banyak dari ribuan kematian warga sipil di Gaza.
Pada Kamis, Kementerian Kesehatan Gaza menyatakan 33.037 warga Palestina telah terbunuh dan 75.668 lainnya terluka dalam serangan Israel sejak 7 Oktober 2023.
Penggunaan AI Langgar Hukum Kemanusiaan
"Manusia yang berinteraksi dengan basis data AI sering kali hanya menjadi stempel. Mereka akan meneliti daftar korban tewas ini selama mungkin 20 detik sebelum memutuskan apakah akan memberikan lampu hijau untuk melakukan serangan udara atau tidak," lapor Challands.
Menanggapi kritik yang semakin meluas, militer Israel mengatakan bahwa para analisnya harus melakukan pemeriksaan independen untuk memverifikasi bahwa target-target yang diidentifikasi memenuhi definisi yang relevan sesuai dengan hukum internasional dan pembatasan tambahan yang ditetapkan oleh pasukannya.
Pihaknya membantah anggapan bahwa teknologi tersebut adalah sebuah sistem, melainkan hanya sebuah basis data yang tujuannya adalah untuk melakukan referensi silang terhadap sumber-sumber intelijen untuk menghasilkan lapisan informasi terkini tentang operasi militer organisasi teroris.
”Namun, fakta bahwa ada lima hingga 10 kematian warga sipil yang dapat diterima untuk setiap pejuang Palestina yang menjadi target, menunjukkan mengapa ada begitu banyak kematian warga sipil di Gaza,” ungkap Challands.
Profesor Toby Walsh, seorang ahli AI di University of New South Wales di Sydney, mengatakan bahwa para ahli hukum kemungkinan besar akan berargumen bahwa penggunaan penargetan dengan AI melanggar hukum kemanusiaan internasional.
"Dari perspektif teknis, berita terbaru ini menunjukkan betapa sulitnya menjaga manusia tetap berada dalam lingkaran, memberikan pengawasan yang berarti pada sistem AI yang meningkatkan skala peperangan secara mengerikan dan tragis," katanya kepada Al Jazeera.