Militer Israel telah menggunakan AI (artificial intelligence/kecerdasan buatan) untuk membantu memilih target pengeboman di Gaza. Israel tak peduli pada akurasi demi kecepatan dan membunuh ribuan warga sipil dalam prosesnya.
Demikian penyelidikan yang dilakukan +972 Magazine dan Local Call yang berbasis di Israel.
Sistem yang disebut Lavender, dikembangkan setelah serangan Hamas pada 7 Oktober, klaim laporan tersebut. Pada puncaknya, Lavender menandai 37.000 warga Palestina di Gaza sebagai tersangka “militan Hamas” dan mengizinkan pembunuhan mereka.
Militer Israel membantah adanya daftar pembunuhan tersebut dalam sebuah pernyataan kepada +972 dan Local Call. Seorang juru bicara mengatakan bahwa AI tidak digunakan untuk mengidentifikasi tersangka teroris tetapi tidak membantah keberadaan sistem Lavender, yang digambarkan oleh juru bicara tersebut sebagai “hanya alat bagi analis dalam proses identifikasi target.”
Analis “harus melakukan pemeriksaan independen, di mana mereka memverifikasi bahwa target yang diidentifikasi memenuhi definisi yang relevan sesuai dengan hukum internasional dan batasan tambahan yang ditetapkan dalam arahan IDF,” kata juru bicara tersebut.
Namun kemudian ada hasil wawancara berbeda dengan +972 dan Local Call lagi, para perwira intelijen Israel mengatakan bahwa mereka tidak diharuskan melakukan pemeriksaan independen terhadap target Lavender sebelum mengebomnya, namun justru berfungsi sebagai “stempel karet” untuk pengambilan keputusan oleh mesin tersebut. Dalam beberapa kasus, satu-satunya peran petugas dalam proses ini adalah menentukan apakah targetnya adalah laki-laki.
Memilih target
Untuk membangun sistem Lavender, informasi mengenai anggota Hamas dan Jihad Islam Palestina dimasukkan ke dalam kumpulan data – namun, menurut salah satu sumber yang bekerja dengan tim yang mengujicoba Lavender, data mengenai orang-orang yang berafiliasi dengan Hamas juga sama, seperti pegawai Kementerian Keamanan Dalam Negeri Gaza.
“Saya merasa terganggu dengan kenyataan bahwa ketika Lavender diujicoba, mereka menggunakan istilah ‘operatif Hamas' secara longgar, dan memasukkan orang-orang yang merupakan pekerja pertahanan sipil dalam data pelatihan,” kata sumber tersebut kepada +972.
Lavender diaplikasikan untuk mengidentifikasi “fitur” yang terkait dengan operasi Hamas, termasuk berada di grup WhatsApp dengan seorang militan yang dikenal, berganti ponsel setiap beberapa bulan, atau sering berpindah alamat.
Data tersebut kemudian digunakan untuk menentukan peringkat warga Palestina lainnya di Gaza pada skala 1–100 berdasarkan seberapa mirip mereka dengan agen Hamas yang diketahui dalam kumpulan data awal. Masyarakat yang mencapai ambang batas tertentu kemudian ditandai sebagai sasaran mogok kerja.
Ambang batas tersebut selalu berubah “karena hal ini bergantung pada di mana Anda menentukan standar apa yang dimaksud dengan agen Hamas,” kata salah satu sumber militer kepada +972.
Sistem tersebut memiliki tingkat akurasi 90 persen, kata sumber tersebut, yang berarti bahwa sekitar 10 persen orang yang diidentifikasi sebagai agen Hamas sama sekali bukan anggota sayap militer Hamas. Beberapa orang yang ditandai oleh Lavender sebagai target kebetulan mempunyai nama atau nama panggilan yang mirip dengan nama anggota Hamas; yang lainnya adalah kerabat anggota Hamas atau orang-orang yang menggunakan ponsel yang dulunya milik militan Hamas.
“Kesalahan ditangani secara statistik,” kata sumber yang menggunakan Lavender kepada +972.
“Karena cakupan dan besarnya, protokolnya adalah meskipun Anda tidak mengetahui secara pasti apakah mesin tersebut benar, Anda tahu secara statistik bahwa mesin tersebut baik-baik saja. Jadi, lakukanlah.”
Kerusakan tambahan
Mengutip +972 lagi, petugas intelijen diberi keleluasaan luas ketika menyangkut korban sipil. Selama beberapa minggu pertama perang, petugas diizinkan membunuh hingga 15 atau 20 warga sipil untuk setiap operasi Hamas tingkat rendah yang menjadi sasaran Lavender; bagi para pejabat senior Hamas, militer mengizinkan “ratusan” korban sipil, klaim laporan tersebut.
Para tersangka anggota Hamas juga menjadi sasaran di rumah mereka menggunakan sistem yang disebut “Where's Daddy?”. Sistem tersebut menempatkan target yang dihasilkan oleh Lavender di bawah pengawasan berkelanjutan, melacak mereka hingga mereka mencapai rumah – pada saat itulah, mereka akan dibom, sering kali bersama seluruh keluarga mereka, kata para petugas. Namun, kadang-kadang, petugas mengebom rumah-rumah tanpa memverifikasi bahwa sasarannya ada di dalam, sehingga memusnahkan banyak warga sipil dalam proses tersebut.
“Saya sering kali menyerang sebuah rumah, tapi orangnya bahkan tidak ada di rumah,” kata salah satu sumber kepada +972.
“Hasilnya adalah Anda membunuh sebuah keluarga tanpa alasan.”
Peperangan yang digerakkan oleh AI
Mona Shtaya, peneliti non-residen di Institut Tahrir untuk Kebijakan Timur Tengah, mengatakan bahwa sistem Lavender adalah perpanjangan dari penggunaan teknologi pengawasan Israel terhadap warga Palestina di Jalur Gaza dan Tepi Barat.
Shtaya, yang berbasis di Tepi Barat, mengatakan bahwa alat-alat ini sangat meresahkan mengingat adanya laporan bahwa perusahaan rintisan pertahanan Israel berharap untuk mengekspor teknologi mereka yang telah teruji ke luar negeri.
Sejak serangan darat Israeldi Gaza dimulai, militer Israel mengandalkan dan mengembangkan sejumlah teknologi untuk mengidentifikasi dan menargetkan orang-orang yang dicurigai sebagai anggota Hamas. Pada bulan Maret, The New York Times melaporkan bahwa Israel mengerahkan program pengenalan wajah secara massal di Jalur Gaza – membuat database warga Palestina tanpa sepengetahuan atau persetujuan mereka – yang kemudian digunakan militer untuk mengidentifikasi tersangka agen Hamas. Dalam satu contoh, alat pengenalan wajah mengidentifikasi penyair Palestina Mosab Abu Toha sebagai tersangka agen Hamas. Abu Toha ditahan selama dua hari di penjara Israel, di mana dia dipukuli dan diinterogasi sebelum dikembalikan ke Gaza.
Sistem AI lainnya, yang disebut “The Gospel,” digunakan untuk menandai bangunan atau struktur tempat Hamas diyakini beroperasi. Menurut laporan +972 dan Local Call dari bulan November, “The Gospel” juga berkontribusi terhadap sejumlah besar korban sipil.
“Ketika seorang anak perempuan berusia 3 tahun terbunuh di sebuah rumah di Gaza, itu terjadi karena seseorang di tentara memutuskan bahwa pembunuhan terhadap anak tersebut bukanlah sebuah masalah besar – bahwa itu adalah harga yang pantas dibayar untuk bisa memukul [orang lain] ] target,” kata seorang sumber militer saat itu.
“Kita perlu melihat ini sebagai kelanjutan dari kebijakan hukuman kolektif yang telah dijadikan senjata terhadap warga Palestina selama beberapa dekade,” kata Shtaya. “Kita perlu memastikan bahwa masa perang tidak digunakan untuk membenarkan pengawasan massal dan pembunuhan massal terhadap orang-orang, terutama warga sipil, di tempat-tempat seperti Gaza.” ***