Mesin Pembunuh Digital Israel Bernama Habsora atau Injil
loading...
A
A
A
Perang Israel di Gaza telah menyebabkan serangan baru dan mematikan di daerah kantong Palestina . Serangan gencar tersebut, didukung oleh sistem kecerdasan buatan (AI) yang menurut para ahli tidak pandang bulu dan pada dasarnya salah.
Sistem AI itu bertajuk Habsora. Itu adalah Bahasa Ibrani untuk menyebut Injil . AI ini konon dapat menghasilkan target dengan kecepatan lebih cepat dari sebelumnya, memfasilitasi apa yang oleh seorang mantan perwira intelijen disebut sebagai "pabrik pembunuhan massal".
Sistem senjata ini dipromosikan dapat dengan cepat dan otomatis mengidentifikasi target, jauh lebih cepat dibandingkan metode lama.
"Jika dalam kampanye pengeboman sebelumnya, tentara Israel secara manual memilih 50 target per hari, kini sistem baru menyediakan 100 target," tulis Dr Marc Owen Jones dalam artikelnya berjudul "Fact or fiction? Israeli maps and AI do not save Palestinian lives" yang dilansir Al Jazeera 4 Desember 2023. .
Menurut salah satu sumber yang dikutip majalah +972, senjata ini telah mengubah tentara Israel menjadi “pabrik pembunuhan massal”, lebih fokus pada “kuantitas dan bukan kualitas”.
Majalah tersebut melaporkan bahwa tentara Israel yang menggunakan sistem penargetan AI mengetahui jumlah warga sipil yang akan mereka bunuh; itu ditampilkan dalam kategori "kerusakan tambahan" di file target.
Tentara Israel telah mengategorikan ambang batas kematian warga sipil, berkisar antara lima hingga ratusan. Perintah “collateral damage five”, misalnya, berarti tentara Israel diberi wewenang untuk membunuh target yang juga akan membunuh 5 warga sipil.
Dalam konteks yang lebih tinggi, “komando militer Israel dengan sadar menyetujui pembunuhan ratusan warga sipil Palestina dalam upaya membunuh seorang komandan militer Hamas”, majalah +972 melaporkan.
Para pejabat mengakui kepada media tersebut bahwa rumah anggota Hamas dan faksi bersenjata Palestina lainnya yang berpangkat lebih rendah sengaja dijadikan sasaran, bahkan jika itu berarti membunuh semua orang di dalam gedung tersebut.
Salah satu kasus menunjukkan intelijen tentara Israel menyetujui pembunuhan ratusan warga Palestina untuk membunuh satu anggota Hamas.
"Ini adalah pertama kalinya mereka berbicara tentang bagaimana warga sipil menjadi sasaran dalam skala besar hanya karena menyerang satu sasaran militer berdasarkan teknologi AI,” kata Anwar Mhajne, profesor ilmu politik di Stonehill College, Massachusetts, kepada Middle East Eye.
Mengingat bahwa Israel menganggap 30.000 anggota Hamas di Gaza sebagai target potensial, hal ini berarti bahwa “pemusnahan” gerakan tersebut akan mengakibatkan banyak korban jiwa warga sipil. "Jika kita menggunakan kerusakan tambahan lima terendah, perkiraan paling konservatif berjumlah 150.000 warga sipil," jelas Dr Marc Owen Jones yang Asisten Profesor Studi Timur Tengah dan Humaniora Digital di Universitas Hamad bin Khalifa ini.
Tentu saja, seiring dengan digantikannya para pemimpin Hamas yang terbunuh, menurut Dr Marc Owen Jones, ratusan warga Palestina lainnya akan terbunuh karena sistem AI menghasilkan lebih banyak target baru.
"Karena Hamas tidak dapat dikalahkan secara militer, satu-satunya hasil logis dari hal ini adalah pembunuhan terus-menerus atau pemindahan semua orang di Gaza," tambah Dr Marc Owen Jones.
Elemen lain yang mengganggu dari AI adalah ia mereproduksi bias yang telah dilatihnya. Secara historis, Israel kurang memperhatikan kehidupan warga sipil dalam pemboman yang dilakukannya. Kita harus bertanya-tanya sejauh mana AI yang penuh rahasia ini telah belajar mengasosiasikan warga Palestina dengan “teroris Hamas” berdasarkan perilaku tentara Israel di masa lalu. Hal ini mungkin menjelaskan mengapa mereka mampu menghasilkan begitu banyak “target” baru untuk pengeboman.
Propaganda Presisi
Dr Marc Owen Jones mengatakan Israel gemar menyombongkan moralitas dan kemampuan serangannya yang berteknologi tinggi dan presisi, yang ironisnya hanya sebagai cara untuk membela diri terhadap klaim penyerangan terhadap warga sipil tanpa pandang bulu dan tuduhan kejahatan perang.
Sistem AI itu bertajuk Habsora. Itu adalah Bahasa Ibrani untuk menyebut Injil . AI ini konon dapat menghasilkan target dengan kecepatan lebih cepat dari sebelumnya, memfasilitasi apa yang oleh seorang mantan perwira intelijen disebut sebagai "pabrik pembunuhan massal".
Sistem senjata ini dipromosikan dapat dengan cepat dan otomatis mengidentifikasi target, jauh lebih cepat dibandingkan metode lama.
"Jika dalam kampanye pengeboman sebelumnya, tentara Israel secara manual memilih 50 target per hari, kini sistem baru menyediakan 100 target," tulis Dr Marc Owen Jones dalam artikelnya berjudul "Fact or fiction? Israeli maps and AI do not save Palestinian lives" yang dilansir Al Jazeera 4 Desember 2023. .
Menurut salah satu sumber yang dikutip majalah +972, senjata ini telah mengubah tentara Israel menjadi “pabrik pembunuhan massal”, lebih fokus pada “kuantitas dan bukan kualitas”.
Majalah tersebut melaporkan bahwa tentara Israel yang menggunakan sistem penargetan AI mengetahui jumlah warga sipil yang akan mereka bunuh; itu ditampilkan dalam kategori "kerusakan tambahan" di file target.
Tentara Israel telah mengategorikan ambang batas kematian warga sipil, berkisar antara lima hingga ratusan. Perintah “collateral damage five”, misalnya, berarti tentara Israel diberi wewenang untuk membunuh target yang juga akan membunuh 5 warga sipil.
Dalam konteks yang lebih tinggi, “komando militer Israel dengan sadar menyetujui pembunuhan ratusan warga sipil Palestina dalam upaya membunuh seorang komandan militer Hamas”, majalah +972 melaporkan.
Para pejabat mengakui kepada media tersebut bahwa rumah anggota Hamas dan faksi bersenjata Palestina lainnya yang berpangkat lebih rendah sengaja dijadikan sasaran, bahkan jika itu berarti membunuh semua orang di dalam gedung tersebut.
Salah satu kasus menunjukkan intelijen tentara Israel menyetujui pembunuhan ratusan warga Palestina untuk membunuh satu anggota Hamas.
"Ini adalah pertama kalinya mereka berbicara tentang bagaimana warga sipil menjadi sasaran dalam skala besar hanya karena menyerang satu sasaran militer berdasarkan teknologi AI,” kata Anwar Mhajne, profesor ilmu politik di Stonehill College, Massachusetts, kepada Middle East Eye.
Mengingat bahwa Israel menganggap 30.000 anggota Hamas di Gaza sebagai target potensial, hal ini berarti bahwa “pemusnahan” gerakan tersebut akan mengakibatkan banyak korban jiwa warga sipil. "Jika kita menggunakan kerusakan tambahan lima terendah, perkiraan paling konservatif berjumlah 150.000 warga sipil," jelas Dr Marc Owen Jones yang Asisten Profesor Studi Timur Tengah dan Humaniora Digital di Universitas Hamad bin Khalifa ini.
Tentu saja, seiring dengan digantikannya para pemimpin Hamas yang terbunuh, menurut Dr Marc Owen Jones, ratusan warga Palestina lainnya akan terbunuh karena sistem AI menghasilkan lebih banyak target baru.
"Karena Hamas tidak dapat dikalahkan secara militer, satu-satunya hasil logis dari hal ini adalah pembunuhan terus-menerus atau pemindahan semua orang di Gaza," tambah Dr Marc Owen Jones.
Elemen lain yang mengganggu dari AI adalah ia mereproduksi bias yang telah dilatihnya. Secara historis, Israel kurang memperhatikan kehidupan warga sipil dalam pemboman yang dilakukannya. Kita harus bertanya-tanya sejauh mana AI yang penuh rahasia ini telah belajar mengasosiasikan warga Palestina dengan “teroris Hamas” berdasarkan perilaku tentara Israel di masa lalu. Hal ini mungkin menjelaskan mengapa mereka mampu menghasilkan begitu banyak “target” baru untuk pengeboman.
Propaganda Presisi
Dr Marc Owen Jones mengatakan Israel gemar menyombongkan moralitas dan kemampuan serangannya yang berteknologi tinggi dan presisi, yang ironisnya hanya sebagai cara untuk membela diri terhadap klaim penyerangan terhadap warga sipil tanpa pandang bulu dan tuduhan kejahatan perang.