Kanal

Robot Pembunuh, Senjata Perang Masa Depan

Pengembangan sistem senjata otonom yang mematikan sudah dimulai. Robot pembunuh ini bakal mengubah konflik di masa depan. Dalam lanskap geopolitik yang semakin terpecah, dapatkah komunitas internasional mencapai konsensus tentang mesin-mesin pembunuh ini?

Platform senjata ini dapat dapat mengidentifikasi, menargetkan, dan memutuskan untuk membunuh manusia tanpa perintah seseorang atau komandannya dengan cepat.  Secara resmi disebut dengan sistem senjata otonom mematikan atau Lethal Autonomous Weapon Systems (LAWS), tetapi kritikus menyebutnya robot pembunuh. Banyak negara, termasuk Amerika Serikat, China, Inggris, India, Iran, Israel, Korea Selatan, Rusia, dan Turki, telah banyak berinvestasi dalam pengembangan senjata semacam itu dalam beberapa tahun terakhir.

Sebuah laporan Perserikatan Bangsa-Bangsa (PBB) menunjukkan bahwa drone Kargu-2 buatan Turki dalam mode otomatis penuh menandai awal zaman baru ini ketika mereka menyerang pejuang di Libya pada tahun 2020 di tengah konflik yang sedang berlangsung di negara itu. Drone otonom juga memainkan peran penting dalam perang di Ukraina, di mana Moskow dan Kyiv telah mengerahkan senjata tanpa awak ini untuk menargetkan tentara dan infrastruktur musuh.

Kemunculan dan penyebaran mesin semacam itu mendorong perdebatan sengit di antara para ahli, aktivis, dan diplomat di seluruh dunia saat mereka bergulat dengan kemungkinan manfaat dan potensi risiko penggunaan robot, serta mempertimbangkan apakah dan bagaimana cara menghentikannya.

Namun dalam lanskap geopolitik yang semakin terpecah, dapatkah komunitas internasional mencapai konsensus tentang mesin-mesin pembunuh ini? Apakah ancaman etika, hukum, dan teknologi yang ditimbulkan oleh senjata semacam itu membuatnya penting untuk dihentikan sebelum mereka mengambil alih medan perang? Apakah larangan menyeluruh layak dilakukan, atau apakah serangkaian peraturan merupakan pilihan yang lebih realistis?

Al Jazeera mengajukan pertanyaan-pertanyaan ini kepada para ahli terkemuka di bidangnya. Jawaban singkatnya, larangan menyeluruh terhadap sistem senjata otonom sepertinya tidak akan terjadi dalam waktu dekat. Namun, semakin banyak suara – terutama dari Global South (negara berkembang) – menyerukan penolakan mereka dan para ahli percaya bahwa tabu global semacam itu yang melarang penggunaan senjata kimia adalah mungkin.

Pada akhir Maret, Yasmin Afina, rekan peneliti di Chatham House yang berbasis di London, menjelaskan kepada House of Lords, kamar kedua parlemen Inggris, bagaimana Badan Keamanan Nasional AS (NSA) pernah keliru mengidentifikasi seorang jurnalis Al Jazeera sebagai seorang kurir Al-Qaeda. Pelabelan itu – yang juga mengakibatkan jurnalis tersebut dimasukkan ke dalam daftar pantauan AS – baru terungkap melalui dokumen yang dibocorkan pada tahun 2013 oleh Edward Snowden, mantan kontraktor NSA.

Sistem pengawasan semacam itu di balik insiden itu sendiri bukanlah “sistem senjata, tetapi memungkinkan untuk mematikan,” kata Afina dalam pernyataannya. “Jika Anda melibatkan target, jurnalis, itu benar-benar bertentangan dengan pertimbangan hukum humaniter internasional.”

Itu tidak berarti para peneliti harus berhenti mengembangkan teknologi di balik sistem senjata otomatis, kata Toby Walsh, pakar AI di University of New South Wales di Sydney, Australia, kepada Al Jazeera. Teknologi itu, kata dia, bisa membawa manfaat di bidang lain. Misalnya, algoritme yang sama yang digunakan dalam sistem keselamatan mobil yang menghindari tabrakan dengan pejalan kaki.

Keuntungan dan risiko

Yang pasti, sistem senjata otonom yang digerakkan oleh Artificial Intelligence (AI) memiliki manfaat dari perspektif militer. Mereka dapat melakukan beberapa tugas medan perang tanpa menggunakan tentara sehingga mengurangi risiko jatuhnya korban. Pendukung senjata ini berpendapat bahwa teknologi canggih yang tertanam dalam sistem ini dapat menghilangkan atau mengurangi kesalahan manusia dalam pengambilan keputusan dan menghilangkan bias. Keakuratan yang lebih besar dalam penargetan, setidaknya secara teori, dapat mengurangi korban manusia yang tidak disengaja.

Sistem senjata otonom juga dapat digunakan untuk kemampuan pertahanan, dengan algoritme deteksi secepat kilat yang mampu mendeteksi dan menghilangkan potensi ancaman dengan efisiensi dan akurasi yang lebih tinggi daripada manusia.

Namun bagi banyak ahli dan kelompok hak asasi, risiko LAWS ini lebih besar daripada potensi keuntungannya. Mulai dari kemungkinan kegagalan fungsi teknis tanpa pengawasan hingga pelanggaran hukum internasional dan kekhawatiran etis atas mesin tanpa emosi yang membuat keputusan hidup dan mati. Inti dari semua kekhawatiran itu adalah pertanyaan tentang akuntabilitas.

Pada tahun 2019, 126 negara pihak Konvensi Perserikatan Bangsa-Bangsa tentang Senjata Konvensional Tertentu (CCW) menyetujui 11 prinsip panduan yang direkomendasikan oleh sekelompok ahli yang ditunjuk oleh PBB untuk mengatasi kekhawatiran tentang senjata otonom.

Di antara prinsip-prinsip tersebut adalah keputusan bahwa hukum humaniter internasional akan sepenuhnya diterapkan pada potensi pengembangan senjata semacam itu. Namun para ahli mengatakan tidak jelas bagaimana prinsip itu akan diterapkan dalam situasi perang.

Jika robot melakukan kejahatan perang, misalnya, apakah komandan yang bertanggung jawab atas teater konflik yang akan dianggap bertanggung jawab? Atau akankah tanggung jawab berhenti pada atasan yang memutuskan untuk menggunakan mesin sejak awal? Apakah produsen senjata akan bertanggung jawab?

Regulasi politik atau hukum?

Ada perdebatan yang lebih mendasar di antara negara-negara tentang bagaimana mendekati pertanyaan tentang senjata otonom: Haruskah dunia mencari seperangkat aturan yang mengikat secara hukum atau hanya deklarasi niat politik?

Deklarasi politik dapat mengambil banyak bentuk tetapi kemungkinan besar akan mencakup pernyataan publik di mana negara-negara besar akan menyatakan posisi bersama mereka tentang subjek tersebut dan berjanji untuk mematuhi poin-poin prinsip yang tercantum dalam dokumen tersebut. Ini bisa terlihat seperti pernyataan bersama yang dikeluarkan oleh China, Rusia, Inggris, AS, dan Prancis tentang pencegahan perang nuklir dan menghindari perlombaan senjata yang ditandatangani pada Januari 2022.

Peneliti Stockholm International Peace Research Institute (SIPRI) Vincent Boulanin dan Marta Bo dalam sebuah artikel mengatakan negara-negara memiliki pandangan yang sangat berbeda tentang hal ini. Rusia telah ‘sangat terbuka’ tentang keberatannya terhadap instrumen yang mengikat secara hukum; Inggris dan AS juga kritis, melihatnya sebagai ‘prematur’ dan mencari deklarasi politik sebagai langkah pertama, katanya. Beberapa lainnya, seperti China dan India, lebih ambigu.

China telah mendukung larangan penggunaan senjata yang sepenuhnya otonom tetapi tidak pada pengembangannya. Industri senjata dalam negeri China terus maju dengan pengembangan teknologi semacam itu, termasuk drone Blowfish A2, yang dapat terbang dalam kawanan dan menyerang target secara mandiri. Proyek 912 yang diklasifikasikan juga bertujuan untuk mengembangkan robot bawah air selama beberapa tahun ke depan.

India, sementara itu, telah menyatakan keprihatinan tentang perlombaan baru untuk mesin semacam itu yang memperluas jurang teknologi antarnegara, dan tentang proliferasi robot pembunuh termasuk aktor non-negara. Tetapi secara bersamaan negara ini mengembangkan sistem senjata otonomnya sendiri.

Sulit untuk mengukur secara pasti berapa banyak sumber daya yang militer berikan untuk mengembangkan LAWS, tetapi laporan Amnesti Internasional tahun 2021 menyatakan bahwa beberapa kekuatan militer besar ‘berinvestasi besar-besaran dalam pengembangan sistem otonom’.

Inggris, katanya, sedang mengembangkan drone otonom tanpa awak yang dapat mengidentifikasi target di dalam area yang deprogram. Sementara Rusia telah membangun tank robot yang dapat dilengkapi dengan senapan mesin atau peluncur granat. Fungsi otonom juga dapat ditambahkan ke teknologi yang sudah ada atau yang sedang berkembang, seperti rudal berkeliaran Switchblade 600 buatan AS.

Konferensi tentang senjata otonom

Pada bulan Februari, pemerintah Kosta Rika, bersama dengan organisasi nonpemerintah lokal FUNPADEM menyelenggarakan konferensi regional yang dihadiri perwakilan dari hampir setiap negara di Amerika Latin dan Karibia. Konferensi Belén Communiqué yang diadopsi lebih dari 30 negara, menyoroti bahaya sistem senjata otonom dan menyerukan masyarakat internasional untuk menanggapinya dengan mengembangkan dan memperkuat kerangka hukum internasional.

“Ini adalah posisi nasional kami berdasarkan pandangan budaya tentang perdamaian,” kata Bradon Mata Aguilar, seorang teknisi proyek di FUNPADEM, kepada Al Jazeera. Aguilar menjelaskan bahwa tentara Kosta Rika dihapuskan pada tahun 1948, dan tetap menjadi salah satu negara paling stabil di kawasan itu. Fakta ini menciptakan perbedaan besar antara bagaimana negara bagian lain dan Kosta Rika melihat penerapan instrumen yang mengikat secara hukum ini.

Kosta Rika, katanya, sedang mengupayakan pelarangan total senjata otonom penuh dan peraturan yang diterapkan untuk mengontrol penggunaan dan pengembangan senjata semi-otonom. Kelompok-kelompok seperti kampanye Stop Killer Robots, koalisi organisasi non-pemerintah yang berupaya untuk melarang LAWS terlebih dahulu, dan Komite Palang Merah Internasional (ICRC) juga memiliki kehadiran yang kuat di konferensi di Kosta Rika.

Kemudian, pada 25 Maret, di KTT Ibero-Amerika di Republik Dominika, 22 kepala negara berbahasa Spanyol dan Portugis mengeluarkan pernyataan bersama menyerukan ‘negosiasi instrumen internasional yang mengikat secara hukum, dengan larangan dan peraturan tentang otonomi dalam sistem persenjataan’.

Sentimen itu bergema dua hari kemudian ketika negara-negara anggota pengelompokan Sistem Integrasi Amerika Tengah, termasuk Belize, Kosta Rika, El Salvador, Guatemala, Honduras, Nikaragua, dan Panama, mengadopsi pernyataan serupa yang menyerukan negosiasi mendesak. Beberapa negara di Afrika dan Timur Tengah – di antaranya Aljazair, Namibia, Ghana, Uganda, Zimbabwe, Maroko, Mesir, Yordania, Irak, dan Palestina – telah menyerukan larangan penuh atas sistem senjata yang sepenuhnya otonom selama dekade terakhir.

Yang menimbulkan pertanyaan adalah di tengah meningkatnya ketegangan geopolitik, banyak negara khawatir tentang apakah mereka dapat percaya pada apa yang secara resmi dinyatakan oleh saingannya. Banyak negara khawatir jika mereka menyepakati kerangka peraturan tentang senjata robot otonom ini tapi musuh mereka tidak bermain sesuai aturan dan malah mengembangkan LAWS. Ini akan menempatkan mereka pada kerugian strategis.

Back to top button