Melawan Robot: Dilarang Tidak Bisa Diizinkan

Daftar Isi:

Melawan Robot: Dilarang Tidak Bisa Diizinkan
Melawan Robot: Dilarang Tidak Bisa Diizinkan

Video: Melawan Robot: Dilarang Tidak Bisa Diizinkan

Video: Melawan Robot: Dilarang Tidak Bisa Diizinkan
Video: Kartun Anak | Vir: The Robot Boy Bahasa Indonesia | Suara Vir | WowKidz Indonesia 2024, Mungkin
Anonim

Para ahli bertemu di Jenewa, tetapi tidak ada kesepakatan yang dapat dicapai: Amerika Serikat dan Rusia memblokir semua pekerjaan. Mungkin ini adalah satu-satunya waktu ketika hegemoni bekerja begitu harmonis.

Melawan robot: dilarang tidak bisa diizinkan
Melawan robot: dilarang tidak bisa diizinkan

Pertemuan para ahli dalam format Konvensi Senjata Tidak Manusiawi berakhir di Jenewa untuk memutuskan nasib apa yang disebut robot tempur - senjata otonom yang menggunakan kecerdasan buatan untuk mengalahkan target. Namun, tidak ada kesepakatan yang bisa dicapai. Amerika Serikat, Rusia, Korea Selatan, Israel, dan Australia termasuk di antara negara-negara minoritas yang berhasil memblokir sentimen terhadap larangan total robot pembunuh.

Jadi, meskipun masih belum ada senjata otonom yang berfungsi di dunia, teknologinya tetap manusiawi - dapat dikembangkan dan diteliti. Menariknya, Amerika Serikat dan Rusia, menurut Institut Penelitian Perdamaian Stockholm (SIPRI), berada di puncak daftar pengekspor senjata terbesar. Korea Selatan, Israel dan Australia juga tidak ketinggalan dalam peringkat ini - mereka termasuk di antara 20 pemain pasar teratas.

Dan meskipun China (pengekspor senjata kelima di dunia, anggota tetap Dewan Keamanan PBB menganjurkan larangan robot tempur, China tidak berhasil mengubah skala ke arahnya selama pertemuan. Hari ini, 26 negara secara terbuka mendukung larangan penggunaan kecerdasan buatan dalam perang. Lainnya menghindar dari posisi yang jelas) Prancis dan Jerman (eksportir senjata ketiga dan keempat) menawarkan untuk menandatangani dokumen yang akan mengkonsolidasikan keunggulan manusia atas kecerdasan buatan, tetapi mereka lebih mungkin di pihak mereka yang ingin mengembangkan kendaraan tempur otonom.

“Sungguh mengecewakan bahwa sekelompok kecil raksasa militer dapat menahan keinginan mayoritas,” komentar Mary Verhem, koordinator Kampanye untuk Menghentikan Robot Pembunuh, tentang hasil pertemuan Jenewa.

Memang, situasinya tampak seperti konspirasi taipan monopoli bersenjata, mengingat Amerika Serikat dan Rusia biasanya tidak dapat mencapai setidaknya semacam kompromi pada isu-isu penting. Ambil contoh Suriah: Washington dan Moskow saling memblokir resolusi masing-masing setelah menggunakan senjata kimia di Suriah musim semi ini. Omong-omong, gas yang membuat sesak napas dan zat beracun lainnya untuk keperluan militer, sebelumnya dilarang oleh Konvensi Senjata Tidak Manusiawi.

Pertemuan berikutnya tentang nasib robot pembunuh akan berlangsung di Jenewa pada bulan November.

Mengapa mereka ingin melarang senjata otonom

Pendukung larangan perang robot bersikeras bahwa medan perang bukanlah tempat untuk kecerdasan buatan. Menurut mereka, teknologi semacam itu merupakan ancaman besar. Setidaknya, saat ini tidak jelas bagaimana mesin akan membedakan antara kombatan (mereka yang terlibat langsung dalam permusuhan) dari non-kombatan (petugas militer yang hanya bisa menggunakan senjata untuk membela diri) dan warga sipil pada umumnya. Ada kemungkinan bahwa pekerjaan itu akan membunuh yang terluka dan mereka yang menyerah, yang dilarang oleh aturan perang saat ini.

Apa yang mencegah pekerjaan mengganggu semua pihak yang berkonflik, bahkan pemilik senjata semacam itu? Elemen kecerdasan buatan sudah berhasil digunakan dalam peralatan militer, rudal; robot tertarik untuk pengintaian, tetapi kata terakhir masih ada pada manusia. Senjata otonom tidak akan mematuhi perintah komandan - itulah sebabnya mereka otonom. Itulah sebabnya para jenderal militer dari berbagai negara skeptis tentang pengenalan mesin ke dalam jajaran personel.

Dan satu lagi pertanyaan terbuka adalah terorisme internasional. Teknologi senjata otonom bisa jatuh ke tangan yang salah, dan akhirnya bisa diretas. Setahun yang lalu, Presiden Rusia Vladimir Putin mengatakan bahwa penguasa dunia akan menjadi orang yang akan menjadi pemimpin dalam pengembangan kecerdasan buatan. Dalam kasus senjata otonom, orang yang memperoleh akses ke teknologi semacam itu akan menjadi penguasa dunia. Dan untuk ini, sebenarnya, Anda hanya membutuhkan komputer dan dodger yang akan melewati sistem keamanan. Pentagon, omong-omong, telah diretas lebih dari sekali. Akibatnya, tidak ada yang bisa memberikan jaminan bahwa senjata otonom akan tetap tidak dapat diganggu gugat.

Juga tidak jelas siapa yang akan bertanggung jawab secara hukum jika kejahatan perang dilakukan sebagai akibat dari berfungsinya sistem senjata otonom. “Insinyur, pemrogram, pabrikan, atau komandan yang menggunakan senjata itu? Jika tanggung jawab tidak dapat didefinisikan seperti yang disyaratkan oleh hukum humaniter internasional, dapatkah penyebaran sistem semacam itu diakui secara hukum atau dibenarkan secara etis?”Catatan Komite Palang Merah Internasional.

Menariknya, para ilmuwan juga menganjurkan larangan robot tempur. Pada bulan Juli tahun ini, lebih dari dua ribu ilmuwan, khususnya pencipta Tesla dan SpaceX Elon Musk dan salah satu pendiri DeepMind, menandatangani dokumen bahwa mereka tidak akan mengembangkan senjata otonom yang mematikan. Google melakukan hal yang sama. Raksasa teknologi itu telah berhenti mengerjakan proyek Maven Pentagon. Dan pada 2017, sejumlah ilmuwan telah meminta PBB untuk melarang pembuatan robot pembunuh.

Omong-omong, masalah kecerdasan buatan dalam perang muncul dalam agenda Perserikatan Bangsa-Bangsa pada akhir 2013, tetapi praktis tidak ada yang berubah sejak itu. Baru tahun ini, pertemuan pakar dimulai dalam format Konvensi Senjata Tidak Manusiawi. Artinya, butuh lebih dari empat tahun untuk sampai pada bidang yang kurang lebih praktis.

Mengapa mereka tidak ingin melarang senjata otonom

Tidak peduli seberapa basi kedengarannya, perlombaan senjata adalah alasan utama mengapa mereka tidak ingin melarang robot pembunuh. Putin benar: siapa pun yang mendapatkan senjata otonom terlebih dahulu akan mendominasi dunia. Secara resmi, alasan ini disuarakan.

Argumen utama penentang larangan tersebut adalah ketidakmungkinan memisahkan kecerdasan buatan sipil dari militer. Seperti, kami tidak akan melarang pisau dapur hanya karena teroris dapat menggunakannya. Memang, hampir tidak mungkin untuk memisahkan pengembangan kecerdasan buatan sipil dari militer. Tapi sekarang kita berbicara tentang larangan senjata ini, yang akan dapat secara mandiri menentukan dan menyerang target. Ini bisa jadi proyek Maven, yang sedang dikerjakan oleh Departemen Pertahanan AS bersama dengan Booz Allen Hamilton (Google menolak kontraknya).

Pengembang Maven ingin mengajari drone untuk menganalisis gambar, khususnya dari satelit dan - berpotensi - mengidentifikasi target serangan. Pentagon mulai mengerjakan proyek tersebut pada April 2017 dan berharap untuk mendapatkan algoritme kerja pertama pada akhir tahun. Namun karena demarche karyawan Google, pengembangannya tertunda. Pada Juni tahun ini, menurut Gizmodo, sistem dapat membedakan antara objek dasar - mobil, orang, tetapi ternyata sama sekali tidak signifikan dalam situasi sulit. Jika larangan senjata otonom tetap diadopsi di tingkat PBB, proyek tersebut harus dibatalkan, sementara Pentagon mengklaim bahwa pengembangannya dapat menyelamatkan nyawa, karena dapat diprogram untuk bekerja lebih akurat dan andal jika dibandingkan dengan manusia.

"Anda perlu memahami bahwa kita berbicara tentang teknologi, bahwa itu tidak memiliki sampel yang akan berfungsi. Ide sistem seperti itu masih sangat dangkal," kata Kementerian Luar Negeri Rusia di Jenewa. - Menurut pendapat kami, hukum internasional, khususnya, sektor kemanusiaan, dapat diterapkan pada senjata otonom. Mereka tidak membutuhkan modernisasi atau adaptasi terhadap sistem yang belum ada.”

Nah, dan satu lagi alasan yang nyata, tetapi tidak disuarakan, adalah uang. Saat ini, pasar untuk teknologi kecerdasan buatan militer diperkirakan lebih dari enam miliar dolar. Tetapi pada tahun 2025 jumlahnya akan tiga kali lipat - menjadi hampir 19 miliar, menurut analis dari perusahaan Amerika MarketsandMarkets. Untuk pengekspor senjata terbesar, ini adalah motivasi yang baik untuk memblokir segala pembatasan pada pengembangan robot pembunuh.

Kemajuan tidak dapat dihentikan

Pendukung larangan senjata otonom mencatat bahwa teknologi berkembang sangat cepat dan kecerdasan buatan pada akhirnya akan menjadi senjata - masalah waktu. Ada logika dalam kata-kata mereka. Kecerdasan buatan merupakan bagian integral dari revolusi ilmiah dan teknologi keempat, yang berlanjut hingga sekarang. Harus diingat bahwa kemajuan teknis dalam satu atau lain cara terkait dengan operasi militer. Revolusi ilmiah dan teknologi ketiga berlangsung hingga pertengahan 50-an abad XX, yaitu, puncaknya jatuh pada periode Perang Dunia Kedua.

Pada tahun 1949, Jenewa mengadopsi Konvensi untuk Perlindungan Orang Sipil di Masa Perang. Pada periode pasca-perang, mereka juga melengkapi Konvensi Den Haag IV tahun 1907, yang menentukan aturan-aturan untuk perilaku perang. Artinya, kengerian Perang Dunia II menjadi katalisator proses ini. Jadi, pembela hak asasi manusia tidak ingin menunggu Perang Dunia Ketiga untuk melindungi umat manusia dari senjata otonom. Itulah mengapa menentukan nasib robot pembunuh diperlukan sekarang, desak mereka.

Menurut para ahli Human Rights Watch, penggunaan robot tempur bertentangan dengan Deklarasi Martens - pembukaan Konvensi Den Haag 1899 tentang Hukum dan Kebiasaan Perang. Dengan kata lain, robot pembunuh melanggar hukum kemanusiaan dan persyaratan kesadaran publik (posisi itu dikonfirmasi dalam Konvensi Den Haag IV).

“Kita harus bekerja sama untuk memberlakukan larangan pencegahan pada sistem senjata semacam itu sebelum menyebar ke seluruh dunia,” kata Bonnie Doherty, peneliti senior di departemen senjata di Human Rights Watch.

Yah, kali ini tidak berhasil melarang robot pembunuh. Bisa ditebak, pertemuan di bulan November juga tidak akan membuahkan hasil. Benar, hampir semua negara setuju - teknologi tidak dapat dibiarkan mengalir dengan gravitasi dan robot tempur membutuhkan derek penghenti seperti itu. Tetapi masih belum jelas apakah umat manusia akan punya waktu untuk menariknya ketika dibutuhkan.

Direkomendasikan: