Ribuan Peneliti AI Terkemuka Tandatangani Ikrar Menentang Robot Pembunuh - Radar Militer

22 Juli 2018

Ribuan Peneliti AI Terkemuka Tandatangani Ikrar Menentang Robot Pembunuh

Robot AI
Robot AI 

Ribuan ilmuwan yang mengkhususkan diri dalam kecerdasan buatan (artificial intelligence - AI) telah menyatakan bahwa mereka tidak akan berpartisipasi dalam pengembangan atau pembuatan robot yang dapat mengidentifikasi dan menyerang orang tanpa pengawasan manusia.
Demis Hassabis dari Google DeepMind dan Elon Musk dari perusahaan roket AS, SpaceX, adalah diantara lebih dari 2.400 penandatangan ikrar yang bermaksud untuk menghalangi perusahaan-perusahaan militer dan negara-negara dari membangun sistem senjata otonom yang mematikan (lethal autonomous weapon system), atau yang juga dikenal sebagai LAWS. LAWS adalah jenis robot militer yang otonom yang dapat secara independen mencari, menentukan dan menyerang sasarannya berdasarkan batasan (constraint) atau deskripsi yang diprogramkan.
Langkah ini adalah langkah terbaru dari para ilmuwan dan organisasi yang peduli untuk menyoroti bahayanya menyerahkan keputusan hidup dan mati kepada mesin yang dibekali dengan AI. Ini menyusul panggilan untuk larangan preemptive terhadap teknologi yang dipercayai oleh para penentangnya, dapat mengantarkan menuju generasi baru senjata pemusnah massal.
Diprakarsai oleh organisasi yang berbasis di Boston, The Future of Life Institute, ikrar tersebut menyerukan kepada pemerintah untuk menyetujui norma, hukum dan peraturan yang menstigmatisasi dan secara efektif melarang pengembangan robot pembunuh. Dengan tidak adanya tindakan seperti itu hari ini, para penandatangan berjanji untuk "tidak berpartisipasi dalam atau mendukung pengembangan, pembuatan, perdagangan, atau penggunaan senjata otonom yang mematikan." Lebih dari 150 perusahaan dan organisasi terkait AI menambahkan nama mereka ke ikrar tersebut yang diumumkan hari Rabu (18/07) pada Konferensi Bersama Internasional tentang AI di Stockholm.
Yoshua Bengio, seorang perintis AI di Institut Montreal untuk Algoritma Pembelajaran, mengatakan kepada Guardian bahwa jika ikrar tersebut dapat mempermalukan perusahaan-perusahaan dan organisasi militer yang membangun senjata otonom, opini publik akan berbalik melawan mereka. “Pendekatan seperti ini telah benar-benar bekerja untuk kasus ranjau darat, berkat perjanjian internasional dan public shaming, meskipun negara-negara besar seperti AS tidak menandatangani perjanjian yang melarang ranjau darat . Perusahaan-perusahaan Amerika telah berhenti membuat ranjau darat,” katanya. Bengio menandatangani janji untuk menyuarakan "perhatian yang kuat sehubungan dengan senjata otonom mematikan." Negara-negara lain yang belum menandatangani perjanjian anti ranjau darat adalah antara lain: Tiongkok, Rusia, India, Arab Saudi, Mesir, Iran, Israel, Suriah, Korea Selatan, Korea Utara, Pakistan, Singapura, Vietnam.
Militer adalah salah satu penyandang dana dan pengadopsi teknologi AI terbesar. Dengan sistem komputer canggih, robot dapat menerbangkan misi di atas medan yang tidak bersahabat, bernavigasi di darat, dan berpatroli di bawah lautan. Sistem senjata yang lebih canggih masih akan bermunculan. Pada hari Senin lalu (16/07), Menteri Pertahanan Inggris Gavin Williamson meluncurkan rencana senilai 2 milyar poundsterling untuk pesawat tempur RAF baru, Tempest, yang akan dapat terbang tanpa adanya pilot.
Para menteri Inggris telah menyatakan bahwa Inggris tidak mengembangkan sistem senjata otonom yang mematikan dan bahwa pasukannya akan selalu mengawasi dan mengendalikan senjata yang dikerahkannya. Namun para penentang memperingatkan bahwa kemajuan yang cepat dalam AI dan bidang lainnya, berarti sekarang dimungkinkan untuk membangun senjata canggih yang dapat mengidentifikasi, melacak dan menembak pada sasaran manusia tanpa persetujuan dari pengendali manusia. Bagi banyak peneliti, menyerahkan kepada mesin keputusan atas siapa yang hidup dan mati adalah hal yang melampaui garis moral.
“Kita perlu menjadikannya sebagi norma internasional bahwa senjata otonom adalah sesuatu yang tidak dapat diterima. Manusia harus selalu berada dalam batasan-batasan,” kata Toby Walsh, seorang profesor AI di Universitas New South Wales di Sydney yang menandatangani ikrar.
"Kami tidak bisa menghentikan orang yang berniat membangun senjata otonom, sama seperti kita tidak bisa menghentikan orang yang berniat untuk membangun senjata kimia," tambahnya. "Tetapi jika kita tidak ingin negara-negara atau teroris memiliki akses yang mudah ke senjata otonom, kita harus memastikan bahwa mereka tidak dijual secara terbuka oleh perusahaan senjata."
Para peneliti dapat memilih untuk tidak mengerjakan senjata otonom, tetapi apa yang dilakukan orang lain dengan hasil penelitian para peneliti yang dipublikasikan, secara efektif berada di luar kendali mereka. Lucy Suchman, profesor antropologi sains dan teknologi di Lancaster University yang juga menjadi penandatangan, mengatakan bahwa meskipun para peneliti tidak dapat sepenuhnya mengontrol bagaimana pekerjaan mereka akan digunakan, mereka dapat terlibat dan campur tangan apabila mereka memiliki kepedulian.
“Jika saya adalah seorang peneliti mesin yang telah menandatangani ikrar, saya akan, pertama, berkomitmen untuk melacak penggunaan teknologi saya selanjutnya dan berbicara untuk menentang penerapannya untuk mengotomatisasi pengenalan sasaran dan, kedua, menolak untuk berpartisipasi baik dalam memberi saran atau secara langsung membantu untuk menggabungkan teknologi ke dalam sistem senjata otonom,” katanya. (Angga Saja - TSM)

Bagikan artikel ini

Silakan tulis komentar Anda

- Berkomentarlah yang sopan dan bijak sesuai isi artikel/ berita;
- Dilarang berkomentar SPAM, SARA, Politik, Provokasi dsb

:)
:(
hihi
:-)
:D
=D
:-d
;(
;-(
@-)
:P
:o
:>)
(o)
:p
(p)
:-s
(m)
8-)
:-t
:-b
b-(
:-#
=p~
x-)
(k)