https://frosthead.com

Bolehkah Robot Killer Belajar Ikut Peraturan Perang?

Sebagai Hari Peringatan mengingatkan kita setiap tahun, perang tidak hilang.

Tetapi ia berubah. Dan satu lagi peralihan yang lebih mendalam akan kita lihat pada tahun-tahun akan datang adalah untuk ketenteraan yang semakin bergantung kepada robot. Drone mendapat perhatian yang paling sekarang, tetapi semakin banyak inovasi Jabatan Pertahanan adalah jenis lain mesin tanpa pemandu, dari pesawat eksperimen ke tentera darat.

Sangat mudah untuk memahami daya tarikan. Menggunakan robot berpotensi lebih efisien, lebih tepat dan lebih murah daripada hanya mengandalkan manusia dalam peperangan. Dan tentunya, tentu saja, bermakna lebih sedikit lagi kecederaan manusia.

Tetapi transformasi ini membawa ia satu cabaran yang kompleks: Bolehkah mesin ketenteraan diprogramkan untuk membuat keputusan? Yang membawa kepada soalan lengkung: Bolehkah robot belajar moralitas?

Pejabat Angkatan Tentera Laut Amerika Syarikat berfikir sekarang adalah masa untuk mengetahui. Awal bulan ini, ia mengumumkan geran lima tahun, $ 7.5 juta untuk membiayai penyelidikan di universiti Tufts, Brown, Yale dan Georgetown serta Institut Politeknik Rensselaer (RPI) mengenai sama ada mesin boleh satu hari dapat memilih dari salah.

Tentera Laut mahu mengelakkan keadaan kereta tanpa pemandu Google kini menghadapi: mempunyai teknologi yang dikeluarkan jauh lebih awal daripada kejelasan mengenai isu-isu undang-undang dan etika yang ditimbulkannya. Sebelum robot berautonomi pergi ke padang, tentera mahu mengetahui sama ada mereka benar-benar boleh belajar untuk melakukan perkara yang betul.

Sebagai Selmer Bringsjord, ketua Jabatan Sains Kognitif RPI melihatnya, kecerdasan buatan robot dapat direka untuk berfungsi pada dua tahap moral. Yang pertama adalah berdasarkan senarai semak pilihan etika yang jelas, seperti "jika anda datang kepada seorang askar yang terluka, anda harus membantunya." Tetapi bagaimana jika tindakan ini bertentangan dengan misi utamanya, seperti pemberian amunisi yang sangat diperlukan oleh askar lain? Pada ketika itu, kata Bringsjord, robot itu perlu mempunyai keupayaan untuk terlibat dalam "pemikiran moral yang lebih mendalam" untuk membuat keputusan dalam situasi yang mungkin tidak dapat dijangka oleh pengaturcara.

Penyelidik perlu membangunkan algoritma unik dan mekanisme pengiraan yang boleh diintegrasikan ke dalam seni bina robot autonomi yang sedia ada, "proses pemikiran" yang membolehkan mesin untuk menindih tingkah laku yang dirancang berdasarkan keupayaannya untuk menerapkan pemikiran moral.

Jika ini seolah-olah bercita-cita tinggi, baiklah. Untuk memulakan, para penyelidik perlu mengasingkan unsur-unsur asas moral manusia-di mana prinsip-prinsip yang kita semua setuju? -Dan kemudian mencari cara untuk memasukkannya ke dalam algoritma yang akan memberi robot beberapa tahap kecekapan moral.

Itu bukan usaha kecil. Atas sebab itu, kemungkinan mesin yang tidak dikendalikan oleh manusia akan, pada masa hadapan, terhad kepada peranan tidak memerangi, seperti pengawasan, keselamatan, pencarian dan penyelamatan atau rawatan perubatan. Tetapi tidak dapat dielakkan, perancang tentera akan menginginkan jawapan kepada persoalan yang tergantung pada semua ini: Sekiranya robot, bertindak sendiri, akan dibenarkan untuk membunuh manusia?

Sekiranya mesin adalah 90 peratus pasti bahawa semua orang di dalam kenderaan yang hendak ditembak adalah pengganas, adakah itu pasti? Adakah robot dapat menembak senjata pada seorang kanak-kanak jika ia menentukan ia adalah musuh? Sekiranya ada masalah dan robot autonomi tersilap meniup sebuah kampung, siapa yang bertanggungjawab? Komander yang mengarahkan operasi itu? Orang yang memprogram robot itu? Atau tiada siapa?

Sekiranya anda fikir ini masih menjadi bahan fiksyen sains, pertimbangkan bahawa pada awal bulan ini, para pakar mengenai subjek yang terdiri daripada kecerdasan buatan kepada hak asasi manusia terhadap undang-undang antarabangsa ditimbang dengan "robot pembunuh" di persidangan Pertubuhan Bangsa-Bangsa Bersatu di Geneva. Kumpulan seperti Human Rights Watch dan pegawai dari beberapa negara, termasuk Pakistan, Mesir, Cuba dan Vatikan, menyeru larangan secara langsung terhadap robot dengan kuasa untuk membunuh. Tetapi kebanyakan negara, khususnya yang mempunyai robot yang paling maju, tidak bersedia untuk pergi sejauh ini.

Lihatlah, contohnya, di WildCat, robot berkaki empat dikembangkan untuk berjalan pada kelajuan tinggi pada semua jenis rupa bumi.

Buat masa ini, tentera AS mengikuti arahan Jabatan Pertahanan 2012 bahawa tiada mesin dengan kuasa untuk membunuh boleh menjadi autonomi sepenuhnya. Manusia harus, secara literal, memanggil tembakan. Tetapi itu mungkin tidak benar tentang semua tempat: Pada bulan Mac, New Scientist memetik seorang pegawai Rusia mengatakan bahawa robot penjaga di lima pemasangan peluru berpandu balistik akan dapat mengesan dan memusnahkan sasaran tanpa manusia yang memberi arah.

The Foster-Miller Talon, dilihat di bawah, adalah salah satu daripada banyak mesin di seluruh dunia yang dibangunkan untuk pertempuran.

Peraturan Perang

Laporan mengenai konvensyen robot pembunuh akan dibentangkan kepada jawatankuasa Senjata Senjata Tertentu PBB pada bulan November. Tetapi ia tidak kelihatan bahawa larangan akan datang pada bila-bila masa tidak lama lagi.

Antara yang menyertai perbincangan di Geneva ialah Ronald Arkin, pakar kecerdasan buatan dari Georgia Tech, yang telah lama menjadi penyokong untuk memberikan mesin keupayaan untuk membuat keputusan moral. Beliau percaya bahawa jika robot boleh belajar mengikuti undang-undang antarabangsa, mereka sebenarnya boleh bertindak lebih beretika daripada manusia dalam peperangan kerana mereka akan tetap konsisten. Mereka tidak akan dapat bertindak balas dengan kemarahan atau dengan panik atau prasangka. Oleh itu Arkin menentang larangan, walaupun dia terbuka kepada moratorium senjata autonomi sehingga mesin diberi peluang untuk melihat apakah mereka dapat menguasai peraturan perang.

Seorang lagi saintis AI, Noel Sharkey, yang membahaskan Arkin di Geneva, adalah fikiran yang sangat berbeza. Dia tidak fikir robot harus diberi kuasa untuk membuat keputusan hidup atau mati.

Baru-baru ini dia memberitahu Pertahanan Satu : "Saya tidak fikir mereka akan berakhir dengan robot moral atau etika. Untuk itu kita perlu mempunyai agensi moral. Untuk itu kita perlu memahami orang lain dan tahu apa yang dimaksudkan untuk menderita. "

"Robot boleh dipasang dengan beberapa peraturan etika, tetapi ia tidak benar-benar peduli, " katanya.

Bolehkah Robot Killer Belajar Ikut Peraturan Perang?