https://frosthead.com

Bolehkah Mesin Belajar Moral?

Apabila John Brennan, pilihan Presiden Obama menjadi ketua CIA yang akan datang, muncul di hadapan jawatankuasa Senat semalam, satu soalan menggantikan semua orang lain di pendengaran pengesahannya:

Bagaimana keputusan dibuat untuk menghantar drone pembunuh selepas disyaki pengganas?

Bagaimana dan untuk itu, kenapa untuk memerintahkan serangan drone tertentu masih sebahagian besarnya misteri, tetapi sekurang-kurangnya satu perkara yang jelas-keputusan dibuat oleh manusia yang, yang diharapkan akan bergelut dengan pemikiran untuk menghantar peluru berpandu maut ke dalam bangunan yang diduduki.

Tetapi bagaimana jika manusia tidak terlibat? Bagaimana jika satu hari keputusan hidup atau mati ditinggalkan oleh mesin yang dilengkapi dengan banyak data, tetapi juga rasa benar dan salah?

Kebencian moral

Itu tidak begitu diambil. Ia tidak akan berlaku pada bila-bila masa tidak lama lagi, tetapi tidak ada persoalan bahawa mesin menjadi lebih pintar dan lebih autonomi, sebahagian besar daripada transformasi mereka akan menjadi keupayaan untuk belajar moralitas.

Malah, itu mungkin tidak begitu jauh. Gary Marcus, yang menulis baru-baru ini di The New Yorker, membentangkan senario salah satu kereta pengemudi Google sebelum terpaksa membuat keputusan yang kedua-dua: "Kereta anda memandu di sepanjang jambatan di 50 batu per jam ketika bas sekolah yang menyala membawa 40 kanak-kanak yang tidak bersalah melintasi laluannya. Sekiranya kereta anda beralih, mungkin mempertaruhkan nyawa pemiliknya (anda), untuk menyelamatkan kanak-kanak, atau teruskan, meletakkan semua 40 kanak-kanak berisiko? Sekiranya keputusan mesti dilakukan dalam milisaat, komputer perlu membuat panggilan. "

Dan bagaimana dengan senjata atau tentera robot? Adakah drone dapat belajar untuk tidak membakar sebuah rumah jika ia tahu orang awam yang tidak bersalah juga berada di dalamnya? Bolehkah mesin diajar untuk mengikuti peraturan antarabangsa peperangan?

Ronald Arkin, seorang profesor sains komputer dan pakar robotik di Georgia Tech, sudah tentu berpendapat demikian. Dia telah membangunkan perisian, yang disebut sebagai "gabenor etika", yang akan membuat mesin mampu menentukan bila sesuai untuk api dan ketika itu tidak.

Arkin mengakui bahawa ini masih boleh berabad-abad lamanya, tetapi dia percaya bahawa robot mungkin suatu hari menjadi baik secara fizikal dan etika berbanding tentera manusia, tidak terdedah kepada trauma emosi pertempuran atau keinginan untuk membalas dendam. Dia tidak membayangkan tentera robot semua, tetapi di mana mesin berkhidmat dengan manusia, melakukan pekerjaan berisiko tinggi yang penuh dengan keputusan snap stres, seperti membersihkan bangunan.

Berhati-hati dengan robot pembunuh

Tetapi yang lain merasakan sudah tiba masanya untuk memecahkan pemikiran ini sebelum pergi terlalu jauh. Pada akhir tahun lalu, Human Rights Watch dan Klinik Hak Asasi Manusia Sekolah Undang-undang Harvard mengeluarkan laporan, "Kehilangan Kemanusiaan: Kes Terhadap Robot Pembunuh, " yang benar kepada tajuknya, menyeru kerajaan untuk mengharamkan semua senjata autonomi kerana mereka akan "meningkatkan risiko kematian atau kecederaan kepada orang awam semasa konflik bersenjata. "

Pada masa yang sama, sekumpulan profesor Universiti Cambridge mengumumkan rancangan untuk melancarkan apa yang mereka panggil Pusat Kajian Risiko Eksistensial. Apabila ia dibuka pada akhir tahun ini, ia akan mendorong penyelidikan saintifik yang serius ke dalam apa yang boleh berlaku jika dan apabila mesin menjadi lebih pintar daripada kami.

Bahaya itu, kata Huw Price, salah seorang pengasas Pusat, adalah suatu hari kita boleh berurusan dengan "mesin yang tidak berniat jahat, tetapi mesin yang kepentingannya tidak termasuk kita".

Seni penipuan

Shades of Skynet, sistem kecerdasan buatan yang menyalahkan yang menimbulkan cyborg Arnold Schwarzenegger dalam filem Terminator . Mungkin ini akan sentiasa menjadi fiksyen sains.

Tetapi pertimbangkan penyelidikan lain Ronald Arkin kini melakukan sebagai sebahagian daripada projek yang dibiayai oleh Jabatan Pertahanan. Beliau dan rakan sekerja telah mempelajari bagaimana haiwan menipu satu sama lain, dengan matlamat mengajar robot seni penipuan.

Sebagai contoh, mereka telah mengusahakan robot pengaturcaraan supaya mereka dapat, jika perlu, memperkaya kekuatan seperti yang dilakukan oleh haiwan. Dan mereka telah melihat mesin pengajaran untuk meniru tingkah laku makhluk seperti tupai kelabu timur. Tupai menyembunyikan kacang mereka dari binatang lain, dan apabila tupai atau pemangsa lain muncul, tupai kelabu kadang-kadang akan melawat tempat di mana mereka digunakan untuk menyembunyikan kacang untuk membuang pesaing mereka di luar trek. Robot yang diprogramkan untuk mengikuti strategi yang sama telah dapat mengelirukan dan memperlahankan pesaing.

Semuanya dalam kepentingannya, kata Arkin, mengembangkan mesin yang tidak akan menjadi ancaman kepada manusia, melainkan aset, terutama dalam kekacauan huru-hara perang. Kuncinya adalah untuk mula memberi tumpuan sekarang pada menetapkan garis panduan untuk tingkah laku robot yang sesuai.

"Apabila anda mula membuka Kotak Pandora, apa yang perlu dilakukan dengan keupayaan baru ini, " katanya dalam temu bual baru-baru ini. "Saya percaya bahawa terdapat potensi untuk kegagalan bukan pejuang untuk dikurangkan oleh robot pintar ini, tetapi kita perlu berhati-hati tentang bagaimana ia digunakan dan bukan hanya melepaskan mereka ke medan perang tanpa keprihatinan yang sewajarnya."

Untuk mempercayai penulis New York, Gary Marcus, mesin maju etis menawarkan potensi besar di luar medan perang.

Pemikiran yang paling menghantui saya adalah bahawa etika manusia sendiri hanyalah satu kerja yang sedang berjalan. Kami masih menghadapi situasi di mana kita tidak mempunyai kod yang maju (contohnya dalam kes bunuh diri yang dibantu) dan tidak perlu melihat jauh masa lalu untuk mencari kes di mana kod kami sendiri meragukan, atau lebih teruk (contohnya undang-undang yang perhambaan dan pengasingan yang dibenarkan).

Apa yang kita mahukan adalah mesin yang dapat melangkah lebih jauh, dikurniakan bukan sahaja dengan kod etika yang paling baik yang ahli falsafah kontemporari kita dapat merancang, tetapi juga dengan kemungkinan mesin membuat kemajuan moral mereka sendiri, membawa mereka melewati awal kita sendiri yang terhad Idea moral dua puluh satu pertama tentang moralitas. "

Mesin bergerak pada

Berikut adalah perkembangan robot yang lebih baru:

  • Hmmmm, etika dan licik: Penyelidik di Australia telah membangunkan robot yang boleh menyelinap sekitar dengan bergerak hanya apabila ada bunyi latar belakang yang cukup untuk menutup bunyi.
  • Apa bunyi yang berdengung: Tentera Inggeris di Afghanistan telah mula menggunakan dron pengawasan yang boleh muat di telapak tangan mereka. Disebut Black Hornet Nano, robot kecil hanya empat inci panjang, tetapi mempunyai kamera pengintip dan boleh terbang selama 30 minit dengan bayaran penuh.
  • Menggegarkan permukaan: NASA sedang membangun robot yang bernama RASSOR yang beratnya hanya 100 paun, tetapi akan dapat menambang mineral di bulan dan planet lain. Ia boleh bergerak di atas medan kasar dan bahkan lebih berani dengan menopang dirinya di atas lengannya.
  • Ah, nafsu: Dan inilah kisah awal Hari Valentine. Para saintis di Universiti Tokyo menggunakan rama-rama lelaki untuk memandu robot. Sebenarnya, mereka menggunakan pergerakan mengawannya untuk mengarahkan peranti ke arah objek yang berbau pheromone wanita.

Bonus video: Jadi anda tidak pasti anda boleh mengendalikan robot tinggi 13 kaki? Tiada masalah. Berikut adalah demo hebat yang menunjukkan betapa mudahnya ia. Model gembira juga menunjukkan cara untuk mengendalikan ciri "Smile Shot". Anda tersenyum, ia api BBs. Betapa sukarnya itu?

Lagi dari Smithsonian.com

Robot Ini Adalah Ayah Lebih Baik Daripada Ayah Anda

Robot Dapatkan Sentuhan Manusia

Bolehkah Mesin Belajar Moral?