Bagaimana Mobil Self-Driving Menangani Masalah Trolley?

Foto: Justin Sullivan (Getty Images)

Apa yang akan Anda lakukan jika Anda melihat mobil tanpa pengemudi menabrak seseorang?

Dalam Etika Robot, Mark Coeckelbergh, Profesor Filsafat Media dan Teknologi di Universitas Wina, mengemukakan masalah troli untuk tahun 2022: Haruskah mobil melanjutkan jalurnya dan membunuh lima pejalan kaki, atau mengalihkan jalurnya dan membunuh satu?

Dalam bab yang disajikan di sini, Coeckelbergh mengkaji bagaimana manusia mengkonseptualisasikan robot sebagai kerangka kerja yang lebih besar dan menyelami bagaimana mobil self-driving akan menangani situasi lalu lintas yang mematikan—dan apakah itu pertanyaan yang berharga.

Dalam film fiksi ilmiah AS tahun 2004 I, Robot, robot humanoid melayani umat manusia. Namun tidak semuanya berjalan dengan baik. Setelah kecelakaan, seorang pria diselamatkan dari mobil yang tenggelam oleh robot, tetapi seorang gadis berusia dua belas tahun tidak diselamatkan. Robot menghitung bahwa pria itu memiliki peluang lebih tinggi untuk bertahan hidup; manusia mungkin telah membuat pilihan lain. Nanti di filmnya, robot mencoba mengambil alih kekuasaan dari manusia. Robot dikendalikan oleh kecerdasan buatan (AI), VIKI, yang memutuskan bahwa menahan perilaku manusia dan membunuh sebagian manusia akan memastikan kelangsungan hidup umat manusia. Film tersebut mengilustrasikan ketakutan bahwa robot humanoid dan AI mengambil alih dunia. Ini juga menunjukkan dilema etika hipotetis jika robot dan AI mencapai kecerdasan umum. Tapi apakah ini etika robot dan seharusnya?

Apakah Robot Datang, atau Apakah Mereka Sudah Ada?

Biasanya ketika orang berpikir tentang robot, gambaran pertama yang terlintas dalam pikiran adalah robot yang sangat cerdas, seperti manusia. Sering kali gambaran tersebut berasal dari fiksi ilmiah, di mana kita menemukan robot yang terlihat dan berperilaku kurang lebih seperti manusia. Banyak narasi memperingatkan tentang robot yang mengambil alih; ketakutannya adalah mereka bukan lagi hamba kita tetapi malah menjadikan kita budak mereka. Istilah “robot” itu sendiri berarti “kerja paksa” dalam bahasa Ceko dan muncul dalam lakon RUR karya Karel Čapek, yang dipentaskan di Praha pada tahun 1921—lebih dari seratus tahun yang lalu. Drama tersebut berdiri dalam sejarah panjang cerita tentang mesin pemberontak mirip manusia, dari Frankenstein Mary Shelley hingga film seperti 2001: A Space Odyssey, Terminator, Blade Runner, dan I, Robot. Dalam imajinasi publik, robot seringkali menjadi objek ketakutan dan daya tarik pada saat yang bersamaan. Kami takut mereka akan mengambil alih, tetapi pada saat yang sama menarik untuk berpikir tentang menciptakan makhluk buatan yang seperti kami. Bagian dari warisan romantisme kita, robot adalah proyeksi dari mimpi dan mimpi buruk kita tentang menciptakan orang lain buatan.

Pertama, robot-robot ini sebagian besar menakutkan; mereka adalah monster dan luar biasa. Namun pada awal abad ke-21, citra robot yang berbeda muncul di Barat: robot sebagai pendamping, teman, dan bahkan mungkin mitra. Idenya sekarang adalah robot tidak boleh terbatas pada pabrik industri atau planet terpencil di luar angkasa. Dalam imajinasi kontemporer, mereka dibebaskan dari pekerjaan budak mereka yang kotor, dan memasuki rumah sebagai mitra sosial yang menyenangkan, membantu, dan terkadang seksi yang dapat Anda ajak bicara. Dalam beberapa film, mereka pada akhirnya masih memberontak— pikirkan tentang Ex Machina, misalnya—tetapi umumnya mereka menjadi apa yang oleh perancang robot disebut “robot sosial”. Mereka dirancang untuk interaksi manusia-robot “alami”—yaitu, interaksi dengan cara yang biasa kita gunakan untuk berinteraksi dengan manusia atau hewan peliharaan lain. Mereka dirancang untuk tidak menakutkan atau mengerikan tetapi lucu, membantu, menghibur, lucu, dan menggoda.

Ini membawa kita ke kehidupan nyata. Robot tidak datang; mereka sudah ada di sini. Tapi mereka tidak seperti robot yang kita temui di fiksi ilmiah. Mereka tidak seperti monster Frankenstein atau Terminator. Mereka adalah robot industri dan, terkadang, “robot sosial”. Yang terakhir tidak secerdas manusia atau kerabat fiksi ilmiah mereka, dan seringkali tidak memiliki bentuk manusia. Bahkan robot seks tidak sepintar atau mampu berbicara seperti robot yang digambarkan di Ex Machina. Terlepas dari perkembangan AI baru-baru ini, sebagian besar robot sama sekali tidak mirip manusia. Konon, robot ada di sini, dan mereka ada di sini untuk tinggal. Mereka lebih cerdas dan lebih mampu menjalankan fungsi otonom daripada sebelumnya. Dan ada lebih banyak penerapan di dunia nyata. Robot tidak hanya digunakan dalam industri tetapi juga perawatan kesehatan, transportasi, dan bantuan rumah.

Seringkali ini membuat hidup manusia lebih mudah. Namun ada juga masalah. Beberapa robot mungkin memang berbahaya— bukan karena mereka akan mencoba membunuh atau merayu Anda (walaupun “drone pembunuh” dan robot seks juga termasuk dalam menu etika robot), tetapi biasanya karena alasan yang lebih biasa seperti karena mereka mungkin mengambil pekerjaan Anda. , dapat menipu Anda untuk berpikir bahwa mereka adalah manusia, dan dapat menyebabkan kecelakaan saat Anda menggunakannya sebagai taksi. Ketakutan semacam itu bukanlah fiksi ilmiah; mereka menyangkut waktu dekat. Secara lebih umum, sejak dampak nuklir, digital, dan teknologi lainnya pada kehidupan dan planet kita, tumbuh kesadaran dan pengakuan bahwa teknologi membuat perubahan mendasar pada kehidupan, masyarakat, dan lingkungan kita, dan oleh karena itu sebaiknya kita lebih banyak berpikir, dan lebih kritis, tentang penggunaan dan pengembangannya. Ada rasa urgensi: kita lebih memahami dan mengevaluasi teknologi sekarang, sebelum terlambat—yaitu, sebelum berdampak pada siapa pun yang tidak menginginkannya. Argumen ini juga dapat dibuat untuk pengembangan dan penggunaan robotika: mari kita pertimbangkan masalah etika yang diangkat oleh robot dan penggunaannya pada tahap pengembangan daripada setelah fakta.

Mobil Mengemudi Sendiri, Agensi Moral, dan Tanggung Jawab

Bayangkan sebuah mobil self-driving melaju dengan kecepatan tinggi melalui jalur sempit. Anak-anak sedang bermain di jalan. Mobil itu memiliki dua pilihan: menghindari anak-anak dan menabrak tembok, mungkin membunuh satu-satunya penumpang manusia, atau melanjutkan jalurnya dan mengerem, tetapi mungkin sudah terlambat untuk menyelamatkan nyawa anak-anak. Apa yang harus dilakukan mobil? Apa yang akan dilakukan mobil? Bagaimana seharusnya mobil diprogram?

Eksperimen pikiran ini adalah contoh dari apa yang disebut dilema troli. Troli landasan pacu akan membawa lebih dari lima orang yang diikat ke trek. Anda sedang berdiri di trek dan dapat menarik tuas yang mengarahkan troli ke trek lain, tempat satu orang diikat. Apakah Anda menarik tuas? Jika Anda tidak melakukan apa-apa, lima orang akan terbunuh. Jika Anda menarik tuasnya, satu orang akan terbunuh. Jenis dilema ini sering digunakan untuk membuat orang berpikir tentang apa yang dianggap sebagai dilema moral yang diangkat oleh mobil self-driving. Idenya adalah bahwa data tersebut kemudian dapat membantu mesin memutuskan.

Misalnya, platform online Moral Machine telah mengumpulkan jutaan keputusan dari pengguna di seluruh dunia tentang preferensi moral mereka jika seorang pengemudi harus memilih “yang lebih rendah dari dua kejahatan”. Orang-orang ditanya apakah mobil tanpa pengemudi harus memprioritaskan manusia daripada hewan peliharaan, penumpang daripada pejalan kaki, wanita daripada pria, dan sebagainya. Menariknya, ada perbedaan lintas budaya sehubungan dengan pilihan yang dibuat. Beberapa budaya seperti Jepang dan Cina, katakanlah, lebih kecil kemungkinannya untuk menyisihkan yang muda daripada yang tua, sedangkan budaya lain seperti Inggris dan Amerika Serikat lebih cenderung menyisihkan yang muda. Eksperimen ini dengan demikian tidak hanya menawarkan cara untuk mendekati etika mesin tetapi juga menimbulkan pertanyaan yang lebih umum tentang bagaimana memperhitungkan perbedaan budaya dalam robotika dan otomasi.

Gbr. 3Gambar: MIT Press/Mark Coeckelbergh

Gambar 3 menunjukkan contoh situasi dilema troli: Haruskah mobil melanjutkan jalurnya dan membunuh lima pejalan kaki, atau mengalihkan jalurnya dan membunuh satu? Menerapkan dilema troli pada kasus mobil self-driving mungkin bukan cara berpikir terbaik tentang etika mengemudikan mobil sendiri; untungnya, kita jarang menghadapi situasi seperti itu dalam lalu lintas, atau tantangannya mungkin lebih rumit dan tidak melibatkan pilihan biner, dan definisi masalah ini mencerminkan pendekatan normatif khusus terhadap etika (konsekuensialisme, dan khususnya utilitarianisme). Ada diskusi dalam literatur tentang sejauh mana troli dilema mewakili tantangan etika yang sebenarnya. Namun demikian, dilema troli sering digunakan sebagai ilustrasi gagasan bahwa ketika robot menjadi lebih otonom, kita harus memikirkan pertanyaan apakah akan memberi mereka semacam moralitas atau tidak (jika itu bisa dihindari sama sekali), dan jika jadi, moralitas seperti apa. Selain itu, robot otonom menimbulkan pertanyaan tentang tanggung jawab moral. Pertimbangkan mobil self-driving lagi.

Pada Maret 2018, sebuah mobil Uber yang mengemudi sendiri menewaskan seorang pejalan kaki di Tempe, Arizona. Ada seorang operator di dalam mobil tersebut, namun pada saat kecelakaan mobil tersebut dalam mode otonom. Pejalan kaki itu berjalan di luar penyeberangan. SUV Volvo tidak melambat saat mendekati wanita itu. Ini bukan satu-satunya kecelakaan fatal yang dilaporkan. Pada tahun 2016, misalnya, mobil Tesla Model S dalam mode autopilot gagal mendeteksi truk besar dan trailer yang melintasi jalan raya, dan menabrak trailer tersebut, membunuh pengemudi Tesla. Bagi banyak pengamat, kecelakaan seperti itu menunjukkan tidak hanya keterbatasan perkembangan teknologi saat ini (saat ini sepertinya mobil belum siap untuk berpartisipasi dalam lalu lintas) dan perlunya regulasi; mereka menimbulkan tantangan sehubungan dengan atribusi tanggung jawab. Pertimbangkan kasus Uber. Siapa yang bertanggung jawab atas kecelakaan itu? Mobil tidak dapat bertanggung jawab. Tetapi pihak manusia yang terlibat semuanya berpotensi bertanggung jawab: perusahaan Uber, yang mempekerjakan topi gerobak belum siap untuk jalan; pabrikan mobilVolvo, yang gagal mengembangkan mobil yang aman; operator di dalam mobil yang tidak bereaksi tepat waktu untuk menghentikan kendaraan; pejalan kaki yang tidak berjalan di dalam penyeberangan; dan regulator (misalnya negara bagian Arizona) yang mengizinkan mobil ini diuji di jalan raya. Bagaimana kita mengaitkan dan mendistribusikan tanggung jawab mengingat mobil itu mengemudi secara mandiri dan begitu banyak pihak yang terlibat? Bagaimana kita mengaitkan tanggung jawab dalam semua jenis kasus robot otonom, dan bagaimana kita menangani masalah ini sebagai profesi (misalnya, insinyur), perusahaan, dan masyarakat—sebaiknya secara proaktif sebelum kecelakaan terjadi?

Beberapa Pertanyaan Tentang Robot Otonom

Seperti yang diilustrasikan oleh kecelakaan Uber, mobil self-driving tidak sepenuhnya fiksi ilmiah. Mereka sedang diuji di jalan, dan pabrikan mobil sedang mengembangkannya. Misalnya, Tesla, BMW, dan Mercedes sudah menguji kendaraan otonom. Banyak dari mobil ini belum sepenuhnya otonom, tetapi banyak hal yang bergerak ke arah itu. Dan mobil bukan satu-satunya robot otonom dan cerdas yang ada. Pertimbangkan lagi robot otonom di rumah dan rumah sakit.

Bagaimana jika mereka menyakiti orang? Bagaimana ini bisa dihindari? Dan haruskah mereka secara aktif melindungi manusia dari bahaya? Bagaimana jika mereka harus membuat pilihan etis? Apakah mereka memiliki kapasitas untuk membuat pilihan seperti itu? Selain itu, beberapa robot dikembangkan untuk membunuh (lihat bab 7 tentang robot militer). Jika mereka memilih target mereka secara mandiri, dapatkah mereka melakukannya dengan cara yang etis (dengan asumsi, demi argumen, bahwa kita mengizinkan robot semacam itu untuk membunuh)? Etika seperti apa yang harus mereka gunakan? Bisakah robot memiliki etika sama sekali? Berkenaan dengan robot otonom pada umumnya, pertanyaannya adalah apakah mereka membutuhkan semacam moralitas, dan apakah ini memungkinkan (jika kita dapat dan harus memiliki “mesin moral”). Dapatkah mereka memiliki hak pilihan moral? Apa itu hak pilihan moral? Dan bisakah robot bertanggung jawab? Siapa atau apa dan harus bertanggung jawab jika terjadi kesalahan?

Diadaptasi dari Robot Ethics oleh Mark Coeckelbergh. Hak Cipta 2022. Digunakan dengan Izin dari The MIT Press.

Gambar: MIT Press/Mark Coeckelbergh