ChatGPT, Google Bard, dan AI Biz Memiliki Masalah ‘Pengendara Gratis’

Foto: fizkes (Shutterstock)

Mungkin Skrip yang Ditulis AI adalah Ide Buruk?

Pada 22 Maret 2023, ribuan peneliti dan pemimpin teknologi – termasuk Elon Musk dan salah satu pendiri Apple Steve Wozniak – menerbitkan surat terbuka yang menyerukan untuk memperlambat perlombaan kecerdasan buatan. Secara khusus, surat tersebut merekomendasikan agar laboratorium menghentikan pelatihan untuk teknologi yang lebih kuat daripada GPT-4 OpenAI, generasi paling canggih dari sistem AI penghasil bahasa saat ini, setidaknya selama enam bulan.

Membunyikan alarm tentang risiko yang ditimbulkan oleh AI bukanlah hal baru – akademisi telah mengeluarkan peringatan tentang risiko mesin superintelijen selama beberapa dekade sekarang. Masih belum ada konsensus tentang kemungkinan menciptakan kecerdasan umum artifisial, sistem AI otonom yang menyamai atau melampaui manusia dalam tugas-tugas yang paling berharga secara ekonomi. Namun, jelas bahwa sistem AI saat ini telah menimbulkan banyak bahaya, mulai dari bias rasial dalam teknologi pengenalan wajah hingga meningkatnya ancaman misinformasi dan kecurangan siswa.

Sementara surat tersebut meminta industri dan pembuat kebijakan untuk bekerja sama, saat ini tidak ada mekanisme untuk menegakkan jeda tersebut. Sebagai seorang filsuf yang mempelajari etika teknologi, saya perhatikan bahwa penelitian AI mencontohkan “masalah free rider”. Saya berpendapat bahwa ini harus memandu bagaimana masyarakat merespons risikonya – dan bahwa niat baik tidak akan cukup.

Berkuda gratis

Menunggang bebas adalah konsekuensi umum dari apa yang oleh para filsuf disebut “masalah tindakan kolektif”. Ini adalah situasi di mana, sebagai sebuah kelompok, setiap orang akan mendapat manfaat dari tindakan tertentu, tetapi sebagai individu, setiap anggota akan mendapat manfaat dari tidak melakukannya.

Masalah seperti itu paling sering melibatkan barang publik. Misalnya, misalkan penduduk kota memiliki kepentingan kolektif dalam mendanai sistem kereta bawah tanah, yang mengharuskan masing-masing dari mereka membayar sejumlah kecil melalui pajak atau tarif. Setiap orang akan mendapat manfaat, namun demi kepentingan terbaik setiap individu untuk menghemat uang dan menghindari membayar bagian mereka yang adil. Lagi pula, mereka masih bisa menikmati kereta bawah tanah jika kebanyakan orang membayar.

Oleh karena itu masalah “penumpang gratis”: Beberapa individu tidak akan menyumbangkan bagian mereka yang adil tetapi masih akan mendapatkan “tumpangan gratis” – secara harfiah, dalam kasus kereta bawah tanah. Namun, jika setiap individu gagal membayar, tidak ada yang akan mendapat manfaat.

Filsuf cenderung berpendapat bahwa tidak etis untuk “menumpang gratis”, karena penunggang bebas gagal untuk membalas orang lain dengan membayar bagian mereka secara adil. Banyak filsuf juga berpendapat bahwa penunggang bebas gagal dalam tanggung jawab mereka sebagai bagian dari kontrak sosial, prinsip kerja sama yang disepakati bersama yang mengatur masyarakat. Dengan kata lain, mereka gagal menjunjung tinggi kewajiban mereka untuk menjadi anggota masyarakat yang berkontribusi.

Tekan jeda, atau lanjutkan?

Seperti kereta bawah tanah, AI adalah barang publik, mengingat potensinya untuk menyelesaikan tugas jauh lebih efisien daripada operator manusia: mulai dari mendiagnosis pasien dengan menganalisis data medis hingga mengambil alih pekerjaan berisiko tinggi di militer atau meningkatkan keselamatan pertambangan.

Namun manfaat dan bahayanya akan mempengaruhi semua orang, bahkan orang yang tidak menggunakan AI secara pribadi. Untuk mengurangi risiko AI, setiap orang berkepentingan dengan penelitian industri yang dilakukan dengan hati-hati, aman, dan dengan pengawasan dan transparansi yang tepat. Misalnya, informasi yang salah dan berita palsu telah menjadi ancaman serius bagi demokrasi, tetapi AI berpotensi memperburuk masalah dengan menyebarkan “berita palsu” lebih cepat dan lebih efektif daripada yang bisa dilakukan orang.

Bahkan jika beberapa perusahaan teknologi secara sukarela menghentikan eksperimen mereka, perusahaan lain akan memiliki kepentingan moneter untuk melanjutkan penelitian AI mereka sendiri, memungkinkan mereka untuk maju dalam perlombaan senjata AI. Terlebih lagi, menghentikan eksperimen AI secara sukarela akan memungkinkan perusahaan lain mendapatkan tumpangan gratis dengan pada akhirnya menuai keuntungan dari pengembangan AI yang lebih aman dan lebih transparan, bersama dengan masyarakat lainnya.

Sam Altman, CEO OpenAI, telah mengakui bahwa perusahaan takut akan risiko yang ditimbulkan oleh sistem chatbotnya, ChatGPT. “Kita harus berhati-hati di sini,” katanya dalam sebuah wawancara dengan ABC News, menyebutkan potensi AI untuk menghasilkan informasi yang salah. “Saya pikir orang-orang seharusnya senang bahwa kami sedikit takut akan hal ini.”

Dalam sebuah surat yang diterbitkan pada 5 April 2023, OpenAI mengatakan bahwa perusahaan percaya bahwa sistem AI yang kuat memerlukan regulasi untuk memastikan evaluasi keselamatan yang menyeluruh dan akan “secara aktif terlibat dengan pemerintah dalam bentuk terbaik yang dapat diambil oleh regulasi tersebut.” Namun demikian, OpenAI terus meluncurkan GPT-4 secara bertahap, dan industri lainnya juga terus mengembangkan dan melatih AI tingkat lanjut.

Matang untuk regulasi

Penelitian ilmu sosial selama beberapa dekade tentang masalah tindakan kolektif telah menunjukkan bahwa ketika kepercayaan dan itikad baik tidak cukup untuk menghindari penunggang bebas, regulasi seringkali menjadi satu-satunya alternatif. Kepatuhan sukarela adalah faktor kunci yang menciptakan skenario free-rider – dan tindakan pemerintah terkadang merupakan cara untuk menghentikannya sejak awal.

Selanjutnya, peraturan tersebut harus dapat ditegakkan. Lagi pula, calon pengendara kereta bawah tanah mungkin tidak akan membayar ongkos kecuali ada ancaman hukuman.

Ambil salah satu masalah free-rider paling dramatis di dunia saat ini: perubahan iklim. Sebagai sebuah planet, kita semua memiliki kepentingan besar dalam menjaga lingkungan yang layak huni. Namun, dalam sistem yang memungkinkan pengendara gratis, insentif bagi satu negara mana pun untuk benar-benar mengikuti pedoman yang lebih ramah lingkungan sangatlah kecil.

Perjanjian Paris, yang saat ini merupakan kesepakatan global yang paling mencakup perubahan iklim, bersifat sukarela, dan Perserikatan Bangsa-Bangsa tidak memiliki jalan lain untuk menegakkannya. Bahkan jika Uni Eropa dan China secara sukarela membatasi emisi mereka, misalnya, Amerika Serikat dan India dapat “menumpang bebas” pada pengurangan karbon dioksida sambil terus mengeluarkan emisi.

Tantangan global

Demikian pula, masalah free-rider mendasari argumen untuk mengatur pengembangan AI. Faktanya, perubahan iklim adalah paralel yang sangat dekat, karena baik risiko yang ditimbulkan oleh AI maupun emisi gas rumah kaca tidak terbatas pada negara asal program.

Selain itu, perlombaan untuk mengembangkan AI yang lebih maju adalah perlombaan internasional. Bahkan jika AS memperkenalkan peraturan federal tentang penelitian dan pengembangan AI, China dan Jepang dapat berkendara dengan bebas dan melanjutkan program AI domestik mereka sendiri.

Regulasi dan penegakan AI yang efektif akan membutuhkan tindakan dan kerja sama kolektif global, seperti halnya dengan perubahan iklim. Di AS, penegakan hukum yang ketat akan membutuhkan pengawasan federal terhadap penelitian dan kemampuan untuk mengenakan denda yang besar atau menghentikan eksperimen AI yang tidak sesuai untuk memastikan pengembangan yang bertanggung jawab – baik melalui dewan pengawas peraturan, perlindungan pelapor atau, dalam kasus ekstrim, penguncian laboratorium atau penelitian dan tuntutan pidana.

Namun, tanpa penegakan hukum, akan ada pengendara gratis – dan pengendara gratis berarti ancaman AI tidak akan mereda dalam waktu dekat.

Ingin tahu lebih banyak tentang AI, chatbots, dan masa depan pembelajaran mesin? Lihat liputan lengkap kami tentang kecerdasan buatan, atau telusuri panduan kami ke Generator Seni AI Gratis Terbaik dan Semua yang Kami Ketahui Tentang ChatGPT OpenAI.

Tim Juvshik adalah Asisten Profesor Tamu Filsafat di Universitas Clemson. Artikel ini diterbitkan ulang dari The Conversation di bawah lisensi Creative Commons. Baca artikel aslinya.