AI Chatbots relatif tua menurut standar teknologi, tetapi tanaman terbaru — dipimpin oleh ChatGPT OpenAI dan Bard Google — jauh lebih mampu daripada pendahulunya, tidak selalu karena alasan positif. Ledakan baru-baru ini dalam pengembangan AI telah menimbulkan kekhawatiran seputar misinformasi, disinformasi, plagiarisme, dan malware buatan mesin. Masalah apa yang mungkin ditimbulkan AI generatif untuk privasi pengguna internet rata-rata? Jawabannya, menurut para ahli, sebagian besar tergantung pada bagaimana bot ini dilatih dan seberapa banyak kita berencana untuk berinteraksi dengannya
Untuk mereplikasi interaksi seperti manusia, chatbot AI dilatih pada data dalam jumlah besar, yang sebagian besar berasal dari repositori seperti Common Crawl. Seperti namanya, Common Crawl telah mengumpulkan data selama bertahun-tahun dan petabyte hanya dari merayapi dan mengorek web terbuka. “Model-model ini melatih kumpulan data besar dari data yang tersedia untuk umum di internet,” kata Megha Srivastava, mahasiswa PhD di departemen ilmu komputer Stanford dan mantan residen AI di Microsoft Research. Meskipun ChatGPT dan Bard menggunakan apa yang mereka sebut bagian “terfilter” dari data Common Crawl, ukuran model yang besar membuat “tidak mungkin bagi siapa pun untuk melihat data dan membersihkannya,” menurut Srivastava.
Baik melalui kecerobohan Anda sendiri atau praktik keamanan yang buruk oleh pihak ketiga bisa jadi ada di sudut internet yang sangat jauh saat ini. Meskipun mungkin sulit untuk diakses oleh pengguna rata-rata, ada kemungkinan bahwa informasi itu dimasukkan ke dalam kumpulan pelatihan, dan dapat dimuntahkan kembali oleh chatbot itu di kemudian hari. Dan bot yang mengeluarkan informasi kontak aktual seseorang sama sekali bukan masalah teoretis. Kolumnis Bloomberg, Dave Lee memposting di Twitter bahwa, ketika seseorang meminta ChatGPT untuk mengobrol di platform perpesanan terenkripsi Signal, itu memberikan nomor telepon persisnya. Interaksi semacam ini kemungkinan merupakan kasus tepi, tetapi informasi yang dapat diakses oleh model pembelajaran ini masih layak dipertimbangkan. “Tidak mungkin OpenAI ingin mengumpulkan informasi spesifik seperti data perawatan kesehatan dan mengaitkannya dengan individu untuk melatih modelnya,” David Hoelzer, seorang peneliti di organisasi keamanan SANS Institute, mengatakan kepada Engadget. “Tapi bisakah itu secara tidak sengaja ada di sana? Sangat.”
Open AI, perusahaan di belakang ChatGPT, tidak menjawab saat kami menanyakan tindakan apa yang diperlukan untuk melindungi privasi data, atau bagaimana menangani informasi identitas pribadi yang mungkin dimasukkan ke dalam set pelatihannya. Jadi kami melakukan hal terbaik berikutnya dan menanyakan ChatGPT sendiri. Itu memberi tahu kami bahwa itu “diprogram untuk mengikuti standar etika dan hukum yang melindungi privasi pengguna dan informasi pribadi” dan bahwa itu tidak “memiliki akses ke informasi pribadi kecuali diberikan kepada saya.” Google pada bagiannya memberi tahu Engadget bahwa mereka memprogram pagar pembatas serupa ke dalam Bard untuk mencegah berbagi informasi identitas pribadi selama percakapan.
Untungnya, ChatGPT memunculkan vektor utama kedua di mana AI generatif dapat menimbulkan risiko privasi: penggunaan perangkat lunak itu sendiri — baik melalui informasi yang dibagikan secara langsung di chatlog atau informasi perangkat dan pengguna yang ditangkap oleh layanan selama penggunaan. Kebijakan privasi OpenAI mengutip beberapa kategori informasi standar yang dikumpulkannya tentang pengguna, yang dapat diidentifikasi, dan saat memulainya, ChatGPT memperingatkan bahwa percakapan dapat ditinjau oleh pelatih AI-nya untuk meningkatkan sistem.
Bard Google, sementara itu, tidak memiliki kebijakan privasi mandiri, melainkan menggunakan dokumen privasi lengkap yang dibagikan oleh produk Google lainnya (dan yang ternyata sangat luas.) Percakapan dengan Bard tidak harus disimpan ke akun Google pengguna, dan pengguna dapat menghapus percakapan melalui Google, kata perusahaan itu kepada Engadget. “Untuk membangun dan mempertahankan kepercayaan pengguna, mereka harus sangat transparan seputar kebijakan privasi dan prosedur perlindungan data di bagian depan,” kata Rishi Jaitly, profesor dan rekan humaniora terkemuka di Virginia Tech, kepada Engadget.
Meskipun memiliki tindakan “percakapan yang jelas”, menekan itu tidak benar-benar menghapus data Anda, menurut halaman FAQ layanan, OpenAI juga tidak dapat menghapus permintaan tertentu. Meskipun perusahaan melarang pengguna untuk membagikan sesuatu yang sensitif, tampaknya satu-satunya cara untuk menghapus informasi pengenal pribadi yang diberikan kepada ChatGPT adalah dengan menghapus akun Anda, yang menurut perusahaan akan menghapus semua data terkait secara permanen.
Hoelzer memberi tahu Engadget bahwa dia tidak khawatir ChatGPT menyerap percakapan individu untuk belajar. Tapi data percakapan itu disimpan di suatu tempat, sehingga keamanannya menjadi perhatian yang masuk akal. Kebetulan, ChatGPT sempat offline sebentar pada bulan Maret karena kesalahan pemrograman mengungkapkan informasi tentang riwayat obrolan pengguna. Tidak jelas di awal penerapan luas mereka jika log obrolan dari AI semacam ini akan menjadi target berharga bagi aktor jahat.
Di masa mendatang, yang terbaik adalah memperlakukan chatbot semacam ini dengan kecurigaan yang sama seperti yang harus dilakukan pengguna terhadap produk teknologi lainnya. “Seorang pengguna yang bermain dengan model-model ini harus masuk dengan harapan bahwa interaksi apa pun yang mereka lakukan dengan model tersebut,” kata Srivastava kepada Engadget, “adalah permainan yang adil untuk Open AI atau perusahaan lain mana pun untuk digunakan demi keuntungan mereka.”
Semua produk yang direkomendasikan oleh Engadget dipilih oleh tim editorial kami, terlepas dari perusahaan induk kami. Beberapa cerita kami menyertakan tautan afiliasi. Jika Anda membeli sesuatu melalui salah satu tautan ini, kami dapat memperoleh komisi afiliasi. Semua harga adalah benar pada saat penerbitan.