ChatGPT dan Dall-E AI Harus Memberi Tanda Air pada Hasil Mereka

Foto: J. David Ake (AP)

Getty Images Ingin AI Berhenti Menyalinnya

Tak lama setelah desas-desus bocor tentang dakwaan mantan Presiden Donald Trump yang akan datang, gambar-gambar yang dimaksudkan untuk menunjukkan penangkapannya muncul secara online. Gambar-gambar ini tampak seperti foto berita, tetapi palsu. Mereka diciptakan oleh sistem kecerdasan buatan generatif.

Generatif AI, berupa image generator seperti DALL-E, Midjourney dan Stable Diffusion, serta text generator seperti Bard, ChatGPT, Chinchilla dan LLaMA, telah meledak di ruang publik. Dengan menggabungkan algoritme pembelajaran mesin yang cerdas dengan miliaran keping konten buatan manusia, sistem ini dapat melakukan apa saja mulai dari membuat gambar realistis yang menakutkan dari teks, menyintesis pidato dengan suara Presiden Joe Biden, mengganti kemiripan satu orang dengan yang lain dalam sebuah video , atau tulis op-ed 800 kata yang koheren dari prompt judul.

Bahkan di masa-masa awal ini, AI generatif mampu membuat konten yang sangat realistis. Kolega saya Sophie Nightingale dan saya menemukan bahwa rata-rata orang tidak dapat membedakan gambar orang sungguhan dari orang yang dihasilkan oleh AI. Meskipun audio dan video belum sepenuhnya melewati lembah yang luar biasa – gambar atau model orang yang meresahkan karena dekat tetapi tidak terlalu realistis – kemungkinan besar akan segera terjadi. Ketika ini terjadi, dan itu semua dijamin, akan semakin mudah untuk mendistorsi kenyataan.

G/O Media dapat memperoleh komisi

Diskon 42%.

TV Cerdas Amazon Fire TV 50″ 4K

Visual yang luar biasa
Smart TV ini memiliki akses ke beragam layanan streaming, yang semuanya lebih mudah dinavigasi, memiliki visual 4K untuk gambar yang menakjubkan, dan juga dilengkapi dengan Alexa Voice Remote.

Di dunia baru ini, akan sangat mudah untuk membuat video CEO yang mengatakan keuntungan perusahaannya turun 20%, yang dapat menyebabkan hilangnya pangsa pasar miliaran, atau membuat video pemimpin dunia yang mengancam aksi militer, yang dapat memicu krisis geopolitik, atau memasukkan kemiripan seseorang ke dalam video yang eksplisit secara seksual.

Teknologi untuk membuat video palsu dari orang sungguhan semakin tersedia.

Kemajuan dalam AI generatif akan segera berarti bahwa konten palsu namun meyakinkan secara visual akan berkembang biak secara online, yang mengarah ke ekosistem informasi yang lebih berantakan. Konsekuensi kedua adalah bahwa para pencela akan dapat dengan mudah menolak sebagai bukti video aktual palsu dari segala sesuatu mulai dari kekerasan polisi dan pelanggaran hak asasi manusia hingga seorang pemimpin dunia yang membakar dokumen-dokumen rahasia.

Ketika masyarakat menatap ke bawah dari apa yang hampir pasti hanya permulaan dari kemajuan AI generatif ini, ada intervensi yang masuk akal dan layak secara teknologi yang dapat digunakan untuk membantu mengurangi penyalahgunaan ini. Sebagai seorang ilmuwan komputer yang berspesialisasi dalam forensik gambar, saya percaya bahwa metode kuncinya adalah watermarking.

Tanda air

Ada sejarah panjang dalam menandai dokumen dan item lain untuk membuktikan keasliannya, menunjukkan kepemilikan, dan pemalsuan palsu. Hari ini, Getty Images, arsip gambar besar, menambahkan tanda air yang terlihat ke semua gambar digital dalam katalog mereka. Hal ini memungkinkan pelanggan untuk menelusuri gambar dengan bebas sekaligus melindungi aset Getty.

Tanda air digital yang tidak terlihat juga digunakan untuk manajemen hak digital. Tanda air dapat ditambahkan ke gambar digital, misalnya, menyesuaikan setiap piksel gambar ke-10 sehingga warnanya (biasanya angka dalam rentang 0 hingga 255) bernilai genap. Karena penyesuaian piksel ini sangat kecil, tanda airnya tidak terlihat. Dan, karena pola periodik ini tidak mungkin terjadi secara alami, dan dapat dengan mudah diverifikasi, pola ini dapat digunakan untuk memverifikasi asal gambar.

Bahkan gambar beresolusi sedang berisi jutaan piksel, yang berarti informasi tambahan dapat disematkan ke dalam tanda air, termasuk pengidentifikasi unik yang mengkodekan perangkat lunak penghasil dan ID pengguna unik. Jenis tanda air tak terlihat yang sama ini dapat diterapkan pada audio dan video.

Tanda air yang ideal adalah yang tidak terlihat dan juga tahan terhadap manipulasi sederhana seperti memotong, mengubah ukuran, menyesuaikan warna, dan mengubah format digital. Meskipun contoh tanda air warna piksel tidak tangguh karena nilai warna dapat diubah, banyak strategi tanda air telah diusulkan yang kuat – meskipun tidak kebal – terhadap upaya untuk menghapusnya.

Watermarking dan generator gambar AI gratis

Tanda air ini dapat dimasukkan ke dalam sistem AI generatif dengan memberi tanda air pada semua data pelatihan, setelah itu konten yang dihasilkan akan berisi tanda air yang sama. Tanda air yang dipanggang ini menarik karena ini berarti bahwa alat AI generatif dapat bersumber terbuka – seperti Difusi Stabil pembuat gambar – tanpa kekhawatiran bahwa proses tanda air dapat dihapus dari perangkat lunak pembuat gambar. Difusi Stabil memiliki fungsi watermarking, tetapi karena ini open source, siapa pun dapat dengan mudah menghapus bagian kode tersebut.

OpenAI sedang bereksperimen dengan sistem untuk menandai kreasi ChatGPT. Karakter dalam sebuah paragraf tentu saja tidak dapat di-tweak seperti nilai piksel, sehingga watermarking teks memiliki bentuk yang berbeda.

AI generatif berbasis teks didasarkan pada pembuatan kata paling masuk akal berikutnya dalam sebuah kalimat. Misalnya, dimulai dengan penggalan kalimat “sistem AI dapat…,” ChatGPT akan memprediksi bahwa kata berikutnya harus “belajar”, ​​“memprediksi”, atau “memahami”. Terkait dengan masing-masing kata ini adalah probabilitas yang sesuai dengan kemungkinan setiap kata muncul berikutnya dalam kalimat. ChatGPT mempelajari probabilitas ini dari kumpulan besar teks yang dilatihnya.

Teks yang dihasilkan dapat diberi tanda air dengan menandai subkumpulan kata secara diam-diam dan kemudian membiaskan pemilihan kata menjadi kata yang diberi tag sinonim. Misalnya, kata yang diberi tag “mengerti” dapat digunakan sebagai pengganti “mengerti”. Dengan membiaskan pemilihan kata secara berkala dengan cara ini, badan teks diberi watermark berdasarkan distribusi tertentu dari kata-kata yang diberi tag. Pendekatan ini tidak akan berfungsi untuk tweet pendek tetapi umumnya efektif dengan teks berisi 800 kata atau lebih tergantung pada detail tanda air tertentu.

Sistem AI generatif dapat, dan saya percaya harus, memberi tanda air pada semua kontennya, memungkinkan identifikasi hilir yang lebih mudah dan, jika perlu, intervensi. Jika industri tidak mau melakukan ini secara sukarela, pembuat undang-undang dapat mengeluarkan peraturan untuk menegakkan aturan ini. Orang yang tidak bermoral, tentu saja, tidak akan mematuhi standar ini. Namun, jika penjaga gerbang online utama – toko aplikasi Apple dan Google, Amazon, Google, layanan cloud Microsoft, dan GitHub – menegakkan aturan ini dengan melarang perangkat lunak yang tidak patuh, kerugiannya akan berkurang secara signifikan.

Menandatangani konten asli

Mengatasi masalah dari ujung yang lain, pendekatan serupa dapat diadopsi untuk mengautentikasi rekaman audiovisual asli pada titik pengambilan. Aplikasi kamera khusus dapat secara kriptografis menandatangani konten yang direkam saat direkam. Tidak ada cara untuk mengutak-atik tanda tangan ini tanpa meninggalkan bukti percobaan. Tanda tangan tersebut kemudian disimpan pada daftar terpusat dari tanda tangan tepercaya.

Meskipun tidak berlaku untuk teks, konten audiovisual kemudian dapat diverifikasi sebagai buatan manusia. The Coalition for Content Provenance and Authentication (C2PA), sebuah upaya kolaboratif untuk membuat standar otentikasi media, baru-baru ini merilis spesifikasi terbuka untuk mendukung pendekatan ini. Dengan institusi besar termasuk Adobe, Microsoft, Intel, BBC dan banyak lainnya bergabung dalam upaya ini, C2PA memiliki posisi yang baik untuk menghasilkan teknologi autentikasi yang efektif dan tersebar luas.

Penandatanganan dan tanda air gabungan dari konten buatan manusia dan buatan AI tidak akan mencegah semua bentuk penyalahgunaan, tetapi akan memberikan perlindungan. Perlindungan apa pun harus terus diadaptasi dan disempurnakan saat musuh menemukan cara baru untuk mempersenjatai teknologi terbaru.

Dengan cara yang sama bahwa masyarakat telah berperang selama puluhan tahun melawan ancaman dunia maya lainnya seperti spam, malware, dan phishing, kita harus mempersiapkan diri untuk pertempuran yang sama-sama berlarut-larut untuk mempertahankan diri dari berbagai bentuk penyalahgunaan yang dilakukan menggunakan AI generatif.

Ingin tahu lebih banyak tentang AI, chatbots, dan masa depan pembelajaran mesin? Lihat liputan lengkap kami tentang kecerdasan buatan, atau telusuri panduan kami ke Generator Seni AI Gratis Terbaik dan Semua yang Kami Ketahui Tentang ChatGPT OpenAI.

Hany Farid, Profesor Ilmu Komputer, Universitas California, Berkeley

Artikel ini diterbitkan ulang dari The Conversation di bawah lisensi Creative Commons. Baca artikel aslinya.