Rob Leathern Meninggalkan Google. Sekarang Dia Ingin Bicara AI dan ChatGPT.

Ketika orang mulai mengeluh bahwa perusahaan teknologi Anda merusak dunia, Anda mempekerjakan orang seperti Rob Leathern. Dia bergabung dengan Meta, perusahaan yang sebelumnya dikenal sebagai Facebook, tepat saat skandal Cambridge Analytica meyakinkan publik bahwa Facebook merupakan ancaman eksistensial terhadap demokrasi. Selama pemilu 2020 dan wabah pandemi virus corona, Leathern memimpin upaya untuk menangani privasi, misinformasi, dan masalah lain dalam sistem periklanan Facebook. Tepat setelah pemilihan, Google memburunya, menjadikan Leathern sebagai wakil presiden yang bertanggung jawab atas produk yang berkaitan dengan privasi dan keamanan — sama seperti regulator memulai upaya selama bertahun-tahun untuk meningkatkan pengawasan terhadap raksasa pencarian itu.

Obrolan GPT-4 Layak Ditingkatkan? | Teknologi Masa Depan

Sekarang setelah dua tahun di Google, Leathern keluar. Dia tweeted bahwa Jumat adalah hari terakhirnya di perusahaan. Leathern setuju untuk berbicara di telepon dengan Gizmodo, dan meskipun dia tidak menjelaskan mengapa dia meninggalkan Google atau ke mana dia akan pergi selanjutnya, dia memiliki banyak hal untuk dikatakan tentang satu topik: hari ini, publik menghadapi masalah besar di teknologi besar. ingin berbicara tentang kecerdasan buatan.

Latar belakang Leathern memberinya wawasan yang tidak biasa tentang apa yang harus terjadi saat dunia memikirkan alat-alat seperti ChatGPT dan bagaimana bisnis seperti OpenAI tumbuh secara eksponensial.

Di awal 2010-an, optimisme buta dan uang cepat di Silicon Valley melindungi raksasa teknologi dari kritik. Semuanya berbeda sekarang. Hampir secepat chatbot AI menarik perhatian publik, kami mulai berbicara tentang apakah teknologi tersebut akan menghancurkan kita semua. Dalam waktu dekat, perusahaan seperti OpenAI, Google, dan Microsoft perlu meningkatkan program yang memungkinkan mereka untuk mengatakan “kami mendengar kekhawatiran Anda, tetapi jangan khawatir, kami telah mengendalikan semuanya”. Leathern tahu bagaimana menjalankan operasi semacam itu.

G/O Media dapat memperoleh komisi

Wawancara ini telah sedikit diedit untuk kejelasan.

Thomas Germain: Melihat beberapa tahun terakhir karir Anda, Anda adalah seseorang yang melompat dari satu perusahaan ke perusahaan lain untuk mengatasi beberapa masalah sosial terbesar di dunia teknologi. Bagaimana Anda melihat momen yang kita lalui bersama AI?

Rob Leathern: Ya. Saya bergabung dengan Facebook untuk mengerjakan hal-hal integritas pada tahun 2017, dan itu mengingatkan saya pada situasi kami saat itu. AI terasa seperti media sosial pada tahun 2015 atau 2016, ada peluang untuk membangun banyak sistem untuk mengatasi masalah besar, tetapi belum ada yang melakukannya. Saya pikir kita berada pada titik belok yang sama, tetapi kita bergerak lebih cepat. Maksud saya, alat-alat ini, pada dasarnya, memiliki lebih banyak loop umpan balik yang tertanam di dalamnya. Laju perubahan itu gila, jadi inilah saat yang tepat untuk memikirkan hal ini.

TG: Jadi saya tahu Anda bukan ahli teknis AI, tetapi sebagai orang dalam teknologi, apakah Anda memiliki pemikiran tentang seberapa jauh kita melampaui Rubicon?

RL: Saya pikir ada orang yang memiliki posisi yang lebih baik untuk menjawab pertanyaan itu daripada saya, tetapi yang dapat saya katakan adalah ada momentum yang luar biasa yang menciptakan tekanan bagi orang-orang di kedua sisi, dan dorongan untuk bergerak cepat membuat saya khawatir. Ada banyak tekanan bagi perusahaan untuk terus membuat kemajuan, memikirkan cara melatih model berikutnya, atau mencapai pencapaian berikutnya.

Lalu apa yang saya lihat dari pekerjaan saya tentang privasi selama enam tahun terakhir adalah ada tekanan di sisi lain dari koin juga. Regulator juga bersaing satu sama lain, dan semua orang ingin terlihat mendorong kemajuan ini. Dengan kata lain, ada insentif yang bersaing di segala arah untuk bergerak lebih cepat dan kurang hati-hati daripada yang mungkin Anda lakukan. Pada saat yang sama, beberapa perusahaan juga memiliki tekanan untuk menahan beberapa hal lebih dari yang mereka inginkan.

TG: Benar, ada ketegangan nyata di sana. OpenAI memiliki insentif untuk bergerak secepat mungkin untuk membuktikannya sebagai pemimpin. Pemain yang lebih tua seperti Google dan Microsoft telah menunjukkan bahwa mereka mengikuti, tetapi mereka memiliki lebih banyak tanggung jawab untuk terlihat bergerak dengan hati-hati dan metodis.

RL: Ya, akan sangat menarik untuk menyaksikan dinamika itu dimainkan. Perusahaan yang lebih besar berada di bawah pengawasan yang lebih ketat, jadi mereka harus bergerak lebih lambat dan memiliki check and balances. Dalam beberapa kasus, itu akan menyebabkan orang-orang berbakat menjadi frustrasi dan ingin pergi. Sungguh, itu adalah efek limpahan dari tantangan masa lalu yang mereka hadapi seputar masalah seperti privasi dan keamanan, dan peraturan yang dihasilkan darinya. Itu berdampak besar pada kelincahan mereka.

TG: Bagaimana perusahaan yang mengerjakan keseimbangan AI bergerak dengan cepat dan bergerak secara bertanggung jawab?

RL: Kami berada di titik transisi di mana, Anda tahu, peneliti etika AI yang telah menulis buku putih telah melakukan pekerjaan yang hebat. Namun mungkin sekaranglah waktunya untuk beralih ke orang-orang yang memiliki lebih banyak pengalaman langsung dengan keamanan, integritas, dan kepercayaan. Ini akan menyentuh banyak area berbeda. Ini bisa berupa hal-hal kecil seperti memantau identitas pengembang di ekosistem API [the systems that let outside companies access a tech company’s products]. Itulah satu hal yang muncul dari isu Cambridge Analytica di Facebook, misalnya. Anda harus mulai menempatkan orang-orang itu, dan anggapan saya adalah bahwa mereka belum cukup baik dalam hal AI di sebagian besar perusahaan teknologi besar ini.

TG: Melihat percakapan seputar AI, sepertinya kami melakukan percakapan ini jauh lebih awal dalam prosesnya daripada yang kami lakukan dengan media sosial sepuluh tahun lalu. Apakah itu karena kita telah mempelajari beberapa pelajaran, atau karena teknologinya bergerak begitu cepat?

RL: Saya pikir ini sedikit dari keduanya, dan bukan hanya kecepatannya, tetapi aksesibilitas sistem ini. Fakta bahwa begitu banyak orang telah bermain dengan MidJourney atau ChatGPT memberi orang gambaran tentang kelebihan dan kekurangan teknologi tersebut.

Saya pikir kami juga telah belajar beberapa pelajaran dari masa lalu. dan kami telah melihat berbagai perusahaan membuat mekanisme untuk mengatasi masalah ini. Seluruh generasi insinyur, manajer produk, desainer, dan ilmuwan data mengerjakan masalah sosial ini dalam konteks jejaring sosial, baik itu privasi, moderasi konten, informasi yang salah, atau apa pun yang Anda miliki.

TG: Seperti banyak masalah ini, beberapa — tetapi tidak semua — kekhawatiran tentang AI tidak jelas dan hipotetis. Apa hal besar yang kamu khawatirkan?

RL: Semua orang sangat fokus pada perubahan besar, tapi menurut saya menarik untuk melihat beberapa hal yang akan terjadi dalam skala mikro. Saya pikir masalahnya akan jauh lebih halus daripada biasanya. Ambil sisi lain dari pemalsuan yang dalam. Kami telah mendengar tentang konten pemasaran air dari ChatGPT atau generator gambar, tetapi apa yang akan Anda buktikan bahwa gambar yang Anda ambil adalah foto asli. Menandai gambar dengan lokasi dan semacam pengenal pribadi adalah salah satu solusi, tetapi kemudian Anda membuat sinyal baru yang dapat menimbulkan masalah privasi.

Kekhawatiran lain yang tidak jelas adalah bahwa siapa pun dapat menggunakan versi gratis dari alat ini, tetapi versi berbayar dan lebih kuat kurang dapat diakses. AI berpotensi bermasalah dari perspektif ekuitas, menciptakan cara lain bagi orang kaya untuk mendapatkan keuntungan. Itu akan terjadi dengan individu, tetapi juga dengan bisnis di sisi klien. Teknologi ini akan semakin memisahkan si kaya dan si miskin.

TG: Mengingat sifat dari teknologi ini, sulit untuk membayangkan apa yang dapat dilakukan regulator tentang hal itu. Pemerintah ramah bisnis di Amerika Serikat, misalnya, tidak akan melarang teknologi ini. Apakah sudah terlambat?

RL: Ya, ada persyaratan yang menurut Anda dapat diberlakukan oleh pemerintah. Mungkin Anda harus mendaftarkan teknologi Anda, misalnya, jika Anda menggunakan lebih dari x jumlah GPU atau metrik apa pun yang tepat. Tapi Anda masih akan memiliki orang yang menjalankan teknologi tanpa izin mereka di ruang bawah tanah, dan skema apa pun yang kami buat, pemerintah asing tidak akan peduli. Saya pikir sampai batas tertentu pasta giginya keluar dari tabungnya, dan akan sulit untuk memasukkannya kembali ke sana.

TG: Saya telah melaporkan privasi selama lebih dari satu dekade. Di arena itu, rasanya baru setahun belakangan regulator dan pembuat undang-undang benar-benar menggenggam ekonomi digital untuk pertama kalinya. AI adalah masalah yang lebih besar untuk membungkus kepala Anda. Apakah Anda berharap tentang kemampuan untuk mengatur ruang ini? Prospeknya terasa sangat buruk.

RL: Kami berada dalam waktu yang sangat menantang. Saya pikir kita akan berakhir dengan tambalan peraturan yang hanya disalin dan ditempel dari hal-hal lain yang tidak cocok satu sama lain. Tetapi orang lebih terbiasa dengan fakta dari situasi ini. Saya tidak berpikir jawaban yang tepat adalah membuat pernyataan kosong bahwa kita perlu memperlambat segalanya, karena sekali lagi, aktor yang kurang niat baik seperti China akan bergerak maju.

Satu pelajaran menarik yang datang dari bekerja pada privasi dan keamanan adalah bahwa pada masa-masa awal, Anda memiliki orang-orang yang melihat betapa buruknya celah itu, dan mereka cenderung menutup semuanya. Tetapi agar efektif dalam peran ini, Anda harus memiliki apresiasi terhadap risiko penurunan maupun potensi kenaikan. Saya dulu mengatakan Anda harus menjadi pesimis yang optimis. Ada peluang untuk membuat aturan, kebijakan, dan implementasi yang benar-benar memungkinkan hal-hal baik berkembang sambil tetap mengurangi kerugiannya.

TG: Itu perspektif yang cukup ramah industri, tetapi Anda ada benarnya. Pemerintah kami tidak akan menutup OpenAI. Satu-satunya harapan adalah solusi yang bekerja di dalam sistem.

RL: Benar. Jika Anda mengambil pendekatan ‘matikan semuanya’, antara lain, itu tidak akan terjadi. Anda membutuhkan orang-orang yang bermusuhan, tetapi Anda juga membutuhkan orang-orang yang optimis dalam portofolio Anda. Dan lihat, hal lain yang juga benar adalah sangat sulit, bukan? Karena Anda membuat hal-hal yang belum pernah ada sebelumnya. Tidak selalu ada analog yang bagus untuk sesuatu seperti ‘bagaimana cara membuat alat tertentu menjadi pribadi?’ Dan seperti yang biasa saya katakan ketika saya berbicara atas nama Facebook, Anda akan benar-benar takjub melihat betapa inovatifnya orang-orang jahat itu. Mereka juga melakukan tinjauan insiden. Mereka berbagi pengetahuan dan data. Ini akan menjadi ruang yang sangat bermusuhan.

TG: Saya ingin bertanya tentang topik yang sama sekali berbeda jika Anda menuruti saya, dan itu adalah TikTok. Apa yang saya katakan dalam laporan saya adalah banyak kekhawatiran yang berlebihan, dan diskusi tentang pelarangan TikTok atau ByteDance tampak seperti latihan yang tidak berguna mengingat betapa bocornya teknologi periklanan. Tapi Anda punya perspektif dari dalam bisnis teknologi. Apakah aku salah?

RL: Pendapat Anda sesuai dengan perasaan saya tentang hal ini. Begini, penting untuk, Anda tahu, mengajukan pertanyaan tentang kepemilikan dan struktur organisasi ini. Tapi saya setuju, gagasan larangan tidak akan memiliki semua manfaat yang dianggap sebagian orang. Perusahaan seperti TikTok perlu memiliki cerita yang lebih baik, dan realitas yang lebih baik, tentang kepemilikan dan kontrol, dan ke mana data orang pergi, dan apa pengawasan dan kontrolnya. Tapi melarangnya sepertinya bukan solusi yang tepat.

TG: Di sisi lain, Anda mendengar TikTok berbicara tentang ‘Project Texas’ ini, di mana mereka berencana untuk menampung semua data di server di AS. Dan tentu, itu ide yang bagus, Anda mungkin juga. Tetapi berbicara tentang lokasi fisik server seolah-olah itu akan meyakinkan siapa pun tampaknya konyol. Apakah itu terasa berarti bagi Anda?

RL: Sistem ini rumit, dan mengatakan oh semuanya ada di server X versus server Y tidak masalah. Apa yang lebih meyakinkan adalah pengawasan tambahan, tetapi sekali lagi, hal-hal itu juga cukup menantang untuk disiapkan. Orang-orang mencari tingkat kepastian tentang masalah ini yang sulit didapat. Nyatanya, kepastian apa pun yang kita dapatkan mungkin hanya halusinasi.

Ingin tahu lebih banyak tentang AI, chatbots, dan masa depan pembelajaran mesin? Lihat liputan lengkap kami tentang kecerdasan buatan, atau telusuri panduan kami ke Generator Seni AI Gratis Terbaik dan Semua yang Kami Ketahui Tentang ChatGPT OpenAI.