Sam Altman dari OpenAI Mengatakan Tidak Ada Obrolan GPT-5 yang Perlu Dikhawatirkan … Belum

Sam Altman telah meredam desas-desus bahwa OpenAI sudah mengerjakan ChatGPT-5, hanya sebulan setelah perusahaan merilis GPT-4-nya. Saat ini belum ada GPT-5 dalam pelatihan, kata Altman saat berbicara secara virtual di sebuah acara di Massachusetts Institute of Technology.

Peringatan! Microsoft Ingin ChatGPT Mengontrol Robot Selanjutnya

Pewawancara Lex Fridman, seorang peneliti AI di MIT, meminta pendapat Altman tentang surat terbuka yang baru-baru ini dirilis dan diedarkan secara luas yang menuntut jeda AI. Sebagai tanggapan, pendiri OpenAI membagikan beberapa kritiknya. “Versi sebelumnya dari surat itu mengklaim OpenAI sedang melatih GPT-5 sekarang. Kami tidak, dan tidak akan melakukannya untuk beberapa waktu, ”kata Altman. “Jadi dalam pengertian itu, [the letter] agak konyol.

Tapi, GPT-5 atau tidak, pernyataan Altman sepertinya tidak akan meyakinkan kritik AI, seperti yang pertama kali ditunjukkan dalam laporan dari Verge. Pendiri teknologi menindaklanjuti pengumuman “no GPT-5” dengan segera mengklarifikasi bahwa pemutakhiran dan pembaruan sedang dikerjakan untuk GPT-4. Ada cara untuk meningkatkan kapasitas teknologi selain merilis versi resmi dengan angka lebih tinggi.

“Kami melakukan hal-hal lain di atas GPT-4 yang menurut saya memiliki segala macam masalah keamanan yang penting untuk ditangani dan benar-benar diabaikan,” kata Altman—intinya, mengakui bahwa OpenAI mengirimkan tweak produk itu mungkin tidak sepenuhnya dioptimalkan untuk kebaikan kemanusiaan atau keselamatan pengguna. Misalnya, pada akhir Maret, perusahaan merilis plug-in untuk GPT-4 yang memungkinkan model bahasanya yang besar menjelajahi internet, yang dapat menyebabkan lebih banyak masalah privasi data dan manipulasi pengguna.

Altman melakukan sedikit upaya untuk meredakan ketakutan AI. Dia mengatakan bahwa OpenAI menghabiskan lebih dari enam bulan untuk melatih GPT-4 sebelum dirilis ke publik. Dia juga mencatat bahwa, “meluangkan waktu untuk benar-benar mempelajari keamanan model…itu penting.”

“Ketika kemampuan semakin serius, bar keselamatan harus ditingkatkan,” tambah Altman. “Saya pikir bergerak dengan hati-hati dan meningkatkan ketelitian untuk masalah keselamatan sangatlah penting. Surat itu, menurut saya bukan cara yang optimal untuk mengatasinya.

Namun Anda mungkin harus menerima klaim prioritas keselamatan CEO OpenAI dengan skeptis. Bahkan dalam wawancara MIT hari Kamis, tidak semua yang dikatakan pengusaha kontroversial itu benar.

Ditanya apakah OpenAI akan terus transparan ke depannya, Altman berkata “kami pasti berencana untuk terus melakukan itu.” Kecuali pertanyaannya sendiri adalah softball yang menyesatkan. OpenAI, yang dulunya merupakan organisasi nirlaba yang benar-benar open source, telah menjadi perusahaan nirlaba yang semakin tertutup. GPT-4, khususnya, adalah kotak hitam. Perusahaan belum merilis informasi apa pun tentang data pelatihan yang disetel dengan baik oleh chatbot terbarunya. Juga tidak membagikan informasi apa pun tentang arsitektur, konstruksi, atau pekerjaan internal GPT-4 lainnya.

“Mengingat lanskap persaingan dan implikasi keselamatan dari model berskala besar seperti GPT-4, laporan ini tidak berisi detail lebih lanjut tentang arsitektur (termasuk ukuran model), perangkat keras, komputasi pelatihan, konstruksi set data, metode pelatihan, atau yang serupa,” OpenAI menulis dalam laporan teknis yang diterbitkan perusahaan bersamaan dengan rilis GPT-4.

Altman juga yakin akan memberikan dirinya jalan keluar. Hal-hal yang dia katakan, dia mungkin tidak yakin itu benar:

Saya pikir banyak perusahaan lain tidak mau mengatakan sesuatu sampai mereka yakin itu benar. Tapi saya pikir teknologi ini akan sangat mempengaruhi kita semua, sehingga kita percaya bahwa melibatkan semua orang dalam diskusi, menempatkan sistem ini ke dunia—sangat tidak sempurna meskipun dalam keadaan mereka saat ini—sehingga orang bisa mengalaminya, pikirkan tentang mereka, pahami kelebihan dan kekurangannya; Ini sepadan dengan trade-off, meskipun kita cenderung mempermalukan diri kita sendiri di depan umum dan harus sering berubah pikiran dengan data baru.

Anda mungkin percaya AI chatbots adalah awal dari akhir umat manusia. Atau Anda mungkin berpikir bahwa semua yang disebut “kecerdasan buatan” ini dilebih-lebihkan. Terlepas dari di mana Anda berdiri atas panggilan untuk moratorium AI enam bulan, jawaban Altman untuk surat terbuka itu, pada akhirnya, adalah sesuatu yang tidak dijawab.