Semakin banyak perusahaan yang memasukkan AI ke dalam aplikasi dan platform mereka harus membuat dan terus mengubah solusi mereka sendiri untuk menghadapi kecenderungan AI untuk berbohong, menipu, bergaya, meminjam, atau barter. Sekarang, Nvidia ingin memberi lebih banyak pengembang cara yang lebih mudah untuk memberi tahu AI agar menutup jebakannya.
Peringatan! Microsoft Ingin ChatGPT Mengontrol Robot Selanjutnya
Pada hari Selasa, Nvidia membagikan apa yang disebut “NeMo Guardrails” yang digambarkan perusahaan sebagai semacam bot sensor satu ukuran untuk semua untuk aplikasi yang didukung oleh model bahasa besar. Perangkat lunak ini open source, dan seharusnya ditempatkan di atas toolkit modern yang sering digunakan seperti LangChain. Menurut blog teknis perusahaan, NeMo menggunakan sub-sistem khusus AI yang disebut Colang sebagai semacam antarmuka untuk menentukan jenis pembatasan keluaran AI yang ingin dimiliki setiap aplikasi.
Mereka yang menggunakan NeMo dapat membantu chatbots tetap pada topik dan mencegahnya memuntahkan informasi yang salah, menawarkan tanggapan rasis yang beracun atau terang-terangan, atau dari melakukan tugas seperti membuat kode berbahaya. Nvidia mengatakan bahwa itu sudah digunakan dengan perusahaan aplikasi web akhir bisnis Zapier.
Wakil Presiden Riset Terapan Nvidia Jonathan Cohen mengatakan kepada TechCrunch bahwa meskipun perusahaan telah mengerjakan sistem Pagar Pembatas selama bertahun-tahun, mereka menemukan setahun yang lalu sistem ini akan bekerja dengan baik untuk model GPT OpenAI. Halaman NeMo mengatakan itu berfungsi di atas model bahasa lama seperti GPT-3 OpenAI dan T5 Google. Nvidia mengatakan itu juga berfungsi di atas beberapa model pembuatan gambar AI seperti Stable Diffusion 1.5 dan Imagen. Seorang juru bicara Nvidia mengonfirmasi kepada Gizmodo bahwa NeMo seharusnya bekerja dengan “semua LLM utama yang didukung oleh LangChain, termasuk GPT-4 OpenAI.”
DIJUAL SEKARANG
Dua dari VPN Favorit Kami
Lindungi data pribadi Anda
Kami berbagi dan mengakses banyak sekali data pribadi setiap hari yang dapat menyebabkan beberapa masalah besar jika info tersebut jatuh ke tangan yang salah.
Namun, masih belum jelas seberapa baik yang bisa dicapai oleh pagar pembatas sumber terbuka. Meskipun kami mungkin tidak mendapatkan “GPT-5” dalam waktu dekat, OpenAI telah mencoba memasarkan model GPT-4 secara massal dengan akses API-nya. Stabilitas AI, pembuat Stable Diffusion, juga mengarah ke bisnis dengan model “XL”. Kedua perusahaan telah mencoba meyakinkan pelanggan bahwa sudah ada blok pada konten buruk yang ditemukan di kedalaman data pelatihan AI, meskipun dengan GPT-4 khususnya, kami terpaksa mengambil kata-kata OpenAI untuk itu.
Dan bahkan jika itu diimplementasikan dalam perangkat lunak yang paling mendukungnya, seperti LangChain, NeMo tidak akan menangkap semuanya. Perusahaan yang telah menerapkan sistem AI telah menemukan cara yang sulit. Bing AI dari Micorosoft memulai perjalanannya awal tahun ini, dan pengguna segera menemukan cara untuk menyalahgunakannya untuk mengatakan “Heil Hitler” dan membuat pernyataan rasis lainnya. Setiap pembaruan yang memberi AI sedikit lebih banyak ruang gerak membuktikan bagaimana AI-nya dapat dieksploitasi.
Dan bahkan jika AI memiliki pemblokiran eksplisit untuk konten tertentu, itu tidak berarti itu selalu sempurna. Minggu lalu, Snapchat mengeluarkan chatbot berbasis ChatGPT “My AI” dari beta dan memaksanya ke semua penggunanya. Satu pengguna membuktikan bahwa mereka dapat memanipulasi AI untuk mengucapkan kata-n, meskipun upaya pengguna lain dengan prompt yang sama digagalkan oleh blok yang ada di AI.
Inilah sebabnya mengapa sebagian besar implementasi AI dirilis dalam format “beta”. Google menyebut rilis Bard AI-nya sebagai “ujian” sambil terus mencoba berbicara tentang pengembangan AI yang “bertanggung jawab”. Microsoft meluncurkan Bing AI-nya berdasarkan ChatGPT OpenAI ke sejumlah pengguna terbatas untuk memulai. Chatbots AI modern adalah jenis pembohong terburuk. Mereka berbohong bahkan tanpa mengetahui apa yang mereka katakan tidak benar. Mereka dapat memposting konten berbahaya, berbahaya, dan seringkali tidak masuk akal tanpa memahami apa pun yang dikatakannya.
AI chatbots lebih buruk daripada anak mana pun yang meneriakkan kata-kata kotor di Walmart karena anak tersebut pada akhirnya bisa belajar. Jika dipanggil, AI akan berpura-pura meminta maaf, tetapi tanpa mengubah data atau proses pembelajaran AI, AI tidak akan pernah berubah. Hal terbaik yang dapat dilakukan sebagian besar pengembang AI untuk menghambat impuls terburuk AI adalah memasukkannya ke dalam kandang seperti yang akan Anda temukan di kandang singa di kebun binatang setempat. Anda membutuhkan tembok tinggi untuk menahan AI, dan meskipun demikian, jangan memasukkan tangan Anda ke dalam jeruji.
Dan Anda tidak bisa melupakan bagaimana ini semua adalah bisnis besar bagi Nvidia. Pagar pembatas ini seharusnya mempromosikan rangkaian perangkat lunak AI perusahaan yang ada untuk bisnis. Nvidia sudah menjadi salah satu pemain terbesar di ruang AI, setidaknya dalam hal perangkat keras. A100 dan chip pelatihan AI H100 yang lebih baru menguasai lebih dari 90% pasar global untuk jenis GPU tersebut. Microsoft dilaporkan telah mencoba menemukan cara untuk membuat chip pelatihan AI sendiri dan keluar dari cengkeraman dominasi Nvidia.