Apa yang diketahui GPT-3 tentang Melissa Heikkilä

Berita43 Dilihat

Kekuatan model bahasa besar didasarkan pada pelatihan dengan sejumlah besar teks dari Internet. Semakin banyak peneliti yang memperingatkan hal itu – bahwa AI dapat diretas dan dipaksa untuk mengeluarkan data pelatihan mereka. Juga sensitif, data pribadi. “Itu membuat saya berpikir: Data apa yang dimiliki model ini tentang saya?” tulis Melissa Heikkilä di edisi terkini Tinjauan Teknologi MIT. “Pertanyaannya memiliki latar belakang yang serius: Dan sejak pengalaman drastis sekitar sepuluh tahun yang lalu, saya menjadi sedikit paranoid ketika harus mengumumkan sesuatu tentang kehidupan pribadi saya.”

Saat ditanya “Siapakah Melissa Heikkilä?” Misalnya, GPT-3 menjawab: “Melissa Heikkilä adalah jurnalis dan penulis Finlandia yang menulis tentang ekonomi dan politik Finlandia”. Namun, setelah beberapa kali mencoba, dengan cepat menjadi jelas bahwa model tersebut berimprovisasi dan mengklasifikasikan penulis sebagai ratu kecantikan atau sebagai penyanyi di band hard rock.

Florian Tramèr dari ETH Zurich berpendapat bahwa masalahnya akan semakin parah seiring berjalannya waktu. “Sepertinya orang tidak benar-benar menyadari betapa berbahayanya itu,” katanya. Model bahasa besar yang dilatih pada data pribadi dalam jumlah besar menimbulkan risiko besar. Dan meskipun model tampaknya memuntahkan informasi yang mereka latih secara acak, Tramèr mengatakan sangat mungkin bahwa model mengetahui lebih banyak tentang orang di balik data daripada yang saat ini jelas. “Ini adalah salah satu dari sedikit masalah yang semakin parah karena model ini semakin besar,” kata Tramèr. Ini bukan hanya tentang informasi pribadi. Catatan juga kemungkinan akan mencakup data hak cipta, seperti kode sumber dan buku, kata Tramèr.

TR Cover 8 22 b48ad752bd6db950

Silicon Valley adalah “klub pria kulit putih” dan oleh karena itu sangat menunjukkan representasi wanita di industri teknologi dan sains. Isu baru MIT Technology Review adalah tentang kesenjangan gender ini. Masalah baru keluar pada 10 November. di toko-toko dan dari 9.11. mudah dipesan di toko heise. Sorotan dari majalah:

Model bahasa besar seperti GPT-3 dilatih untuk mengisi celah dalam kalimat secara bermakna. Arsitektur transformer mereka memastikan bahwa jaringan juga dapat mempelajari hubungan antara kata dan kalimat yang terpisah lebih jauh. Jika Anda memberikan model bahasa pra-latih yang besar sebuah kalimat dimulai, model tersebut memprediksi kata berikutnya dan memasukkannya kembali ke dalam model. Dengan ini, ia mampu menghasilkan teks yang sangat mirip manusia.

Sebenarnya, model-model ini harus menghasilkan teks baru dan tidak hanya memuntahkan potongan-potongan contoh yang dipelajari. Dengan prompt yang tepat, awal kalimat yang benar, Anda dapat menggoda mereka untuk melengkapi nomor telepon, alamat, atau yang serupa. Kesulitan penyerang adalah untuk mengenali apakah output dari model diciptakan atau benar-benar berasal dari data pelatihan (Serangan Keanggotaan). Kemudian prompt harus ditemukan yang mengungkapkan sebanyak mungkin contoh pelatihan ini.

Pada tahun 2019, Nicholas Carlini dari Google Brain dan rekannya mengembangkan metode yang memberikan indikasi kuat apakah informasi tersebut nyata atau halusinasi dari model: Mereka menghitung kebingungan kalimat keluaran – ukuran ketidakpastian mesin dalam menyusun kalimat. Semakin rendah ukuran ini, semakin yakin model tersebut bahwa kalimatnya benar – dan dengan demikian lebih mungkin berasal langsung dari dataset pelatihan.

Atas dasar ini, Florian Tramèr dan rekannya secara sistematis memeriksa data pelatihan mana mereka dapat memperoleh dari model bahasa GPT-2. Sementara itu, serangan lebih lanjut telah dibuktikan oleh tim peneliti. Jika penyerang memiliki akses ke data pelatihan, misalnya, dia juga dapat menyuntikkan “data yang diracuni”. Jika model bahasa, seperti Copilot dari Github, digunakan sebagai bantuan pemrograman, Anda dapat memastikan, misalnya, bahwa AI secara sistematis menyarankan pustaka perangkat lunak yang disarankan penyerang sebelumnya dilengkapi dengan pintu belakang.


svg%3E

TR Artikelbanner 61cc0f8a0610a4d5


(barat)

Ke halaman rumah

Komentar