Penghapusan data pada model AI mengancam kinerja model

penghapus-data-pada-model-ai-mengancam-kinerja-model

beritateknologi.co.idmodel AI mengancam kinerja model

Pendahuluan Teknik Unlearning

Teknik unlearning dirancang untuk membuat model melupakan informasi spesifik yang diambil dari data pelatihan, seperti data pribadi yang sensitif atau materi berhak cipta. Namun, penelitian terbaru menunjukkan bahwa teknik ini dapat menurunkan kinerja model secara signifikan.

Penelitian tentang Teknik Unlearning

Studi yang dilakukan oleh para peneliti dari University of Washington (UW), Princeton, University of Chicago, University of Southern California (USC), dan Google menunjukkan bahwa teknik unlearning tidak hanya menghapus data yang diinginkan tetapi juga mengurangi kemampuan model dalam menjawab pertanyaan dasar.

Tantangan dalam Implementasi Teknik Unlearning

Dilansir dari TechCrunch (30/7), teknik unlearning dirancang untuk menghapus informasi spesifik dari data pelatihan. Weijia Shi, peneliti studi dan kandidat Ph.D. di bidang ilmu komputer di UW, menyatakan bahwa metode unlearning yang ada saat ini belum siap untuk digunakan dalam situasi dunia nyata. Tidak ada metode yang efisien yang memungkinkan model melupakan data spesifik tanpa kehilangan utilitas secara signifikan.

Kontroversi Hak Cipta dan Praktik Pelatihan Model AI

Model AI generatif, seperti GPT-4 dan Llama 3.1 405B, dilatih menggunakan data dari berbagai sumber publik di internet. Praktik ini menimbulkan kontroversi terkait hak cipta, dan banyak pemegang hak cipta telah mengajukan tuntutan hukum terhadap perusahaan teknologi yang menggunakan data mereka tanpa izin atau kompensasi.

Dilema Hak Cipta dan Teknik Unlearning

Dilema hak cipta ini mendorong perhatian lebih terhadap teknik unlearning. Tahun lalu, Google bekerja sama dengan beberapa institusi akademis untuk meluncurkan kompetisi yang bertujuan mendorong pengembangan pendekatan unlearning baru. Teknik ini diharapkan bisa menghapus informasi sensitif dari model yang ada.

Evaluasi Efektivitas Teknik Unlearning

Meskipun demikian, unlearning tidak semudah menekan tombol “hapus”. Teknik ini bergantung pada algoritma yang dirancang untuk “mengalihkan” model dari data yang ingin dihapus. Peneliti menggunakan benchmark yang disebut MUSE (Machine Unlearning Six-way Evaluation) untuk menguji efektivitas delapan algoritma unlearning yang ada. MUSE mengevaluasi kemampuan algoritma untuk mencegah model mengeluarkan data pelatihan secara verbatim dan menghilangkan pengetahuan model tentang data tersebut.

Hasil Penelitian dan Tantangan ke Depan

Studi menunjukkan bahwa algoritma unlearning berhasil membuat model melupakan informasi tertentu. Namun, teknik ini juga mengurangi kemampuan model dalam menjawab pertanyaan secara umum, menunjukkan adanya trade-off signifikan. “Merancang metode unlearning yang efektif sangat menantang karena pengetahuan dalam model sangat terkait erat,” jelas Shi.

Kesimpulan

Saat ini, vendor yang mengandalkan unlearning sebagai solusi untuk masalah data pelatihan mereka tampaknya belum menemukan solusi yang memadai. Meskipun mungkin akan ada terobosan teknis di masa depan yang membuat unlearning menjadi layak, untuk saat ini, vendor harus mencari cara lain untuk mencegah model mereka mengatakan hal-hal yang tidak seharusnya.

baca juga :

Related posts