OpenAI Temukan Alasan yang Tepat Mengapa AI Berhalusinasi

OpenAI Temukan Alasan yang Tepat Mengapa AI Berhalusinasi. JAKARTA – Teknologi kecerdasan buatan (AI) terus berkembang pesat dalam beberapa tahun terakhir, namun tidak lepas dari berbagai tantangan. Salah satu permasalahan terbesar adalah fenomena halusinasi atau penyajian informasi yang tidak sesuai fakta, yang kini menjadi perhatian serius para peneliti.

OpenAI luncurkan SearchGPT
Foto: OpenAI

JAKARTA – Sejak diluncurkan tiga tahun lalu, ChatGPT memiliki masalah dalam menampilkan fakta yang salah.

Read More

Contoh utamanya adalah seseorang yang mengaku sebagai pendiri situs teknologi saingan padahal ia tidak pernah bekerja untuk perusahaan penerbitan tersebut. Ini adalah masalah halusinasi yang terjadi pada semua model kecerdasan buatan (AI), dan mengapa hal ini terjadi telah menjadi misteri sejak lama. Para peneliti di OpenAI menerbitkan sebuah makalah akhir pekan lalu yang berhipotesis bahwa halusinasi terjadi karena proses pra-pelatihan model AI berfokus pada upaya model untuk memprediksi kata berikutnya dengan tepat, terlepas dari apakah kata tersebut benar atau salah.

Baca Juga: Berita Teknologi!

Model-model tersebut dilatih untuk memberikan jawaban dalam bentuk apa pun dan tidak disarankan untuk mengatakan bahwa mereka tidak tahu. Dalam evaluasi model, AI diberi nilai tinggi untuk jawaban yang benar. Dalam situasi di mana AI harus menjawab pertanyaan, ia akan memilih untuk menebak jawaban yang tidak diketahui dengan probabilitas benar, alih-alih memilih untuk tidak menjawab dan mendapatkan skor nol. Para peneliti kini mengusulkan bahwa dalam evaluasi model, jawaban yang salah akan menerima nilai negatif, sementara jawaban salah yang diberikan dengan percaya diri karena halusinasi akan diberikan pengurangan nilai yang lebih tinggi. Setengah poin akan diberikan jika model mengaku tidak tahu. Dengan ini, model AI yang dilatih memiliki insentif untuk selalu memberikan jawaban yang benar. Di masa mendatang, masalah halusinasi dapat dikurangi dengan sistem pelatihan model AI yang lebih baik.

Dengan adanya usulan sistem evaluasi baru yang memberikan nilai negatif pada jawaban salah dan penghargaan bagi model yang mengaku tidak tahu, diharapkan masalah halusinasi dapat diminimalisasi. Upaya ini menjadi langkah penting dalam menciptakan AI yang lebih akurat, dapat dipercaya, dan bermanfaat bagi masyarakat di masa depan.

Baca Juga: Sang Penenun Mitos: Kisah di Balik Liang Wenfeng, Sosok No. 1 di Daftar TIME 100 AI

Related posts