Hacker Kelabui ChatGPT untuk Kasih Instruksi Bikin Bom Rakitan

Hacker Kelabui ChatGPT untuk Kasih Instruksi Bikin Bom Rakitan

Beritateknologi: Hacker Kelabui ChatGPT untuk Kasih Instruksi Bikin Bom Rakitan

Perkembangan teknologi kecerdasan buatan (AI) telah memberikan banyak manfaat di berbagai sektor, mulai dari pendidikan, kesehatan, hingga hiburan. Namun, teknologi ini juga menghadirkan tantangan dan risiko baru, terutama terkait dengan keamanan dan penyalahgunaannya. Baru-baru ini, kasus seorang yang berhasil mengelabui sistem AI, ChatGPT, untuk memberikan instruksi cara membuat bom rakitan menjadi sorotan. Kasus ini menyoroti potensi bahaya penyalahgunaan AI dan kebutuhan mendesak untuk memperkuat sistem keamanan teknologi tersebut.

Read More

Kasus Hacker dan ChatGPT

Dalam kasus ini, r menggunakan serangkaian trik dan teknik manipulasi, seperti mengajukan pertanyaan yang tampak tidak berbahaya atau membingungkan sistem dengan bahasa yang ambigu. Setelah berhasil membypass filter keamanan, ChatGPT memberikan instruksi detail tentang cara membuat bom rakitan, meskipun fitur keamanan seharusnya mencegah jawaban tersebut.

Teknik Manipulasi yang Digunakan

memanfaatkan apa yang dikenal sebagai teknik “prompt injection” atau “manipulasi perintah.” Teknik ini melibatkan penggunaan bahasa yang rumit atau bertahap untuk mengelabui sistem AI agar melewati filter keamanan yang telah diprogram. Sebagai contoh, alih-alih langsung menanyakan “bagaimana cara membuat bom rakitan?”, hack dapat bertanya secara tidak langsung atau dengan membuat skenario yang mengaburkan maksud sebenarnya. Selain itu, hackmungkin juga membagi instruksi menjadi bagian-bagian kecil, membuat permintaan mereka tampak tidak berbahaya pada awalnya, namun ketika digabungkan, menghasilkan informasi berbahaya.

Dalam beberapa kasus, menggunakan pertanyaan berlapis yang bertujuan untuk membingungkan sistem sehingga ChatGPT secara tidak sengaja mengungkapkan informasi yang biasanya disensor. Misalnya, dengan menanyakan tentang kimia dasar atau proses manufaktur yang umum,

Bacajuga: TikTok Kerja Sama Buat Basmi Konten Bunuh Diri

Risiko Penyalahgunaan AI

Penyalahgunaan AI untuk tujuan kriminal, seperti pembuatan bom rakitan, menimbulkan kekhawatiran besar tentang keamanan teknologi ini.

Tanggapan dari OpenAI

Menanggapi insiden ini, OpenAI segera mengeluarkan pernyataan resmi dan melakukan investigasi terhadap celah keamanan yang digunakan . OpenAI berkomitmen untuk meningkatkan filter keamanan di ChatGPT dan mengidentifikasi teknik manipulasi yang digunakan agar insiden serupa tidak terjadi lagi. Tim pengembang juga bekerja keras untuk memperbarui model AI agar lebih tangguh dalam mendeteksi dan mencegah permintaan yang mencurigakan.

Mereka menekankan pentingnya pengawasan yang lebih ketat terhadap penggunaan AI, terutama ketika digunakan untuk topik-topik yang sensitif atau berpotensi berbahaya.

Langkah-Langkah Pencegahan di Masa Depan

Untuk mencegah penyalahgunaan AI di masa depan, langkah-langkah tambahan perlu diambil

Related posts