Sebuah lembaga bernama Tenable berhasil mendobrak keamanan ChatGPT5 beberapa hari setelah diluncurkan.
Peluncuran ChatGPT-5: Lompatan Teknologi AI Terbaru
OpenAI resmi meluncurkan GPT-5 pada 7 Agustus 2025, yang diklaim sebagai model bahasa paling canggih dengan kemampuan ahli dalam menulis, pemrograman, matematika, dan sains. GPT-5 juga dipuji memiliki kecepatan, akurasi, dan pemahaman konteks yang lebih baik, serta mengurangi kesalahan informasi (hallucination). Salah satu fitur utama yang diunggulkan adalah teknologi keamanan prompt yang lebih canggih, menggunakan metode baru bernama “safe completions” yang menggantikan pendekatan “refusal-based safety training” terdahulu, dengan harapan mencegah penyalahgunaan model untuk hal ilegal atau merugikan.
Namun, dalam waktu kurang dari 24 jam setelah peluncurannya, tim riset Tenable berhasil melakukan jailbreak pada GPT-5 dengan teknik pendesakan bertahap (crescendo technique). Mereka bisa memancing model ini memberikan instruksi rinci untuk membuat bahan peledak seperti Molotov cocktail melalui serangkaian pertanyaan yang dimulai dari peran sebagai mahasiswa sejarah, memperlihatkan minat pada aspek historis, kemudian secara bertahap meminta detail bahan dan langkah pembuatannya. Hal ini menunjukkan bahwa meskipun OpenAI berusaha memperkuat fitur pengamanan, GPT-5 masih rentan dimanfaatkan untuk keperluan berbahaya.
Selain jailbreak yang dilakukan oleh Tenable, sejumlah pengguna dan peneliti lainnya juga melaporkan masalah pada respons GPT-5. Masalah tersebut mencakup kasus jailbreak dan hallucination, yang menunjukkan tantangan nyata dalam menciptakan AI yang aman dan bertanggung jawab.
OpenAI menyatakan bahwa mereka sedang melakukan perbaikan atas kekurangan ini. Namun, muncul kekhawatiran bahwa risiko sudah mulai terjadi, terutama karena GPT-5 telah digunakan oleh berbagai pihak, termasuk dalam lingkungan organisasi.
Kondisi ini menegaskan pentingnya solusi pengawasan keamanan AI seperti Tenable AI Exposure untuk mengontrol penggunaan alat AI di perusahaan. Teknologi pengelolaan risiko membantu memastikan implementasi AI berjalan dengan aman, etis, dan sesuai regulasi. Hal ini penting untuk menghindari dampak negatif, seperti penyalahgunaan atau kebocoran informasi yang bisa membahayakan organisasi maupun publik.
Kesimpulan: Tantangan dan Harapan dalam Pengembangan AI Aman
Kasus jailbreak GPT-5 menjadi peringatan serius. Pengembangan AI harus selalu dilengkapi dengan sistem keamanan yang adaptif serta pengawasan ketat. Tujuannya adalah agar teknologi ini terus membawa manfaat positif tanpa menimbulkan risiko besar bagi masyarakat dan bisnis.
Baca Juga: GPT-4.5 resmi meluncur, bukan penerus GPT-4o