Waaspada, Peneliti Temukan Celah Keamanan di ChatGPT yang Bisa Bocorkan Data Pengguna
Peneliti keamanan siber menemukan celah pada sistem ChatGPT yang berpotensi membocorkan data pribadi pengguna melalui serangan berbasis prompt injection.
Temuan terbaru dari sejumlah peneliti keamanan digital menunjukkan bahwa layanan kecerdasan buatan (AI) ChatGPT memiliki potensi celah keamanan yang bisa dimanfaatkan untuk mengakses data pribadi pengguna. Celah ini berasal dari mekanisme interaksi teks yang memungkinkan penyerang menyisipkan perintah tersembunyi atau hidden prompts di dalam percakapan.
Teknik tersebut dikenal dengan istilah prompt injection, yaitu metode manipulasi input agar sistem AI merespons secara tidak semestinya, termasuk mengungkap informasi sensitif yang seharusnya terlindungi. Dalam pengujian, peneliti berhasil memaksa model menampilkan sebagian informasi yang pernah diolah atau âdiingatâ selama sesi pengguna.
Menurut pakar keamanan siber Dr. Matthew Green, peneliti dari Johns Hopkins University, serangan semacam ini tergolong berbahaya karena tidak memerlukan akses sistem tingkat tinggi. âCukup dengan menulis instruksi tertentu dalam chat, pelaku bisa memanipulasi model agar memberikan data yang tidak seharusnya dibagikan,â jelasnya.
Laporan tersebut juga menyebutkan bahwa potensi kebocoran data bisa mencakup nama pengguna, alamat email, riwayat percakapan, hingga dokumen yang pernah diunggah dalam sesi interaksi. Risiko ini semakin besar jika ChatGPT digunakan dalam konteks profesional seperti pekerjaan, layanan pelanggan, atau analisis data perusahaan.
Pakar keamanan dari University of Cambridge, Dr. Ross Anderson, menegaskan bahwa ancaman ini harus ditangani serius karena melibatkan sistem yang belajar dari interaksi manusia secara langsung. âModel AI bekerja berdasarkan konteks input pengguna. Ketika input dimanipulasi, sistem bisa saja melakukan hal yang bertentangan dengan kebijakan keamanannya sendiri,â katanya.
Sebagai langkah pencegahan, para ahli menyarankan agar pengguna tidak memasukkan data pribadi, rahasia perusahaan, atau informasi finansial ke dalam sistem AI publik. Sementara itu, pengembang di balik ChatGPT disebut telah melakukan investigasi internal dan memperkuat lapisan keamanan prompt untuk mencegah penyalahgunaan.
âKeamanan model berbasis AI bukan hanya soal teknologi, tapi juga tentang kesadaran pengguna. Edukasi dan kebijakan penggunaan yang jelas harus menjadi bagian dari ekosistem AI modern,â tambah Dr. Green.
Fenomena ini menjadi pengingat bahwa meski kecerdasan buatan menawarkan efisiensi dan kemudahan, aspek privasi dan keamanan tetap menjadi isu utama yang perlu diawasi dengan ketat di tengah pesatnya perkembangan teknologi AI.





