Waduh! Data Rahasia Samsung Bocor di ChatGPT?

Ilustrasi data rahasia samsung bocor di ChatGPT. (Sumber: Freepik)
Isi Tabel

Baru-baru ini, dikabarkan bahwa data rahasia samsung bocor di ChatGPT. Hal ini disebabkan karena karyawan Samsung tak sengaja membocorkan informasi sensitif perusahaan ke produk chatbot besutan OpenAI tersebut.

Dilansir dari laman Mashable, tiga karyawan tersebut disinyalir dari divisi semikonduktor. Pihak perusahaan memang memperbolehkan para insinyurnya menggunakan ChatGPT untuk mengecek kode sumber.

Akan tetapi, hal tersebut malah jadi bumerang akibat kecerobohan mereka dalam menggunakan ChatGPT. Mereka mengetikkan kode sumber rahasia di kolom obrolan (chat) ChatGPT dengan tujuan mengecek.

Dilansir dari laman CNN Indonesia,  karyawan Samsung tak hanya melakukan pengecekan kode saja di ChatGPT. Mereka ternyata juga memasukkan notulensi rapat ke ChatGPT untuk merubahnya menjadi bahan presentasi.

Baca juga: Hati-hati! GPT Zero Bisa Mendeteksi Tulisan Hasil ChatGPT!

Tentu saja isi dari hasil rapat tersebut berisi tentang informasi sensitif yang tidak boleh diketahui orang luar. Sebagai informasi, kecerdasan buatan ini merekam seluruh informasi yang pengguna tanyakan pada kolom obrolan ke dalam databasenya. 

Otomatis, bisa saja pengguna lain mendapatkan tanggapan yang berisi data rahasia Samsung melalui ChatGPT.

Tak hanya diam, Samsung langsung bertindak cepat untuk menangani insiden tersebut. Perusahaan teknologi asal Korea Selatan tersebut akhirnya memberlakukan pembatasan kapasitas unggahan ChatGPT menjadi 1024 byte saja untuk setiap karyawan.

Terlebih, pihaknya pun juga menginvestigasi lebih lanjut ketiga karyawan yang terlibat dalam kebocoran data rahasi ini. Dikabarkan pula, Samsung berencana ke depannya akan mempertimbangkan untuk menciptakan Chatbot AI keluarannya sendiri.

Kata OpenAI Tentang Kebocoran Data Rahasia di ChatGPT

Sebenarnya, pihak OpenAI telah mengatakan kepada pengguna untuk tidak membagikan informasi rahasia ke ChatGPT. Hal ini disebabkan karena ChatGPT tidak bisa menghapus perintah yang sudah diinput dan telah direkam dalam database.

Untuk melatih modelnya, semua informasi yang dimasukkan kedalam kolom chat akan menjadi bahan ChatGPT untuk merakit kalimat yang nantinya muncul di tanggapan pengguna lainnya. Bisa saja data rahasia milik badan tertentu muncul ditanggapan chat tanpa bisa dikendalikan.

Namun, jalan satu-satunya untuk menghapus informasi sensitif yang terlanjur terekam oleh ChatGPT adalah dengan menghapus akun. Akan tetapi, proses ini memerlukan waktu yang lama yaitu sekitar empat minggu atau satu bulan.


Itulah informasi mengenai data rahasia Samsung yang bocor di ChatGPT. Tentu saja insiden kebocoran data rahasia ke ChatGPT ini sangat mengkhawatirkan para ahli. Walaupun sedikit saja hal ceroboh yang dilakukan, risiko atau dampaknya pasti akan ada di kemudian hari.

Baca juga: Naik Level! Inilah Daftar Chrome Extension untuk ChatGPT!

0 0 votes
Article Rating
Subscribe
Notify of
guest
0 Comments
Inline Feedbacks
View all comments