5 Informasi yang tidak boleh kamu bagikan dengan Chatbot AI, data pribadi kamu bisa diretas

Advertisement

Techno.id - Popularitas chatbot kecerdasan buatan semakin meningkat. Meskipun kemampuannya mengesankan, penting untuk diketahui bahwa chatbot tidak sempurna. Ada risiko bawaan yang terkait dengan penggunaan chatbot AI, seperti masalah privasi dan potensi serangan dunia maya. Sangat penting untuk berhati-hati saat terlibat dengan chatbot.

Karena itu ketahui potensi bahaya berbagi informasi dengan chatbot AI dan lihat jenis informasi apa yang tidak boleh diungkapkan kepada mereka.

Risiko menggunakan Chatbot AI

foto: freepik

Risiko privasi dan kerentanan yang terkait dengan chatbot AI menghadirkan masalah keamanan yang signifikan bagi pengguna. Ini mungkin mengejutkan kamu, tetapi teman obrolan seperti ChatGPT, Bard, Bing AI, dan lainnya dapat secara tidak sengaja mengungkapkan informasi pribadi kamu secara online. Chatbot ini mengandalkan model bahasa AI, yang memperoleh wawasan dari data kamu.

Misalnya, versi chatbot Google saat ini, Bard, secara eksplisit menyatakan di halaman FAQ-nya mengumpulkan dan menggunakan data percakapan untuk melatih modelnya. Demikian pula, ChatGPT juga memiliki masalah privasi karena dapat menyimpan catatan obrolan untuk peningkatan model.

Karena chatbot AI menyimpan data di server, sehingga menjadi rentan terhadap upaya peretasan. Server-server ini menyimpan banyak informasi yang dapat dieksploitasi penjahat dunia maya dengan berbagai cara.

foto: freepik/frimufilms

Mereka dapat menyusup ke server, mencuri data, dan menjualnya di pasar web gelap. Selain itu, peretas dapat memanfaatkan data ini untuk memecahkan kata sandi dan mendapatkan akses tidak sah ke perangkat kamu.

Selain itu, data yang dihasilkan dari interaksi kamu dengan chatbot AI tidak terbatas pada masing-masing perusahaan saja. Meskipun mereka mempertahankan bahwa data tersebut tidak dijual untuk tujuan periklanan atau pemasaran, data tersebut dibagikan dengan pihak ketiga tertentu untuk persyaratan pemeliharaan sistem.

OpenAI, organisasi di balik ChatGPT, mengakui bahwa platform ini berbagi data dengan "sekelompok penyedia layanan tepercaya terpilih" dan beberapa "personel OpenAI yang berwenang" yang mungkin memiliki akses ke data tersebut. Praktik-praktik ini meningkatkan kekhawatiran keamanan lebih lanjut seputar interaksi chatbot AI. Oleh karena itu, menjaga informasi pribadi dari chatbot AI sangat penting untuk menjaga privasi kamu.

5 Informasi yang tidak boleh dibagikan dengan chatbot AI

Informasi yang tidak boleh dibagikan dengan Chatbot AI

Untuk memastikan privasi dan keamanan kamu, mengikuti lima praktik terbaik ini saat berinteraksi dengan chatbot AI sangatlah penting.

1. Rincian keuangan

foto: freepik/akarapongchairean

Bisakah penjahat dunia maya menggunakan chatbot AI seperti ChatGPT untuk meretas rekening bank kamu? Dengan meluasnya penggunaan chatbot AI, banyak pengguna beralih ke model bahasa ini untuk mendapatkan saran keuangan dan mengelola keuangan pribadi. Meskipun mereka dapat meningkatkan literasi keuangan, sangat penting untuk mengetahui potensi bahaya berbagi detail keuangan dengan chatbot AI.

Saat menggunakan chatbot sebagai penasihat keuangan, kamu berisiko mengekspos informasi keuangan kepada penjahat dunia maya yang dapat mengeksploitasinya untuk menguras akun kamu. Meskipun perusahaan chatbot AI mengklaim menganonimkan data percakapan, tetapi pihak ketiga dan beberapa karyawan masih memiliki akses. Hal ini menimbulkan kekhawatiran tentang pembuatan profil, di mana detail keuangan kamu dapat digunakan untuk tujuan jahat seperti kampanye ransomware atau dijual ke agen pemasaran.

Untuk melindungi informasi keuangan dari chatbot AI, kamu harus memperhatikan apa yang dibagikan dengan model AI generatif ini. Disarankan membatasi interaksi kamu untuk mendapatkan informasi umum dan mengajukan pertanyaan luas. Jika kamu memerlukan saran keuangan yang dipersonalisasi, mungkin ada opsi yang lebih baik daripada hanya mengandalkan bot AI.

Chatbot Ai mungkin memberikan informasi yang tidak akurat atau menyesatkan, yang berpotensi mempertaruhkan uang hasil jerih payah kamu.

2. Pemikiran pribadi

foto: freepik

Banyak pengguna beralih ke chatbot AI untuk mencari terapi. Tetapi mereka tidak menyadari konsekuensi potensial bagi kesehatan mental. Memahami bahaya mengungkapkan informasi pribadi ke chatbot ini sangat penting.

Pertama, chatbot tidak memiliki pengetahuan dunia nyata dan hanya dapat menawarkan tanggapan umum terhadap pertanyaan terkait kesehatan mental. Ini berarti obat-obatan atau perawatan yang mereka sarankan mungkin tidak sesuai dengan kebutuhan spesifik dan dapat membahayakan kesehatan kamu.

Selain itu, berbagi pemikiran pribadi dengan chatbot AI menimbulkan masalah privasi yang signifikan. Privasi kamu dapat dikompromikan sebagai rahasia, dan pikiran kamu dapat bocor secara online.

Orang jahat dapat mengeksploitasi informasi ini untuk memata-matai kamu atau menjual data kamu di web gelap. Oleh karena itu, menjaga privasi pemikiran pribadi saat berinteraksi dengan chatbot AI adalah hal yang paling penting.

Sangat penting untuk mendekati chatbot AI sebagai alat untuk informasi umum dan dukungan daripada pengganti terapi profesional. Jika kamu memerlukan saran atau perawatan kesehatan mental, berkonsultasi dengan profesional kesehatan mental yang berkualifikasi. Mereka dapat memberikan panduan yang dipersonalisasi dan andal sambil memprioritaskan privasi kamu.

3. Informasi rahasia tempat kerja

foto: freepik

Kesalahan lain yang harus dihindari pengguna saat berinteraksi dengan chatbot AI adalah berbagi informasi rahasia terkait pekerjaan. Bahkan raksasa teknologi terkemuka seperti Apple, Samsung, JPMorgan, dan Google, pencipta Bard, telah membatasi karyawannya untuk menggunakan chatbot AI di tempat kerja.

Laporan Bloomberg menyoroti kasus di mana karyawan Samsung menggunakan ChatGPT untuk tujuan pengkodean. Secara tidak sengaja karyawan tersebut mengunggah kode sensitif ke platform AI generatif.

Insiden ini mengakibatkan pengungkapan informasi rahasia yang tidak sah tentang Samsung. Akibatnya Samsung memberlakukan larangan penggunaan chatbot AI.

Sebagai pengembang yang mencari bantuan dari AI untuk menyelesaikan masalah pengkodean, inilah alasan mengapa kamu tidak boleh mempercayai chatbot AI seperti ChatGPT dengan informasi rahasia. Sangat penting untuk berhati-hati saat membagikan kode sensitif atau detail terkait pekerjaan.

Demikian juga, banyak karyawan mengandalkan chatbot AI untuk meringkas notulen rapat atau mengotomatiskan tugas yang berulang, sehingga berisiko mengekspos data sensitif secara tidak sengaja. Dengan demikian, menjaga privasi informasi kerja rahasia dan menahan diri untuk tidak membagikannya dengan chatbot AI adalah hal yang paling penting.

4. Kata sandi

foto: freepik/rawpixel

Sangat penting untuk menekankan bahwa membagikan kata sandi secara online, bahkan dengan model bahasa, sama sekali tidak boleh dilakukan. Model-model ini menyimpan data kamu di server publik. Bisa saja akan mengungkapkan kata sandi kamu kepada mereka dan membahayakan privasi. Dalam pelanggaran server, peretas dapat mengakses dan mengeksploitasi kata sandi kamu yang bisa berakibat pada kerugian finansial.

Sebagai contoh, pelanggaran data signifikan yang melibatkan ChatGPT terjadi pada Mei 2022, menimbulkan kekhawatiran serius tentang keamanan platform chatbot. Selain itu, ChatGPT telah dilarang di Italia karena Peraturan Perlindungan Data Umum (GDPR) Uni Eropa.

Regulator Italia menganggap chatbot AI tidak mematuhi undang-undang privasi, menyoroti risiko pelanggaran data di platform. Akibatnya, menjadi sangat penting untuk melindungi kredensial login kamu dari chatbot AI.

Dengan menahan diri untuk tidak membagikan kata sandi dengan model chatbot ini, kamu dapat secara proaktif melindungi informasi pribadi dan mengurangi kemungkinan menjadi korban ancaman dunia maya. Ingat, melindungi kredensial masuk kamu adalah langkah penting dalam menjaga privasi dan keamanan online kamu.

5. Detail tempat tinggal dan data pribadi lainnya

foto: freepik/jamesteoh1976

Penting untuk menahan diri untuk tidak membagikan informasi identifikasi pribadi dengan chatbot AI. Identitas pribadi mencakup data sensitif yang dapat digunakan untuk mengidentifikasi atau menemukan kamu, termasuk lokasi, nomor jaminan sosial, tanggal lahir, dan informasi kesehatan.

Memastikan privasi detail pribadi dan tempat tinggal saat berinteraksi dengan chatbot AI harus menjadi prioritas utama. Untuk menjaga privasi data pribadi kamu saat berinteraksi dengan chatbot AI, berikut adalah beberapa cara yang harus diperhtikan.

1. Biasakan diri kamu dengan kebijakan privasi chatbot untuk memahami risiko terkait.

2. Hindari mengajukan pertanyaan yang mungkin secara tidak sengaja mengungkapkan identitas atau informasi pribadi kamu.

3. Berhati-hatilah dan jangan membagikan informasi medis kamu dengan bot AI.

4. Perhatikan potensi kerentanan data kamu saat menggunakan chatbot AI di platform sosial seperti SnapChat.

Hindari berbagi informasi berlebihan dengan chatbot AI

Kesimpulannya, meskipun teknologi chatbot AI menawarkan kemajuan yang signifikan, teknologi ini juga menghadirkan risiko privasi yang serius. Melindungi data kamu dengan mengontrol informasi pribadi sangat penting saat berinteraksi dengan chatbot AI. Tetap waspada dan patuhi praktik terbaik untuk mengurangi potensi risiko dan memastikan privasi kamu terlindungi dengan aman.

Advertisement


(brl/red)