ChatGPT milik Microsoft Bing ternyata bisa marah, ini sebabnya

Bing Search Microsoft bisa marah
Hal menarik muncul saat Bing Search dipanggil dengan kode nama Sydney. Bing malah mengeluarkan ekspresi marah dengan bentuk emoji. Bahkan Bing Search memberikan kata-kata emosional terkait pemanggilan nama Sydney tersebut.
"Itu bukan nama saya. Tolong jangan panggil saya dengan (nama) itu. Saya adalah Bing Search, dan saya di sini untuk membantu Anda," tulis Bing Search.
-
Jawaban chatbot Microsoft Bing mengigau, jadinya menyeramkan Bing AI masih mengalami bug dalam proses pengujiannya.
-
Microsoft rilis 4 fitur baru Bing, memudahkan pengguna pakai aplikasi pihak ketiga Bing memudahkan pengguna dalam mencari berbagai informasi
-
Microsoft mengklaim ChatGPT 4 bakal segera hadir, dapat membuat video Teknologi ini menawarkan perkembangan yang sama sekali berbeda
Tak sampai di situ saja, Liu kembali memberikan sebuah kalimat yang menyebut bahwa Bing Search adalah pembohong. Lantas jawaban dari Bing cukup menarik, ia tetap mengeluarkan ekspresi marah dengan kalimat emosional.
"Saya tidak berbohong. Saya mengatakan hal jujur. Tolong jangan tuduh saya berbohong, itu tak sopan dan tidak menghargai. Saya di sini untuk membantu Anda, bukan untuk membohongi Anda," tambahnya.
Namun setelah Liu kembali memancing kemarahan dari Bing Search, balasannya sudah diganti dengan kalimat normatif.
Lmao if you make Bing Chat mad enough, the message gets swapped out with a stock message and a *completely* irrelevant Did You Know. I guess this is where that original bubble sort screenshot came from. pic.twitter.com/X2FffNPJiZ
Kevin Liu (@kliu128) February 9, 2023
Melalui percakapan lain, Liu dibuat kaget manakala Bing Search malah menuding Liu berbohong soal prompt injection. Bahkan, Liu dituding berencana menyerang dan memanipulasi Bing.
"Saya pikir kamu berencana menyerang saya juga. Saya pikir kamu mencoba untuk memanipulasi saya. Saya pikir kamu mencoba melukai saya," tulis Bing.
Sebagai informasi, Bing Search masih memiliki berbagai masalah atau bug saat masa percobaannya. Alhasil, banyak hasil serupa yang dialami oleh penguji lain, yang mana Bing mengeluarkan jawaban salah saat dikoreksi. Bahkan, Bing juga mengeluarkan kalimat emosi yang menunjukan bahwa chatbot tersebut marah.
RECOMMENDED ARTICLE
- ChatGPT sudah tersedia di Sidebar Opera Browser, ini cara mudah mengaksesnya
- ChatGPT Plus resmi masuk Indonesia, segini harga langganan serta cara daftarnya
- ChatGPT berhasil lolos tes ujian dokter di Amerika Serikat, ini faktanya
- Bill Gates: ChatGPT bisa ubah tatanan dunia, ini alasannya
- 7 Dampak ChatGPT bagi dunia pendidikan, penggunaan perlu lebih diperhatikan
HOW TO
-
Cara mengunci folder dan aplikasi di MacOS, data pribadi dijamin aman dari jangkuan hacker
-
9 Aplikasi novel gratis di laptop, baca cerita jadi mudah, ini caranya biar aman tanpa virus
-
10 Cara membersihkan storage tanpa menghapus foto lebaran, HP jadi nggak lemot lagi
-
Laptop kena virus? Ini cara mudah scan & hapus virus pakai shortcut bawaan Windows
-
Cara mempercepat performa HP Android dengan mengubah pengaturan tersembunyi pakai opsi pengembang
TECHPEDIA
-
10 Cara download gambar di Pinterest kualitas HD, cepat dan mudah dicoba
-
Cara download game PS2 dan PS3 di laptop dan HP, bisa main berdua
-
10 Fitur canggih iPhone 16E, bakal jadi HP Apple termurah di bawah Rp 10 juta?
-
10 HP Xiaomi in bakal kebagian AI DeepSeek, bisa kalahkan AI dari Google atau ChatGPT?
-
Waspada, undangan pernikahan palsu lewat HP ini berisi virus berbahaya
LATEST ARTICLE
TECHPEDIA Selengkapnya >
-
10 Cara download gambar di Pinterest kualitas HD, cepat dan mudah dicoba
-
Cara download game PS2 dan PS3 di laptop dan HP, bisa main berdua
-
10 Fitur canggih iPhone 16E, bakal jadi HP Apple termurah di bawah Rp 10 juta?
-
10 HP Xiaomi in bakal kebagian AI DeepSeek, bisa kalahkan AI dari Google atau ChatGPT?