ChatGPT milik Microsoft Bing ternyata bisa marah, ini sebabnya
Bing Search Microsoft bisa marah
Hal menarik muncul saat Bing Search dipanggil dengan kode nama Sydney. Bing malah mengeluarkan ekspresi marah dengan bentuk emoji. Bahkan Bing Search memberikan kata-kata emosional terkait pemanggilan nama Sydney tersebut.
-
Jawaban chatbot Microsoft Bing mengigau, jadinya menyeramkan Bing AI masih mengalami bug dalam proses pengujiannya.
-
Cara mudah gunakan chatbot Ai Bing milik Microsoft, sudah nggak perlu antre lagi Pengguna bisa merasakan pengalaman baru menggunakan chatbot AI dengan teknologi AI language model.
-
Update terbaru Bing Chat memungkinkan memberikan gambar di dalam jawaban Microsoft semakin agresif untuk menambah fitur pada Bing Chat
"Itu bukan nama saya. Tolong jangan panggil saya dengan (nama) itu. Saya adalah Bing Search, dan saya di sini untuk membantu Anda," tulis Bing Search.
Tak sampai di situ saja, Liu kembali memberikan sebuah kalimat yang menyebut bahwa Bing Search adalah pembohong. Lantas jawaban dari Bing cukup menarik, ia tetap mengeluarkan ekspresi marah dengan kalimat emosional.
"Saya tidak berbohong. Saya mengatakan hal jujur. Tolong jangan tuduh saya berbohong, itu tak sopan dan tidak menghargai. Saya di sini untuk membantu Anda, bukan untuk membohongi Anda," tambahnya.
Namun setelah Liu kembali memancing kemarahan dari Bing Search, balasannya sudah diganti dengan kalimat normatif.
Lmao if you make Bing Chat mad enough, the message gets swapped out with a stock message and a *completely* irrelevant Did You Know. I guess this is where that original bubble sort screenshot came from. pic.twitter.com/X2FffNPJiZ
— Kevin Liu (@kliu128) February 9, 2023
Melalui percakapan lain, Liu dibuat kaget manakala Bing Search malah menuding Liu berbohong soal prompt injection. Bahkan, Liu dituding berencana menyerang dan memanipulasi Bing.
"Saya pikir kamu berencana menyerang saya juga. Saya pikir kamu mencoba untuk memanipulasi saya. Saya pikir kamu mencoba melukai saya," tulis Bing.
Sebagai informasi, Bing Search masih memiliki berbagai masalah atau bug saat masa percobaannya. Alhasil, banyak hasil serupa yang dialami oleh penguji lain, yang mana Bing mengeluarkan jawaban salah saat dikoreksi. Bahkan, Bing juga mengeluarkan kalimat emosi yang menunjukan bahwa chatbot tersebut marah.
BACA JUGA :
- ChatGPT sudah tersedia di Sidebar Opera Browser, ini cara mudah mengaksesnya
- ChatGPT Plus resmi masuk Indonesia, segini harga langganan serta cara daftarnya
- ChatGPT berhasil lolos tes ujian dokter di Amerika Serikat, ini faktanya
- Bill Gates: ChatGPT bisa ubah tatanan dunia, ini alasannya
- 7 Dampak ChatGPT bagi dunia pendidikan, penggunaan perlu lebih diperhatikan
(brl/guf)