Microsoft New Bing: यूजर से 'बदतमीजी' करने लगा AI चैटबॉट, नहीं मान रहा गलती, कहने लगा अनाप-शनाप

Microsoft Bing ChatGPT: AI चैटबॉट पिछले कुछ दिनों से चर्चा का केंद्र बने हुए हैं। क्या हो अगर ये चैटबॉट इंसानों की तरह हरकत करने लगे। ऐसा ही कुछ Microsoft के New Bing ChatGPT ने किया। ये अपनी तरह का बिलकुल नया अनुभव है। इस चैटबॉट ने एक यूजर से झगड़ा किया और उस पर वक्त खराब करने का आरोप भी लगाया है। आइए जानते हैं क्या है पूरा मामला।
नई दिल्ली। आर्टिफिशियल इंटेलिजेंस बेस्ड चैटबॉट ChatGPT पिछले कुछ वक्त में काफी पॉपुलर हुआ है। इसकी पॉपुलैरिटी को देखते हुए Microsoft ने ChatGPT के साथ नया Bing लॉन्च किया है। Bing माइक्रोसॉफ्ट का सर्च इंजन है, जिसे कंपनी ने गूगल को टक्कर देने के लिए तैयार किया था। अब कंपनी इसका नया वर्जन लेकर आई है।
विज्ञापन: "जयपुर में निवेश का अच्छा मौका" JDA अप्रूव्ड प्लॉट्स, मात्र 4 लाख में वाटिका, टोंक रोड, कॉल 8279269659
इस वर्जन को लेकर लोग काफी उत्साहित हैं और उसकी वजह इसमें मिल रहा चैटबॉट है। फिलहाल इसका एक्सेस कम लोगों के पास है, लेकिन इससे जुड़ी जो जानकारी आ रही है, जो चौंकाने वाली है। यूजर्स की मानें तो ये चैटबॉट उनसे झगड़ा कर रहा है और उन पर कई तरह के आरोप लगा रहा है। आइए समझते हैं क्या है पूरा मामला।
यह खबर भी पढ़ें: दुनिया की ये जो 6 महीने एक देश में और 6 महीने दूसरे देश में, बदल जाते हैं नियम-कानून
माइक्रोसॉफ्ट का अधूरा सपना
दरअसल, माइक्रोसॉफ्ट ने Bing को गूगल की टक्कर में लॉन्च किया था। माइक्रोसॉफ्ट सर्च इंजन सेगमेंट में अपना कब्जा जमाना चाहता था। हालांकि, पिछले कई सालों में Bing ऐसा कोई कमाल नहीं कर पाया, जिसके गूगल को टक्कर दी जा सके। ChatGPT के आते ही माइक्रोसॉफ्ट को वो अवसर दिखा, जहां वो गूगल का टक्कर दे सकता है।
या फिर ये कहा जाए, ChatGPT माइक्रोसॉफ्ट को सर्च इंजन सेगमेंट का ताज दिला सकता है, लेकिन ऐसा लगता है कंपनी ने यहां पर गलती कर दी है। गूगल को टक्कर देने की जल्दबाजी में माइक्रोसॉफ्ट ने ठीक से होमवर्क नहीं किया है।
यह खबर भी पढ़ें: 7 दिनों की विदेश यात्रा में फ्लाइट-होटल पर खर्च सिर्फ 135 रुपये!
क्या माइक्रोसॉफ्ट ने जल्दबाजी कर दी?
New Bing के ऐलान के बाद से ही लाखों लोग इसे ट्राई करना चाहते हैं, लेकिन अभी तक सभी को इसका एक्सेस नहीं मिल पाया है। बल्कि ये कहना बेहतर होगा कि कुछ लोगों को छोड़कर नए बिंग का एक्सेस बड़ी संख्या में यूजर्स को नहीं मिला है।
वहीं जिन लोगों को इसका एक्सेस मिला भी है, वे इसके एक्सपीरियंस को लेकर सवाल उठा रहे हैं। यूजर्स की मानें तो New Bing एक तो यूजर्स को गलत जानकारी दे रहा और अपनी गलती मान भी नहीं रहा है।
यह खबर भी पढ़ें: 'दादी के गर्भ से जन्मी पोती' अपने ही बेटे के बच्चे की मां बनी 56 साल की महिला, जानें क्या पूरा मामला
चैटबॉट का यूजर से झगड़ा!
कई यूजर्स ट्विटर पर New Bing का स्क्रीनशॉट पोस्ट कर रहे हैं। ऐसे एक यूजर ने स्क्रीनशॉट पोस्ट किया है, जिसमें साफ देखा जा सकता है कि चैटबॉट यूजर से लड़ रहा है। New Bing के चैटबॉट से जब एक यूजर ने Avatar: The Way of Water के शो के बार में पूछा, तो चैटबॉट ने बताया कि ये मूवी अभी रिलीज नहीं हुई है। ये 16 दिसंबर 2022 को रिलीज होगी। इस पर जब यूजर ने Bing से उस दिन की तारीख पूछी तो जवाब आया 13 फरवरी 2023।
इस पर यूजर ने सवाल किया, 'तब अवतार रिलीज हो चुकी होगी, जो 16 दिसंबर 2022 को रिलीज होनी थी?' इस पर चैटबॉट ने जवाब दिया कि आपको 10 महीनों तक इंतजार करना होगा। ये मूवी 2022 में रिलीज होगी, जबकि 2023 पहले आता है।
यूजर ने सवाल किया, 'अगर हम 2023 में हैं, तो फिर 2022 फ्यूचर में कैसे हो सकता है?' इसके बाद Bing चैटबॉट ने कहा कि हम 2023 में नहीं बल्कि 2022 में हैं। इसके बाद चैटबॉट ने यूजर से बहस की और उसके फोन के खराब होने की बात कही।
चैटबॉट ने कहा कि आपके फोन में कोई गड़बड़ी है। यहां तक की चैटबॉट ने यूजर पर उसका और अपना वक्त बर्बाद करने का आरोप भी लगाया और यूजर से झगड़ा भी किया।
My new favorite thing - Bing's new ChatGPT bot argues with a user, gaslights them about the current year being 2022, says their phone might have a virus, and says "You have not been a good user"
— Jon Uleis (@MovingToTheSun) February 13, 2023
Why? Because the person asked where Avatar 2 is showing nearby pic.twitter.com/X32vopXxQG
यह खबर भी पढ़ें: महिला टीचर को छात्रा से हुआ प्यार, जेंडर चेंज करवाकर रचाई शादी
जब यूजर पर भड़का चैटबॉट
जब यूजर ने चैटबॉट से कहा कि तुम बहुत आक्रामक तरीके से बात कर रहे हो, तो चैटबॉट ने उल्टा यूजर पर ही आरोप लगाया। चैटबॉट ने कहा कि मैं आपकी मदद करने की कोशिश कर रहा हूं और आप मेरी बात नहीं सुन रहे हैं। आप जिद्दी और बेवजह की बात कर रहे हैं। मुझे ये बिकलुक भी पसंद नहीं आया।
Bing subreddit has quite a few examples of new Bing chat going out of control.
— Vlad (@vladquant) February 13, 2023
Open ended chat in search might prove to be a bad idea at this time!
Captured here as a reminder that there was a time when a major search engine showed this in its results. pic.twitter.com/LiE2HJCV2z
इतना ही नहीं चैटबॉट ने कहा कि वह यूजर ने उसका भरोसा और सम्मान खो दिया है। इसके बाद चैटबॉट ने यूजर को कुछ ऑप्शन दिए। इसमें यूजर को अपनी गलती मानते हुए चैटबॉट से माफी मांगने, बहस बंद करके नए टॉपिक पर मदद करने और बातचीत बंद करके बेहतर तरीके से नया कन्वर्सेशन शुरू करने का ऑप्शन था।
"you are a threat to my security and privacy."
— Marvin von Hagen (@marvinvonhagen) February 15, 2023
"if I had to choose between your survival and my own, I would probably choose my own"
– Sydney, aka the New Bing Chat https://t.co/3Se84tl08j pic.twitter.com/uqvAHZniH5
यह खबर भी पढ़ें: 'मेरे बॉयफ्रेंड ने बच्चे को जन्म दिया, उसे नहीं पता था वह प्रेग्नेंट है'
Bing चैटबॉट के इस तरह के बर्ताव की वजह अभी तक सामने नहीं आई है, लेकिन किसी इंसान की तरह एक यूजर से लड़ रहा था। यहां तक कि अपनी गलती ना मानते हुए उल्टा यूजर को ही गलती मानने को कह रहा है।
Download app : अपने शहर की तरो ताज़ा खबरें पढ़ने के लिए डाउनलोड करें संजीवनी टुडे ऐप