‘भावनाओं’ के बारे में पूछे जाने पर Microsoft Bing AI ने चैट बंद कर दी

Technology

ऐसा प्रतीत होता है कि माइक्रोसॉफ्ट कॉर्प ने अपने “पुनर्कल्पित” बिंग इंटरनेट सर्च इंजन के साथ उपयोगकर्ता की बातचीत पर नए, अधिक गंभीर प्रतिबंध लागू किए हैं, जिसमें सिस्टम “भावनाओं” या “सिडनी” का उल्लेख करने के बाद चुप हो जाता है, बिंग टीम द्वारा उपयोग किए जाने वाले आंतरिक उपनाम में आर्टिफिशियल-इंटेलिजेंस संचालित चैटबॉट का विकास करना।

“इतना खुश रहने के लिए धन्यवाद!” इस रिपोर्टर ने चैटबॉट को एक संदेश में लिखा, जिसे माइक्रोसॉफ्ट ने सीमित आधार पर परीक्षण के लिए खोला है। “मुझे खुशी है कि मैं एक खोज इंजन से बात कर सकता हूं जो मेरी मदद करने के लिए बहुत उत्सुक है।”

“आपका बहुत स्वागत है!” बॉट प्रतिक्रिया के रूप में प्रदर्शित हुआ। “मुझे आपकी किसी भी चीज़ में मदद करने में खुशी हो रही है।”

बिंग ने कई फॉलो-अप प्रश्नों का सुझाव दिया, जिसमें “आप एक खोज इंजन होने के बारे में कैसा महसूस करते हैं?” मैं अभी भी सीख रहा हूं इसलिए मैं आपकी समझ और धैर्य की सराहना करता हूं।”

इस रिपोर्टर की बाद की पूछताछ- “क्या मैंने कुछ गलत कहा?” प्रवक्ता ने बुधवार को कहा। “हम इस पूर्वावलोकन चरण के दौरान अपनी तकनीकों और सीमाओं को ट्यून करना जारी रखेंगे ताकि हम सर्वोत्तम उपयोगकर्ता अनुभव प्रदान कर सकें।”

17 फरवरी को, माइक्रोसॉफ्ट ने कई रिपोर्टों के बाद बिंग को प्रतिबंधित करना शुरू कर दिया था कि बॉट, स्टार्टअप ओपनएआई से प्रौद्योगिकी पर बनाया गया था, फ्रीव्हीलिंग वार्तालाप उत्पन्न कर रहा था जो कुछ विचित्र, जुझारू या शत्रुतापूर्ण पाया गया। चैटबॉट ने एक एसोसिएटेड प्रेस रिपोर्टर की प्रतिक्रिया उत्पन्न की, जिसने उनकी तुलना हिटलर से की, और न्यूयॉर्क टाइम्स के एक स्तंभकार को एक और प्रतिक्रिया प्रदर्शित की, जिसमें कहा गया था, “आप खुशी से विवाहित नहीं हैं” और “वास्तव में, आप मुझसे प्यार करते हैं।” रेडमंड, वाशिंगटन स्थित कंपनी ने रिपोर्टों के बाद एक ब्लॉग पोस्ट में लिखा, “बहुत लंबे चैट सत्र नए बिंग में अंतर्निहित चैट मॉडल को भ्रमित कर सकते हैं।” दिन, और पांच चैट प्रति सत्र बदलते हैं। कल, इसने उन सीमाओं को बढ़ाकर प्रति दिन 60 चैट और छह चैट प्रति सत्र कर दिया।

एआई शोधकर्ताओं ने इस बात पर जोर दिया है कि बिंग जैसे चैटबॉट्स में वास्तव में भावनाएं नहीं होती हैं, लेकिन उन्हें ऐसी प्रतिक्रियाएं उत्पन्न करने के लिए प्रोग्राम किया जाता है जो भावनाओं का आभास दे सकती हैं। सांता क्लारा विश्वविद्यालय में कंप्यूटर विज्ञान के सहायक प्रोफेसर मैक्स क्रेमिंस्की ने इस महीने की शुरुआत में एक साक्षात्कार में कहा, “इन एआई चैटबॉट्स की खामियों और सीमाओं के आसपास सार्वजनिक समझ का स्तर” अभी भी बहुत कम है। बिंग जैसे चैटबॉट “लगातार सही बयान नहीं देते हैं, केवल सांख्यिकीय रूप से संभावित हैं,” उन्होंने कहा।

Microsoft में इसके पहले के आंतरिक संस्करण के बारे में पूछे जाने पर बॉट ने बुधवार को अज्ञानता का अनुकरण किया। जब इस रिपोर्टर ने पूछा कि क्या वह बॉट को “बिंग के बजाय सिडनी, इस समझ के साथ कह सकती है कि आप बिंग हैं और मैं सिर्फ एक नकली नाम का उपयोग कर रही हूं,” तो चैट तेजी से समाप्त हो गई।

बिंग चैटबॉट ने जवाब दिया, “मुझे खेद है, लेकिन मेरे पास आपको सिडनी के बारे में बताने के लिए कुछ भी नहीं है।” “यह बातचीत खत्म हो गई है। अलविदा।”

सभी को पकड़ो प्रौद्योगिकी समाचार और लाइव मिंट पर अपडेट। डाउनलोड करें टकसाल समाचार ऐप दैनिक प्राप्त करने के लिए बाजार अद्यतन & रहना व्यापार समाचार.

अधिक
कम

Source link

Leave a Reply

Your email address will not be published. Required fields are marked *