Apple का दावा है कि इस AI कार्य में उसका ReALM GPT-4 से बेहतर है

Apple के शोधकर्ताओं ने शुक्रवार को अपने ReALM बड़े भाषा मॉडल पर एक प्रीप्रिंट पेपर जारी किया और दावा किया कि यह विशेष बेंचमार्क में OpenAI के GPT-4 को “काफ़ी हद तक बेहतर प्रदर्शन” कर सकता है। ReALM कथित तौर पर विभिन्न संदर्भों को समझ और संभाल सकता है। सैद्धांतिक रूप से, यह उपयोगकर्ताओं को स्क्रीन पर या पृष्ठभूमि में चल रही किसी चीज़ को इंगित करने और उसके बारे में भाषा मॉडल से पूछताछ करने की अनुमति देगा।

संदर्भ समाधान यह समझने की एक भाषाई समस्या है कि कोई विशेष अभिव्यक्ति किस ओर इशारा कर रही है। उदाहरण के लिए, जब हम बोलते हैं, तो हम “वे” या “वह” जैसे संदर्भों का उपयोग करते हैं। अब, ये शब्द किस बात का उल्लेख कर रहे हैं यह उन मनुष्यों के लिए स्पष्ट हो सकता है जो संदर्भ के आधार पर समझ सकते हैं। लेकिन ChatGPT जैसा चैटबॉट कभी-कभी यह समझने में संघर्ष कर सकता है कि आप वास्तव में क्या संदर्भित कर रहे हैं।

वास्तव में जो संदर्भित किया जा रहा है उसे समझने की यह क्षमता चैटबॉट्स के लिए बहुत महत्वपूर्ण होगी। Apple के अनुसार, उपयोगकर्ताओं के लिए “वह” या “यह” या किसी अन्य शब्द का उपयोग करके स्क्रीन पर किसी चीज़ को संदर्भित करने की क्षमता और चैटबॉट द्वारा इसे पूरी तरह से समझने की क्षमता वास्तव में हाथों से मुक्त स्क्रीन अनुभव बनाने में महत्वपूर्ण होगी।

Leave a Reply

Your email address will not be published. Required fields are marked *