Apple के शोधकर्ताओं ने शुक्रवार को अपने ReALM बड़े भाषा मॉडल पर एक प्रीप्रिंट पेपर जारी किया और दावा किया कि यह विशेष बेंचमार्क में OpenAI के GPT-4 को “काफ़ी हद तक बेहतर प्रदर्शन” कर सकता है। ReALM कथित तौर पर विभिन्न संदर्भों को समझ और संभाल सकता है। सैद्धांतिक रूप से, यह उपयोगकर्ताओं को स्क्रीन पर या पृष्ठभूमि में चल रही किसी चीज़ को इंगित करने और उसके बारे में भाषा मॉडल से पूछताछ करने की अनुमति देगा।
संदर्भ समाधान यह समझने की एक भाषाई समस्या है कि कोई विशेष अभिव्यक्ति किस ओर इशारा कर रही है। उदाहरण के लिए, जब हम बोलते हैं, तो हम “वे” या “वह” जैसे संदर्भों का उपयोग करते हैं। अब, ये शब्द किस बात का उल्लेख कर रहे हैं यह उन मनुष्यों के लिए स्पष्ट हो सकता है जो संदर्भ के आधार पर समझ सकते हैं। लेकिन ChatGPT जैसा चैटबॉट कभी-कभी यह समझने में संघर्ष कर सकता है कि आप वास्तव में क्या संदर्भित कर रहे हैं।
वास्तव में जो संदर्भित किया जा रहा है उसे समझने की यह क्षमता चैटबॉट्स के लिए बहुत महत्वपूर्ण होगी। Apple के अनुसार, उपयोगकर्ताओं के लिए “वह” या “यह” या किसी अन्य शब्द का उपयोग करके स्क्रीन पर किसी चीज़ को संदर्भित करने की क्षमता और चैटबॉट द्वारा इसे पूरी तरह से समझने की क्षमता वास्तव में हाथों से मुक्त स्क्रीन अनुभव बनाने में महत्वपूर्ण होगी।