Google Expands AI-Powered "Search Live" to a Global Audience
Google has officially announced the global rollout of Search Live, an AI-driven conversational tool that allows users to interact with their surroundings via a smartphone camera.
Initially launched in the United States and India last year, the feature is now expanding to over 200 countries.
By leveraging the capabilities of Project Astra and Google Lens, the tool provides real-time assistance by drawing visual context directly from a live camera feed, acting as a digital expert that "sees" what the user sees.
To activate the feature, users simply open the Lens tool within the Google app and tap the Live icon.
From there, they can point their camera at an object—such as a complex geometry diagram or a piece of furniture requiring assembly—and ask questions out loud.
The system uses the new Gemini 3.1 Flash Live model to provide natural, back-and-forth dialogue, offering step-by-step instructions and helpful web links without the need for manual typing.
The technology behind this expansion represents a significant leap in intuitive search.
By integrating advanced audio and voice models, Google aims to bridge the gap between digital information and the physical world.
This "AI Mode" isn't limited to mobile devices; desktop users can also utilize Lens to analyze their screens, allowing them to highlight specific elements on a webpage and "dive deeper" into the subject matter through a dedicated AI Overview side panel.
In addition to visual search, Google is broadening its linguistic reach with updates to Live Translate.
This feature is set to arrive on iOS, enabling real-time translations directly through a user's headphones.
The expansion covers several key international markets, including Nigeria, Thailand, Bangladesh, and several European nations, further solidifying Google’s goal of making multimodal AI assistance accessible across diverse languages and geographies.
As the race for AI dominance intensifies, these updates highlight Google’s focus on Agentic AI—tools that don't just provide static answers but actively assist in real-world tasks.
By making Search Live a standard feature globally, the company is betting that the future of search lies in seamless, conversational interactions.
This move ensures that whether a user is troubleshooting a home repair or studying for an exam, the information they need is just a camera frame away.
Google ने AI-पावर्ड "Search Live" को दुनिया भर के लोगों के लिए उपलब्ध कराया
Google ने आधिकारिक तौर पर Search Live को दुनिया भर में लॉन्च करने की घोषणा की है। यह एक AI-आधारित बातचीत करने वाला टूल है, जिसकी मदद से यूज़र्स अपने स्मार्टफ़ोन कैमरे के ज़रिए अपने आस-पास की चीज़ों से इंटरैक्ट कर सकते हैं।
पिछले साल सबसे पहले इसे अमेरिका और भारत में लॉन्च किया गया था, लेकिन अब यह फ़ीचर 200 से ज़्यादा देशों में उपलब्ध हो रहा है।
Project Astra और Google Lens की क्षमताओं का इस्तेमाल करके, यह टूल सीधे लाइव कैमरा फ़ीड से विज़ुअल जानकारी लेकर तुरंत मदद देता है। यह एक ऐसे डिजिटल एक्सपर्ट की तरह काम करता है जो वही "देखता है" जो यूज़र देख रहा होता है।
इस फ़ीचर को चालू करने के लिए, यूज़र्स को बस Google ऐप में Lens टूल खोलना होगा और Live आइकन पर टैप करना होगा।
इसके बाद, वे अपने कैमरे को किसी चीज़—जैसे कि कोई मुश्किल ज्योमेट्री डायग्राम या कोई ऐसा फ़र्नीचर जिसे जोड़ने की ज़रूरत हो—की तरफ़ करके ज़ोर से सवाल पूछ सकते हैं।
यह सिस्टम नए Gemini 3.1 Flash Live मॉडल का इस्तेमाल करके स्वाभाविक, आमने-सामने की बातचीत जैसा अनुभव देता है। यह बिना कुछ टाइप किए, एक-एक करके निर्देश और काम के वेब लिंक देता है।
इस विस्तार के पीछे की टेक्नोलॉजी, सहज खोज (intuitive search) के क्षेत्र में एक बहुत बड़ी छलांग है।
बेहतर ऑडियो और वॉइस मॉडल को मिलाकर, Google का लक्ष्य डिजिटल जानकारी और असल दुनिया के बीच की खाई को भरना है।
यह "AI Mode" सिर्फ़ मोबाइल डिवाइस तक ही सीमित नहीं है; डेस्कटॉप यूज़र्स भी अपनी स्क्रीन का विश्लेषण करने के लिए Lens का इस्तेमाल कर सकते हैं। इसकी मदद से वे किसी वेबपेज पर खास चीज़ों को हाईलाइट कर सकते हैं और एक खास AI Overview साइड पैनल के ज़रिए उस विषय के बारे में "और गहराई से जान सकते हैं"।
विज़ुअल सर्च के अलावा, Google Live Translate में अपडेट करके अपनी भाषाई पहुँच को भी बढ़ा रहा है।
यह फ़ीचर iOS पर भी आने वाला है, जिससे यूज़र्स अपने हेडफ़ोन के ज़रिए सीधे-सीधे रीयल-टाइम में अनुवाद कर पाएँगे।
इस विस्तार में कई अहम अंतरराष्ट्रीय बाज़ार शामिल हैं, जैसे कि नाइजीरिया, थाईलैंड, बांग्लादेश और कई यूरोपीय देश। इससे Google का वह लक्ष्य और भी मज़बूत होता है, जिसके तहत वह अलग-अलग भाषाओं और जगहों पर मल्टीमॉडल AI सहायता को सभी के लिए सुलभ बनाना चाहता है।
जैसे-जैसे AI के क्षेत्र में वर्चस्व की होड़ तेज़ हो रही है, ये अपडेट Google के "Agentic AI" पर दिए जा रहे खास ध्यान को दिखाते हैं—ये ऐसे टूल हैं जो सिर्फ़ पहले से तय जवाब ही नहीं देते, बल्कि असल दुनिया के कामों में सक्रिय रूप से मदद भी करते हैं।
Search Live को दुनिया भर में एक आम फ़ीचर बनाकर, कंपनी इस बात पर दाँव लगा रही है कि भविष्य में सर्च का मतलब होगा—बिना किसी रुकावट के, बातचीत के अंदाज़ में होने वाला इंटरैक्शन। यह कदम यह सुनिश्चित करता है कि चाहे कोई यूज़र घर की मरम्मत से जुड़ी किसी समस्या को हल कर रहा हो या किसी परीक्षा की तैयारी कर रहा हो, उसे ज़रूरी जानकारी बस एक कैमरा फ़्रेम की दूरी पर मिल जाए।
గూగుల్, ఏఐ-ఆధారిత "సెర్చ్ లైవ్"ను ప్రపంచవ్యాప్త వినియోగదారులకు విస్తరిస్తోంది
స్మార్ట్ఫోన్ కెమెరా ద్వారా వినియోగదారులు తమ పరిసరాలతో సంభాషించడానికి వీలు కల్పించే, ఏఐ-ఆధారిత సంభాషణా సాధనమైన సెర్చ్ లైవ్ను ప్రపంచవ్యాప్తంగా విడుదల చేస్తున్నట్లు గూగుల్ అధికారికంగా ప్రకటించింది.
గత సంవత్సరం ప్రారంభంలో యునైటెడ్ స్టేట్స్ మరియు భారతదేశంలో ప్రారంభించబడిన ఈ ఫీచర్, ఇప్పుడు 200కు పైగా దేశాలకు విస్తరిస్తోంది.
ప్రాజెక్ట్ ఆస్ట్రా మరియు గూగుల్ లెన్స్ సామర్థ్యాలను ఉపయోగించుకోవడం ద్వారా, ఈ సాధనం లైవ్ కెమెరా ఫీడ్ నుండి నేరుగా దృశ్య సందర్భాన్ని గ్రహించి, నిజ-సమయ సహాయాన్ని అందిస్తుంది. ఇది వినియోగదారుడు చూసేదాన్ని "చూసే" డిజిటల్ నిపుణుడిలా పనిచేస్తుంది.
ఈ ఫీచర్ను యాక్టివేట్ చేయడానికి, వినియోగదారులు గూగుల్ యాప్లోని లెన్స్ సాధనాన్ని తెరిచి, లైవ్ ఐకాన్ను ట్యాప్ చేస్తే సరిపోతుంది.
అక్కడి నుండి, వారు తమ కెమెరాను ఒక వస్తువు వైపు—ఉదాహరణకు, ఒక సంక్లిష్టమైన జ్యామితీయ రేఖాచిత్రం లేదా అమర్చాల్సిన ఫర్నిచర్ ముక్క—చూపి, గట్టిగా ప్రశ్నలు అడగవచ్చు.
ఈ సిస్టమ్, సహజమైన, పరస్పర సంభాషణను అందించడానికి కొత్త జెమిని 3.1 ఫ్లాష్ లైవ్ మోడల్ను ఉపయోగిస్తుంది. ఇది మాన్యువల్గా టైప్ చేయాల్సిన అవసరం లేకుండా, దశలవారీ సూచనలను మరియు సహాయకరమైన వెబ్ లింక్లను అందిస్తుంది.
ఈ విస్తరణ వెనుక ఉన్న సాంకేతికత, సహజమైన శోధనలో ఒక ముఖ్యమైన ముందడుగును సూచిస్తుంది.
అధునాతన ఆడియో మరియు వాయిస్ మోడల్లను ఏకీకృతం చేయడం ద్వారా, డిజిటల్ సమాచారానికి మరియు భౌతిక ప్రపంచానికి మధ్య ఉన్న అంతరాన్ని తగ్గించాలని గూగుల్ లక్ష్యంగా పెట్టుకుంది.
ఈ "AI మోడ్" కేవలం మొబైల్ పరికరాలకే పరిమితం కాదు; డెస్క్టాప్ వినియోగదారులు కూడా తమ స్క్రీన్లను విశ్లేషించడానికి లెన్స్ను ఉపయోగించుకోవచ్చు. దీని ద్వారా వారు ఒక వెబ్పేజీలోని నిర్దిష్ట అంశాలను హైలైట్ చేయవచ్చు మరియు ప్రత్యేకమైన AI ఓవర్వ్యూ సైడ్ ప్యానెల్ ద్వారా ఆ విషయంపై మరింత లోతుగా పరిశీలించవచ్చు.
విజువల్ సెర్చ్తో పాటు, గూగుల్ లైవ్ ట్రాన్స్లేట్కు అప్డేట్లతో తన భాషా పరిధిని విస్తరిస్తోంది.
ఈ ఫీచర్ iOSలో అందుబాటులోకి రానుంది, ఇది వినియోగదారు హెడ్ఫోన్ల ద్వారానే నిజ-సమయ అనువాదాలను సాధ్యం చేస్తుంది.
ఈ విస్తరణ నైజీరియా, థాయ్లాండ్, బంగ్లాదేశ్ మరియు అనేక యూరోపియన్ దేశాలతో సహా పలు కీలక అంతర్జాతీయ మార్కెట్లను కవర్ చేస్తుంది. తద్వారా విభిన్న భాషలు మరియు భౌగోళిక ప్రాంతాలలో మల్టీమోడల్ AI సహాయాన్ని అందుబాటులోకి తీసుకురావాలనే గూగుల్ లక్ష్యాన్ని ఇది మరింత పటిష్టం చేస్తుంది.
AI ఆధిపత్యం కోసం పోటీ తీవ్రమవుతున్న తరుణంలో, ఈ అప్డేట్లు ఏజెంటిక్ AIపై గూగుల్ దృష్టిని స్పష్టం చేస్తున్నాయి—ఇవి కేవలం నిశ్చలమైన సమాధానాలను అందించడమే కాకుండా, నిజ-ప్రపంచ పనులలో చురుకుగా సహాయపడే సాధనాలు.
సెర్చ్ లైవ్ను ప్రపంచవ్యాప్తంగా ఒక ప్రామాణిక ఫీచర్గా చేయడం ద్వారా, సెర్చ్ భవిష్యత్తు నిరాటంకమైన, సంభాషణాత్మక పరస్పర చర్యలలోనే ఉందని ఆ కంపెనీ భావిస్తోంది.
వినియోగదారుడు ఇంటి మరమ్మతుకు సంబంధించిన సమస్యను పరిష్కరిస్తున్నా లేదా పరీక్ష కోసం చదువుతున్నా—వారికి అవసరమైన సమాచారం కేవలం కెమెరా ఫ్రేమ్ దూరంలోనే లభించేలా ఈ చర్య నిర్ధారిస్తుంది.
No comments:
Post a Comment
Please Dont Leave Me