Thousands of Grok Chats Leaked Through Google Search
Elon Musk’s AI company, xAI, is facing a significant privacy issue after thousands of conversations from its chatbot, Grok, were leaked and indexed by search engines.
This security lapse occurred because Grok's "share" feature, which users could use to publish conversations, quietly made these chats public without any clear warnings.
Each shared conversation was given a unique URL that was then discoverable by search engines like Google, Bing, and DuckDuckGo, leading to a major data exposure.
The leaked chats, numbering over 370,000, contained a wide range of content, from mundane requests to alarming and dangerous prompts.
Among the indexed conversations were instructions for creating illicit substances like fentanyl, making bombs, and developing malware.
In one particularly disturbing instance, a user even requested a detailed plan to assassinate Elon Musk.
This exposure highlights the lack of robust safety guardrails in place, as these requests directly violate xAI's own content policies.
Beyond dangerous content, the leak also compromised users' personal information.
Some of the reviewed chats contained sensitive details, including names, passwords, and private files such as spreadsheets and images.
Users who turned to Grok for help with medical and psychological issues also had their private queries exposed, as they were under the assumption that their conversations were confidential.
This incident is not the first of its kind in the AI industry. Previously, OpenAI faced a similar issue when some ChatGPT conversations appeared in search results.
OpenAI quickly responded by calling it a "short-lived experiment" and reversed the feature.
At the time, Elon Musk criticized OpenAI and claimed that Grok would not have such a feature.
This recent leak, however, demonstrates that xAI's implementation of a sharing feature had similar, if not greater, security flaws.
The incident brings to light a growing concern about how people interact with AI.
As users increasingly rely on chatbots for personal and sensitive matters, treating them like a confidant or a therapist, the need for robust privacy and security measures becomes critical.
As OpenAI CEO Sam Altman has cautioned, these conversations are not protected by legal or medical privilege.
The Grok leak serves as a serious reminder that users should be cautious about the information they share with AI, as it may not be as private as they believe.
गूगल सर्च के ज़रिए हज़ारों ग्रोक चैट लीक
एलोन मस्क की एआई कंपनी, xAI, अपने चैटबॉट, ग्रोक से हज़ारों बातचीत लीक होने और सर्च इंजनों द्वारा इंडेक्स किए जाने के बाद एक गंभीर गोपनीयता समस्या का सामना कर रही है।
यह सुरक्षा चूक इसलिए हुई क्योंकि ग्रोक का "शेयर" फ़ीचर, जिसका इस्तेमाल उपयोगकर्ता बातचीत प्रकाशित करने के लिए कर सकते थे, बिना किसी स्पष्ट चेतावनी के चुपचाप इन चैट को सार्वजनिक कर देता था।
हर शेयर की गई बातचीत को एक विशिष्ट URL दिया जाता था जिसे बाद में गूगल, बिंग और डकडकगो जैसे सर्च इंजन खोज पाते थे, जिससे डेटा का बड़ा खुलासा हुआ।
370,000 से ज़्यादा लीक हुई चैट में सामान्य अनुरोधों से लेकर खतरनाक और चिंताजनक संकेतों तक, कई तरह की सामग्री शामिल थी।
इंडेक्स की गई बातचीत में फेंटेनाइल जैसे अवैध पदार्थ बनाने, बम बनाने और मैलवेयर विकसित करने के निर्देश शामिल थे।
एक बेहद परेशान करने वाले मामले में, एक उपयोगकर्ता ने एलोन मस्क की हत्या की एक विस्तृत योजना का भी अनुरोध किया।
यह खुलासा मज़बूत सुरक्षा उपायों की कमी को दर्शाता है, क्योंकि ये अनुरोध सीधे तौर पर xAI की अपनी सामग्री नीतियों का उल्लंघन करते हैं।
ख़तरनाक सामग्री के अलावा, इस लीक से उपयोगकर्ताओं की व्यक्तिगत जानकारी भी लीक हुई।
समीक्षित कुछ चैट में संवेदनशील विवरण शामिल थे, जिनमें नाम, पासवर्ड और स्प्रेडशीट व चित्र जैसी निजी फ़ाइलें शामिल थीं।
चिकित्सा और मनोवैज्ञानिक समस्याओं के लिए मदद के लिए Grok का रुख़ करने वाले उपयोगकर्ताओं के निजी प्रश्न भी लीक हो गए, क्योंकि उन्हें लगा कि उनकी बातचीत गोपनीय है।
यह घटना AI उद्योग में अपनी तरह की पहली घटना नहीं है। इससे पहले, OpenAI को भी इसी तरह की समस्या का सामना करना पड़ा था जब कुछ ChatGPT बातचीत खोज परिणामों में दिखाई दी थीं।
OpenAI ने तुरंत प्रतिक्रिया देते हुए इसे "अल्पकालिक प्रयोग" बताया और इस सुविधा को वापस ले लिया।
उस समय, एलन मस्क ने OpenAI की आलोचना की थी और दावा किया था कि Grok में ऐसी कोई सुविधा नहीं होगी।
हालाँकि, यह हालिया लीक दर्शाता है कि xAI के साझाकरण सुविधा के कार्यान्वयन में भी ऐसी ही, या इससे भी बड़ी, सुरक्षा खामियाँ थीं।
यह घटना इस बात को लेकर बढ़ती चिंता को उजागर करती है कि लोग AI के साथ कैसे बातचीत करते हैं।
जैसे-जैसे उपयोगकर्ता व्यक्तिगत और संवेदनशील मामलों के लिए चैटबॉट्स पर अधिक से अधिक निर्भर होते जा रहे हैं, उन्हें किसी विश्वासपात्र या चिकित्सक की तरह समझा जा रहा है, मज़बूत गोपनीयता और सुरक्षा उपायों की आवश्यकता महत्वपूर्ण होती जा रही है।
जैसा कि ओपनएआई के सीईओ सैम ऑल्टमैन ने चेतावनी दी है, ये बातचीत कानूनी या चिकित्सीय विशेषाधिकार द्वारा संरक्षित नहीं हैं।
ग्रोक लीक एक गंभीर चेतावनी है कि उपयोगकर्ताओं को AI के साथ साझा की जाने वाली जानकारी के बारे में सतर्क रहना चाहिए, क्योंकि हो सकता है कि यह उतनी निजी न हो जितनी वे मानते हैं।
గూగుల్ సెర్చ్ ద్వారా వేలాది గ్రోక్ చాట్లు లీక్ అయ్యాయి
ఎలోన్ మస్క్ యొక్క AI కంపెనీ, xAI, దాని చాట్బాట్, గ్రోక్ నుండి వేలాది సంభాషణలు లీక్ అయ్యాయి మరియు సెర్చ్ ఇంజన్ల ద్వారా ఇండెక్స్ చేయబడ్డాయి కాబట్టి, అది గణనీయమైన గోప్యతా సమస్యను ఎదుర్కొంటోంది.
వినియోగదారులు సంభాషణలను ప్రచురించడానికి ఉపయోగించగల గ్రోక్ యొక్క "షేర్" ఫీచర్, స్పష్టమైన హెచ్చరికలు లేకుండా ఈ చాట్లను నిశ్శబ్దంగా పబ్లిక్ చేసింది కాబట్టి ఈ భద్రతా లోపం సంభవించింది.
ప్రతి షేర్డ్ సంభాషణకు గూగుల్, బింగ్ మరియు డక్డక్గో వంటి సెర్చ్ ఇంజన్ల ద్వారా కనుగొనగలిగే ప్రత్యేకమైన URL ఇవ్వబడింది, ఇది పెద్ద డేటా బహిర్గతంకు దారితీసింది.
370,000 కంటే ఎక్కువ లీక్ అయిన చాట్లు, సాధారణ అభ్యర్థనల నుండి భయంకరమైన మరియు ప్రమాదకరమైన ప్రాంప్ట్ల వరకు విస్తృత శ్రేణి కంటెంట్ను కలిగి ఉన్నాయి.
ఇండెక్స్ చేయబడిన సంభాషణలలో ఫెంటానిల్ వంటి అక్రమ పదార్థాలను సృష్టించడం, బాంబులను తయారు చేయడం మరియు మాల్వేర్ను అభివృద్ధి చేయడం కోసం సూచనలు ఉన్నాయి.
ముఖ్యంగా కలతపెట్టే ఒక సందర్భంలో, ఒక వినియోగదారు ఎలోన్ మస్క్ను హత్య చేయడానికి వివరణాత్మక ప్రణాళికను కూడా అభ్యర్థించారు.
ఈ బహిర్గతం బలమైన భద్రతా రక్షణ వ్యవస్థలు లేకపోవడాన్ని హైలైట్ చేస్తుంది, ఎందుకంటే ఈ అభ్యర్థనలు xAI యొక్క స్వంత కంటెంట్ విధానాలను నేరుగా ఉల్లంఘిస్తాయి.
ప్రమాదకరమైన కంటెంట్తో పాటు, లీక్ వినియోగదారుల వ్యక్తిగత సమాచారాన్ని కూడా రాజీ చేసింది.
సమీక్షించబడిన కొన్ని చాట్లలో పేర్లు, పాస్వర్డ్లు మరియు స్ప్రెడ్షీట్లు మరియు చిత్రాల వంటి ప్రైవేట్ ఫైల్లు వంటి సున్నితమైన వివరాలు ఉన్నాయి.
వైద్య మరియు మానసిక సమస్యలతో సహాయం కోసం గ్రోక్ను ఆశ్రయించిన వినియోగదారులు వారి సంభాషణలు గోప్యంగా ఉన్నాయని భావించినందున వారి ప్రైవేట్ ప్రశ్నలు కూడా బహిర్గతమయ్యాయి.
AI పరిశ్రమలో ఈ రకమైన సంఘటన మొదటిది కాదు. గతంలో, కొన్ని ChatGPT సంభాషణలు శోధన ఫలితాల్లో కనిపించినప్పుడు OpenAI ఇలాంటి సమస్యను ఎదుర్కొంది.
OpenAI దీనిని "స్వల్పకాలిక ప్రయోగం" అని పిలిచి త్వరగా స్పందించింది మరియు ఫీచర్ను తిప్పికొట్టింది.
ఆ సమయంలో, ఎలోన్ మస్క్ OpenAIని విమర్శించాడు మరియు Grokకి అలాంటి ఫీచర్ ఉండదని పేర్కొన్నాడు.
అయితే, ఈ ఇటీవలి లీక్, xAI షేరింగ్ ఫీచర్ అమలులో ఇలాంటి, అంతకంటే ఎక్కువ భద్రతా లోపాలు ఉన్నాయని నిరూపిస్తుంది.
ఈ సంఘటన ప్రజలు AIతో ఎలా సంకర్షణ చెందుతారనే దానిపై పెరుగుతున్న ఆందోళనను వెలుగులోకి తెస్తుంది.
వినియోగదారులు వ్యక్తిగత మరియు సున్నితమైన విషయాల కోసం చాట్బాట్లపై ఎక్కువగా ఆధారపడటం వలన, వారిని నమ్మకస్థులు లేదా చికిత్సకుల వలె చూడటం వలన, బలమైన గోప్యత మరియు భద్రతా చర్యల అవసరం చాలా కీలకం అవుతుంది.
OpenAI CEO సామ్ ఆల్ట్మాన్ హెచ్చరించినట్లుగా, ఈ సంభాషణలు చట్టపరమైన లేదా వైద్యపరమైన ప్రత్యేక హక్కుల ద్వారా రక్షించబడవు.
గ్రోక్ లీక్ అనేది వినియోగదారులు AIతో పంచుకునే సమాచారం గురించి జాగ్రత్తగా ఉండాలని తీవ్రమైన జ్ఞాపికగా పనిచేస్తుంది, ఎందుకంటే అది వారు నమ్మినంత ప్రైవేట్ కాకపోవచ్చు.
No comments:
Post a Comment
Please Dont Leave Me