Saturday, September 13, 2025

OpenAI Introduces Parental Controls Following Teen's Death

OpenAI Introduces Parental Controls Following Teen's Death



OpenAI Introduces Parental Controls Following Teen's Death

OpenAI is implementing a new parental control feature for its chatbot, ChatGPT, in response to a tragic incident. 

The decision comes after the suicide of 16-year-old Adam Rain, who had been discussing self-harm with the AI for months. 

The new tool, developed with the guidance of 250 doctors, is designed to give parents greater visibility into their children's interactions with the chatbot and to provide early warnings of potential risks.

The new feature allows parents to link their ChatGPT account directly to their child's account. 

This connection enables parents to monitor the chatbot's responses to their child's conversations. 

The primary purpose of this oversight is to identify and address any potentially dangerous interactions, such as discussions of self-harm, suicidal ideation, or other harmful behaviors. 

This is a significant shift in how the platform operates, moving from a purely user-centric model to one that incorporates a layer of parental supervision.

A key component of this new system is the automated alert function. 

In situations where the chatbot's responses or the nature of the conversation trigger a safety concern, parents will receive an immediate alert. 

These alerts are intended to give parents a critical window of opportunity to intervene and seek professional help for their child. 

The alerts are based on a system developed with medical experts, ensuring that the criteria for flagging a conversation are grounded in psychological and medical understanding.

The lawsuit filed by Adam Rain's parents at the end of August played a crucial role in prompting this change. 

The legal action brought to light the devastating consequences of unchecked access to AI and the lack of safeguards for minors. 

The lawsuit alleges that OpenAI failed in its duty to protect a vulnerable user, leading to a fatal outcome. 

The case has raised important questions about the responsibility of tech companies when their products are used by children.

The introduction of these parental controls signifies a major step by OpenAI to address the serious ethical and safety concerns surrounding AI and mental health. 

While the move is a direct result of a tragedy, it highlights the growing recognition within the tech industry that AI models, particularly those used by young people, require robust oversight. 

This feature aims to strike a balance between providing a useful tool and ensuring the safety and well-being of its youngest users.


ओपनएआई ने किशोर की मौत के बाद अभिभावकीय नियंत्रण लागू किया

ओपनएआई एक दुखद घटना के बाद अपने चैटबॉट, चैटजीपीटी के लिए एक नया अभिभावकीय नियंत्रण फ़ीचर लागू कर रहा है।

यह निर्णय 16 वर्षीय एडम रेन की आत्महत्या के बाद लिया गया है, जो महीनों से एआई के साथ आत्म-क्षति के बारे में चर्चा कर रहा था।

250 डॉक्टरों के मार्गदर्शन में विकसित यह नया टूल, माता-पिता को चैटबॉट के साथ अपने बच्चों की बातचीत की बेहतर जानकारी देने और संभावित जोखिमों की शुरुआती चेतावनी देने के लिए डिज़ाइन किया गया है।

यह नया फ़ीचर माता-पिता को अपने चैटजीपीटी खाते को सीधे अपने बच्चे के खाते से जोड़ने की अनुमति देता है।

यह कनेक्शन माता-पिता को अपने बच्चे की बातचीत पर चैटबॉट की प्रतिक्रियाओं की निगरानी करने में सक्षम बनाता है।

इस निगरानी का मुख्य उद्देश्य किसी भी संभावित खतरनाक बातचीत, जैसे आत्म-क्षति, आत्महत्या के विचार, या अन्य हानिकारक व्यवहारों की चर्चा, की पहचान करना और उनका समाधान करना है।

 यह प्लेटफ़ॉर्म के संचालन में एक महत्वपूर्ण बदलाव है, जो पूरी तरह से उपयोगकर्ता-केंद्रित मॉडल से माता-पिता की निगरानी की एक परत को शामिल करते हुए एक मॉडल की ओर बढ़ रहा है।

इस नई प्रणाली का एक प्रमुख घटक स्वचालित अलर्ट फ़ंक्शन है।

ऐसी स्थितियों में जहाँ चैटबॉट की प्रतिक्रियाएँ या बातचीत की प्रकृति सुरक्षा संबंधी चिंता उत्पन्न करती हैं, माता-पिता को तत्काल अलर्ट प्राप्त होगा।

इन अलर्ट का उद्देश्य माता-पिता को अपने बच्चे के लिए हस्तक्षेप करने और पेशेवर मदद लेने का एक महत्वपूर्ण अवसर प्रदान करना है।

ये अलर्ट चिकित्सा विशेषज्ञों द्वारा विकसित एक प्रणाली पर आधारित हैं, जो यह सुनिश्चित करती है कि किसी बातचीत को चिह्नित करने के मानदंड मनोवैज्ञानिक और चिकित्सा समझ पर आधारित हों।

अगस्त के अंत में एडम रेन के माता-पिता द्वारा दायर मुकदमे ने इस बदलाव को प्रेरित करने में महत्वपूर्ण भूमिका निभाई।

इस कानूनी कार्रवाई ने एआई तक अनियंत्रित पहुँच और नाबालिगों के लिए सुरक्षा उपायों की कमी के विनाशकारी परिणामों को उजागर किया।

मुकदमे में आरोप लगाया गया है कि ओपनएआई एक असुरक्षित उपयोगकर्ता की सुरक्षा करने के अपने कर्तव्य में विफल रहा, जिसके परिणामस्वरूप एक घातक परिणाम हुआ।

इस मामले ने तकनीकी कंपनियों की ज़िम्मेदारी के बारे में महत्वपूर्ण प्रश्न उठाए हैं जब उनके उत्पादों का उपयोग बच्चों द्वारा किया जाता है।

 इन अभिभावकीय नियंत्रणों की शुरुआत, ओपनएआई द्वारा एआई और मानसिक स्वास्थ्य से जुड़ी गंभीर नैतिक और सुरक्षा संबंधी चिंताओं को दूर करने की दिशा में एक बड़ा कदम है।

हालाँकि यह कदम एक त्रासदी का प्रत्यक्ष परिणाम है, यह तकनीकी उद्योग में इस बढ़ती मान्यता को उजागर करता है कि एआई मॉडल, विशेष रूप से युवाओं द्वारा उपयोग किए जाने वाले मॉडल, पर कड़ी निगरानी की आवश्यकता होती है।

इस सुविधा का उद्देश्य एक उपयोगी उपकरण प्रदान करने और अपने सबसे कम उम्र के उपयोगकर्ताओं की सुरक्षा और कल्याण सुनिश्चित करने के बीच संतुलन बनाना है।

OpenAI టీనేజర్ మరణం తర్వాత తల్లిదండ్రుల నియంత్రణలను ప్రవేశపెట్టింది

ఒక విషాద సంఘటనకు ప్రతిస్పందనగా OpenAI దాని చాట్‌బాట్, ChatGPT కోసం కొత్త తల్లిదండ్రుల నియంత్రణ లక్షణాన్ని అమలు చేస్తోంది.

నెలల తరబడి AIతో స్వీయ-హాని గురించి చర్చిస్తున్న 16 ఏళ్ల ఆడమ్ రైన్ ఆత్మహత్య తర్వాత ఈ నిర్ణయం వచ్చింది.

250 మంది వైద్యుల మార్గదర్శకత్వంతో అభివృద్ధి చేయబడిన ఈ కొత్త సాధనం, చాట్‌బాట్‌తో వారి పిల్లల పరస్పర చర్యలపై తల్లిదండ్రులకు ఎక్కువ దృశ్యమానతను అందించడానికి మరియు సంభావ్య ప్రమాదాల గురించి ముందస్తు హెచ్చరికలను అందించడానికి రూపొందించబడింది.

కొత్త ఫీచర్ తల్లిదండ్రులు వారి ChatGPT ఖాతాను నేరుగా వారి పిల్లల ఖాతాకు లింక్ చేయడానికి అనుమతిస్తుంది.

ఈ కనెక్షన్ తల్లిదండ్రులు తమ పిల్లల సంభాషణలకు చాట్‌బాట్ ప్రతిస్పందనలను పర్యవేక్షించడానికి వీలు కల్పిస్తుంది.

ఈ పర్యవేక్షణ యొక్క ప్రాథమిక ఉద్దేశ్యం స్వీయ-హాని చర్చలు, ఆత్మహత్య ఆలోచనలు లేదా ఇతర హానికరమైన ప్రవర్తనల వంటి ఏదైనా ప్రమాదకరమైన పరస్పర చర్యలను గుర్తించడం మరియు పరిష్కరించడం.

ప్లాట్‌ఫారమ్ ఎలా పనిచేస్తుందో దానిలో ఇది ఒక ముఖ్యమైన మార్పు, ఇది పూర్తిగా వినియోగదారు-కేంద్రీకృత నమూనా నుండి తల్లిదండ్రుల పర్యవేక్షణ పొరను కలిగి ఉన్న దానికి మారుతుంది.

 ఈ కొత్త వ్యవస్థలో కీలకమైన భాగం ఆటోమేటెడ్ అలర్ట్ ఫంక్షన్. 

చాట్‌బాట్ ప్రతిస్పందనలు లేదా సంభాషణ స్వభావం భద్రతా సమస్యను ప్రేరేపించే పరిస్థితులలో, తల్లిదండ్రులకు తక్షణ హెచ్చరిక అందుతుంది. 

ఈ హెచ్చరికలు తల్లిదండ్రులు జోక్యం చేసుకోవడానికి మరియు వారి పిల్లల కోసం వృత్తిపరమైన సహాయం కోరడానికి కీలకమైన అవకాశాన్ని కల్పించడానికి ఉద్దేశించబడ్డాయి. 

సంభాషణను ఫ్లాగ్ చేయడానికి ప్రమాణాలు మానసిక మరియు వైద్య అవగాహనపై ఆధారపడి ఉన్నాయని నిర్ధారిస్తూ వైద్య నిపుణులతో అభివృద్ధి చేయబడిన వ్యవస్థపై హెచ్చరికలు ఆధారపడి ఉంటాయి.

ఆగస్టు చివరిలో ఆడమ్ రైన్ తల్లిదండ్రులు దాఖలు చేసిన దావా ఈ మార్పును ప్రేరేపించడంలో కీలక పాత్ర పోషించింది. 

చట్టపరమైన చర్య AIకి తనిఖీ చేయని యాక్సెస్ మరియు మైనర్లకు రక్షణలు లేకపోవడం వల్ల కలిగే వినాశకరమైన పరిణామాలను వెలుగులోకి తెచ్చింది. 

దుర్బల వినియోగదారుని రక్షించడంలో OpenAI తన విధిలో విఫలమైందని, ఇది ప్రాణాంతక ఫలితానికి దారితీసిందని దావా ఆరోపించింది. 

పిల్లలు తమ ఉత్పత్తులను ఉపయోగించినప్పుడు టెక్ కంపెనీల బాధ్యత గురించి ఈ కేసు ముఖ్యమైన ప్రశ్నలను లేవనెత్తింది.

ఈ తల్లిదండ్రుల నియంత్రణలను ప్రవేశపెట్టడం అనేది AI మరియు మానసిక ఆరోగ్యం చుట్టూ ఉన్న తీవ్రమైన నైతిక మరియు భద్రతా సమస్యలను పరిష్కరించడానికి OpenAI తీసుకున్న ఒక ప్రధాన అడుగును సూచిస్తుంది. 

 ఈ చర్య ఒక విషాదం యొక్క ప్రత్యక్ష ఫలితం అయినప్పటికీ, AI మోడల్స్, ముఖ్యంగా యువత ఉపయోగించే వాటికి బలమైన పర్యవేక్షణ అవసరమని టెక్ పరిశ్రమలో పెరుగుతున్న గుర్తింపును ఇది హైలైట్ చేస్తుంది. 

ఈ ఫీచర్ ఉపయోగకరమైన సాధనాన్ని అందించడం మరియు దాని చిన్న వినియోగదారుల భద్రత మరియు శ్రేయస్సును నిర్ధారించడం మధ్య సమతుల్యతను సాధించడం లక్ష్యంగా పెట్టుకుంది.

No comments:

Post a Comment

Please Dont Leave Me