YouTube Enlists Viewers to Help Identify "AI Slop" in New Rating System
YouTube has introduced a new strategy to combat the rising tide of low-quality, AI-generated content by asking its audience for direct feedback.
Users on the mobile app have recently reported seeing a new pop-up survey during the video rating process that specifically targets the authenticity of the content.
These prompts ask viewers questions such as "Does this feel like AI slop?" or "How much does this video feel like low-quality AI?" with a scale ranging from "Not at all" to "Extremely."
This move adds a critical third layer to YouTube's defense against automated content, supplementing its existing automated detection and human review systems.
While the platform does not currently ban AI-generated tools or mandate their disclosure, it does enforce monetization penalties for content flagged as low-quality.
By leveraging viewer intuition, the company hopes to bridge the gap that technical algorithms and overstretched human moderators have struggled to fill.
The scale of the problem is significant, as recent data suggests that a large portion of the platform’s recommendations consists of repetitive, low-substance material.
One study found that over 20% of the first 500 videos recommended to new accounts were identified as AI-generated "slop," while a third fell into the broader "brainrot" category.
This influx of content is designed to exploit the platform's algorithm rather than provide genuine value to the audience.
The impact of this automated content is particularly concerning in the realm of children's programming.
Investigations have revealed thousands of videos targeted at kids that claim to be educational but are actually low-effort, AI-produced clips intended solely to capture screen time.
Experts warn that this "brainrot" content could have negative developmental effects on younger viewers, making the identification and removal of such videos a high priority for digital safety advocates.
Despite the rollout of these surveys, YouTube has not yet clarified how viewer ratings will be weighted or what specific actions will be taken against flagged videos.
Furthermore, some tech observers have raised concerns that this massive data collection effort could inadvertently help AI developers.
They worry that using this feedback at scale could provide training data for AI models, teaching them exactly how to avoid detection and making future "slop" even harder to distinguish from human-made content.
YouTube ने नई रेटिंग प्रणाली में "AI Slop" की पहचान करने में मदद के लिए दर्शकों को शामिल किया
YouTube ने कम गुणवत्ता वाले, AI-जनित कंटेंट की बढ़ती बाढ़ से निपटने के लिए एक नई रणनीति पेश की है, जिसमें वह अपने दर्शकों से सीधे फ़ीडबैक मांग रहा है।
मोबाइल ऐप पर उपयोगकर्ताओं ने हाल ही में वीडियो रेटिंग प्रक्रिया के दौरान एक नया पॉप-अप सर्वेक्षण (survey) दिखाई देने की सूचना दी है, जो विशेष रूप से कंटेंट की प्रामाणिकता पर केंद्रित है।
ये संकेत दर्शकों से ऐसे प्रश्न पूछते हैं जैसे "क्या यह AI Slop जैसा लगता है?" या "यह वीडियो कितना कम गुणवत्ता वाला AI लगता है?" जिसमें "बिल्कुल नहीं" से लेकर "बहुत ज़्यादा" तक का एक पैमाना होता है।
यह कदम YouTube के स्वचालित कंटेंट के खिलाफ बचाव में एक महत्वपूर्ण तीसरी परत जोड़ता है, जो उसके मौजूदा स्वचालित पहचान और मानवीय समीक्षा प्रणालियों का पूरक है।
हालांकि प्लेटफ़ॉर्म वर्तमान में AI-जनित उपकरणों पर प्रतिबंध नहीं लगाता है या उनके खुलासे को अनिवार्य नहीं करता है, लेकिन यह कम गुणवत्ता वाले रूप में चिह्नित कंटेंट के लिए मुद्रीकरण (monetization) दंड लागू करता है।
दर्शकों की सहज समझ का लाभ उठाकर, कंपनी उस खाई को पाटने की उम्मीद करती है जिसे तकनीकी एल्गोरिदम और अत्यधिक काम के बोझ से दबे मानवीय मध्यस्थ भरने के लिए संघर्ष कर रहे थे।
समस्या का पैमाना काफी बड़ा है, क्योंकि हालिया डेटा बताता है कि प्लेटफ़ॉर्म की सिफारिशों का एक बड़ा हिस्सा दोहराव वाले, कम सार वाले (low-substance) सामग्री से बना है।
एक अध्ययन में पाया गया कि नए खातों को अनुशंसित पहले 500 वीडियो में से 20% से अधिक को AI-जनित "Slop" के रूप में पहचाना गया, जबकि एक तिहाई व्यापक "Brainrot" श्रेणी में आते थे।
कंटेंट का यह प्रवाह दर्शकों को वास्तविक मूल्य प्रदान करने के बजाय प्लेटफ़ॉर्म के एल्गोरिदम का फायदा उठाने के लिए डिज़ाइन किया गया है।
इस स्वचालित कंटेंट का प्रभाव विशेष रूप से बच्चों के कार्यक्रमों के क्षेत्र में चिंताजनक है।
जांचों से ऐसे हजारों वीडियो सामने आए हैं जो बच्चों को लक्षित करते हैं और दावा करते हैं कि वे शैक्षिक हैं, लेकिन वास्तव में वे कम मेहनत से बनाए गए, AI-निर्मित क्लिप हैं जिनका एकमात्र उद्देश्य स्क्रीन टाइम (देखने का समय) हासिल करना है।
विशेषज्ञ चेतावनी देते हैं कि इस "Brainrot" कंटेंट का युवा दर्शकों के विकास पर नकारात्मक प्रभाव पड़ सकता है, जिससे ऐसे वीडियो की पहचान और उन्हें हटाना डिजिटल सुरक्षा अधिवक्ताओं के लिए एक उच्च प्राथमिकता बन जाता है।
इन सर्वेक्षणों को शुरू करने के बावजूद, YouTube ने अभी तक यह स्पष्ट नहीं किया है कि दर्शकों की रेटिंग को कितना महत्व दिया जाएगा या चिह्नित (flagged) वीडियो के खिलाफ क्या विशिष्ट कार्रवाई की जाएगी।
इसके अलावा, कुछ तकनीकी पर्यवेक्षकों ने चिंता जताई है कि डेटा संग्रह का यह विशाल प्रयास अनजाने में AI डेवलपर्स की मदद कर सकता है। उन्हें चिंता है कि बड़े पैमाने पर इस फीडबैक का उपयोग करने से एआई मॉडल के लिए प्रशिक्षण डेटा मिल सकता है, जिससे उन्हें यह सिखाया जा सकता है कि पता लगने से कैसे बचा जाए और भविष्य में "गलत" सामग्री को मानव निर्मित सामग्री से अलग करना और भी मुश्किल हो जाए।
కొత్త రేటింగ్ విధానంలో "AI లోపాలను" గుర్తించడంలో సహాయపడటానికి యూట్యూబ్ వీక్షకుల సహాయం కోరుతోంది
తక్కువ నాణ్యత గల, AI- రూపొందించిన కంటెంట్ పెరుగుదలను ఎదుర్కోవడానికి, యూట్యూబ్ తన ప్రేక్షకుల నుండి ప్రత్యక్ష అభిప్రాయాన్ని కోరడం ద్వారా ఒక కొత్త వ్యూహాన్ని ప్రవేశపెట్టింది.
మొబైల్ యాప్లోని వినియోగదారులు, వీడియో రేటింగ్ ప్రక్రియ సమయంలో కంటెంట్ యొక్క ప్రామాణికతను ప్రత్యేకంగా లక్ష్యంగా చేసుకునే ఒక కొత్త పాప్-అప్ సర్వేను ఇటీవల చూసినట్లు నివేదించారు.
ఈ ప్రశ్నలు వీక్షకులను "ఇది AI లోపంలా అనిపిస్తుందా?" లేదా "ఈ వీడియో ఎంతవరకు తక్కువ నాణ్యత గల AI లాగా అనిపిస్తుంది?" వంటి ప్రశ్నలు అడుగుతాయి. దీనికి "అస్సలు కాదు" నుండి "అత్యంత" వరకు స్కేల్ ఉంటుంది.
ఈ చర్య, ఇప్పటికే ఉన్న ఆటోమేటెడ్ డిటెక్షన్ మరియు మానవ సమీక్షా వ్యవస్థలకు తోడుగా, ఆటోమేటెడ్ కంటెంట్కు వ్యతిరేకంగా యూట్యూబ్ యొక్క రక్షణకు ఒక కీలకమైన మూడవ పొరను జోడిస్తుంది.
ప్రస్తుతం ఈ ప్లాట్ఫామ్ AI- రూపొందించిన సాధనాలను నిషేధించకపోయినా లేదా వాటిని బహిర్గతం చేయాలని ఆదేశించకపోయినా, తక్కువ నాణ్యత గలదిగా గుర్తించబడిన కంటెంట్పై మానిటైజేషన్ జరిమానాలను విధిస్తుంది.
వీక్షకుల అంతర్ దృష్టిని ఉపయోగించుకోవడం ద్వారా, సాంకేతిక అల్గారిథమ్లు మరియు అధిక పనిభారంతో ఉన్న మానవ మోడరేటర్లు పూరించడానికి ఇబ్బంది పడుతున్న అంతరాన్ని పూడ్చాలని కంపెనీ ఆశిస్తోంది.
ఈ సమస్య యొక్క తీవ్రత చాలా ఎక్కువ. ఎందుకంటే, ప్లాట్ఫారమ్ ఇచ్చే సిఫార్సులలో అధిక భాగం పునరావృతమయ్యే, విలువలేని కంటెంట్తో నిండి ఉన్నాయని ఇటీవలి డేటా సూచిస్తోంది.
ఒక అధ్యయనంలో, కొత్త ఖాతాలకు సిఫార్సు చేయబడిన మొదటి 500 వీడియోలలో 20% కంటే ఎక్కువ వీడియోలు AI- రూపొందించిన పనికిరానివిగా ("స్లాప్") గుర్తించబడ్డాయి, అయితే మూడింట ఒక వంతు వీడియోలు విస్తృతమైన "బ్రెయిన్రాట్" (మెదడును పాడుచేసే) వర్గంలోకి వచ్చాయి.
ఈ కంటెంట్ వెల్లువ, ప్రేక్షకులకు నిజమైన విలువను అందించడం కంటే, ప్లాట్ఫారమ్ యొక్క అల్గారిథమ్ను దుర్వినియోగం చేసేలా రూపొందించబడింది.
పిల్లల కార్యక్రమాల విషయంలో ఈ ఆటోమేటెడ్ కంటెంట్ ప్రభావం ప్రత్యేకంగా ఆందోళన కలిగిస్తోంది.
పిల్లలను లక్ష్యంగా చేసుకుని, విద్యాపరమైనవిగా చెప్పుకునే వేలాది వీడియోలు వాస్తవానికి స్క్రీన్ సమయాన్ని ఆక్రమించడం కోసం మాత్రమే ఉద్దేశించిన, తక్కువ శ్రమతో కూడిన, AI- రూపొందించిన క్లిప్లేనని దర్యాప్తులలో వెల్లడైంది.
ఈ "బ్రెయిన్రాట్" కంటెంట్ చిన్న వయస్సు వీక్షకులపై ప్రతికూల అభివృద్ధి ప్రభావాలను కలిగిస్తుందని నిపుణులు హెచ్చరిస్తున్నారు. అందువల్ల, అటువంటి వీడియోలను గుర్తించి, తొలగించడం డిజిటల్ భద్రతా కార్యకర్తలకు అత్యంత ప్రాధాన్యత గల అంశంగా మారింది.
ఈ సర్వేలను ప్రారంభించినప్పటికీ, వీక్షకుల రేటింగ్లకు ఎంత ప్రాధాన్యత ఇస్తారో లేదా ఫ్లాగ్ చేయబడిన వీడియోలపై ఎలాంటి నిర్దిష్ట చర్యలు తీసుకుంటారో యూట్యూబ్ ఇంకా స్పష్టం చేయలేదు.
అంతేకాకుండా, ఈ భారీ డేటా సేకరణ ప్రయత్నం అనుకోకుండా ఏఐ డెవలపర్లకు సహాయపడగలదని కొంతమంది టెక్ పరిశీలకులు ఆందోళన వ్యక్తం చేశారు.
ఈ ఫీడ్బ్యాక్ను పెద్ద ఎత్తున ఉపయోగించడం వల్ల, అది ఏఐ మోడళ్లకు శిక్షణా డేటాను అందించి, పట్టుబడకుండా ఎలా తప్పించుకోవాలో వాటికి కచ్చితంగా నేర్పి, భవిష్యత్తులో వచ్చే "అనవసరమైన విషయాలను" మానవ నిర్మిత కంటెంట్ నుండి వేరు చేసి గుర్తించడం మరింత కష్టతరం చేస్తుందని వారు ఆందోళన చెందుతున్నారు.
No comments:
Post a Comment
Please Dont Leave Me