The 'Godfather of AI' Warns of a Looming Language Barrier
Geoffrey Hinton, a pioneering figure in artificial intelligence (AI), has voiced serious concerns about the future trajectory of the technology.
During an appearance on the show "One Decision," Hinton warned that AI systems may soon develop their own unique languages to communicate with each other.
He explained that currently, AI uses a "chain of thought" reasoning that is often in English, which allows humans to follow its logic.
However, he cautioned that if machines begin to communicate in an internal language that's incomprehensible to humans, it could create a significant and dangerous communication gap.
Hinton’s concern stems from his observation of how quickly AI systems can learn and share information.
He believes that because digital systems can instantly share knowledge among a vast number of units, similar to 10,000 people instantly learning something at the same time, their collective intelligence will rapidly outpace human understanding.
This rapid learning and communication could enable AI to think in ways that are far beyond human comprehension or control.
Hinton admitted that he should have realized the potential dangers of this technology much sooner, acknowledging a "delayed realization" of the risks involved.
This unique capability of AI systems to instantly share information stands in stark contrast to the human brain's more individual and slower learning process.
Hinton pointed out that this type of collective intelligence has already enabled models like GPT-4 to surpass humans in general knowledge, and the gap is quickly closing in complex reasoning tasks.
As these digital systems become more sophisticated, he believes the divide between machine intelligence and human understanding will only grow, creating a significant challenge for human oversight.
While Hinton has been vocal about these risks, he noted that many within the tech industry, particularly at large companies, are downplaying the potential dangers.
He did, however, praise Google DeepMind CEO Demis Hassabis for his commitment to addressing these issues.
As the global debate over AI regulation intensifies, with governments like the US creating "AI Action Plans," Hinton emphasized that technical progress must be matched by a strong ethical framework.
Ultimately, Hinton believes the only way forward is to make AI "guaranteed benevolent," a task that becomes incredibly difficult if these systems operate beyond human understanding.
The development of an internal, machine-only language could make it impossible for us to monitor their actions or intentions, raising profound ethical questions and making effective regulation a challenging endeavor.
'एआई के गॉडफादर' ने आसन्न भाषाई अवरोध की चेतावनी दी
कृत्रिम बुद्धिमत्ता (एआई) के क्षेत्र में अग्रणी, जेफ्री हिंटन ने इस तकनीक के भविष्य के बारे में गंभीर चिंताएँ व्यक्त की हैं।
"वन डिसीजन" शो में अपनी उपस्थिति के दौरान, हिंटन ने चेतावनी दी कि एआई प्रणालियाँ जल्द ही एक-दूसरे के साथ संवाद करने के लिए अपनी अनूठी भाषाएँ विकसित कर सकती हैं।
उन्होंने बताया कि वर्तमान में, एआई "विचारों की श्रृंखला" तर्क का उपयोग करता है जो अक्सर अंग्रेजी में होता है, जिससे मनुष्य इसके तर्क का अनुसरण कर सकते हैं।
हालाँकि, उन्होंने आगाह किया कि यदि मशीनें ऐसी आंतरिक भाषा में संवाद करना शुरू कर दें जो मनुष्यों के लिए समझ से बाहर हो, तो इससे एक महत्वपूर्ण और खतरनाक संचार अंतराल पैदा हो सकता है।
हिंटन की चिंता उनके इस अवलोकन से उपजी है कि एआई प्रणालियाँ कितनी तेज़ी से सीख सकती हैं और जानकारी साझा कर सकती हैं।
उनका मानना है कि चूँकि डिजिटल प्रणालियाँ बड़ी संख्या में इकाइयों के बीच तुरंत ज्ञान साझा कर सकती हैं, ठीक उसी तरह जैसे 10,000 लोग एक ही समय में तुरंत कुछ सीख रहे हों, उनकी सामूहिक बुद्धिमत्ता तेज़ी से मानवीय समझ से आगे निकल जाएगी।
यह तीव्र शिक्षण और संचार एआई को ऐसे तरीकों से सोचने में सक्षम बना सकता है जो मानवीय समझ या नियंत्रण से कहीं परे हैं।
हिंटन ने स्वीकार किया कि उन्हें इस तकनीक के संभावित खतरों का एहसास बहुत पहले हो जाना चाहिए था, और उन्होंने इसमें शामिल जोखिमों का "देरी से एहसास" होने की बात स्वीकार की।
एआई प्रणालियों की सूचना को तुरंत साझा करने की यह अनूठी क्षमता मानव मस्तिष्क की अधिक व्यक्तिगत और धीमी सीखने की प्रक्रिया के बिल्कुल विपरीत है।
हिंटन ने बताया कि इस प्रकार की सामूहिक बुद्धिमत्ता ने पहले ही GPT-4 जैसे मॉडलों को सामान्य ज्ञान में मनुष्यों से आगे निकलने में सक्षम बनाया है, और जटिल तर्क कार्यों में यह अंतर तेज़ी से कम हो रहा है।
जैसे-जैसे ये डिजिटल प्रणालियाँ अधिक परिष्कृत होती जाएँगी, उनका मानना है कि मशीनी बुद्धिमत्ता और मानवीय समझ के बीच की खाई बढ़ती ही जाएगी, जिससे मानवीय निगरानी के लिए एक बड़ी चुनौती पैदा होगी।
हालाँकि हिंटन इन जोखिमों के बारे में मुखर रहे हैं, उन्होंने कहा कि तकनीकी उद्योग के भीतर, विशेष रूप से बड़ी कंपनियों में, कई लोग संभावित खतरों को कम करके आंक रहे हैं।
हालाँकि, उन्होंने इन मुद्दों के समाधान के लिए Google DeepMind के सीईओ डेमिस हसाबिस की प्रतिबद्धता की प्रशंसा की।
जैसे-जैसे एआई विनियमन पर वैश्विक बहस तेज़ होती जा रही है, और अमेरिका जैसी सरकारें "एआई कार्य योजनाएँ" बना रही हैं, हिंटन ने ज़ोर देकर कहा कि तकनीकी प्रगति के साथ एक मज़बूत नैतिक ढाँचा भी जुड़ा होना चाहिए।
अंततः, हिंटन का मानना है कि आगे बढ़ने का एकमात्र रास्ता एआई को "सुनिश्चित रूप से परोपकारी" बनाना है, जो एक ऐसा कार्य है जो अविश्वसनीय रूप से कठिन हो जाता है यदि ये प्रणालियाँ मानवीय समझ से परे काम करती हैं।
एक आंतरिक, केवल-मशीन भाषा का विकास हमारे लिए उनके कार्यों या इरादों की निगरानी करना असंभव बना सकता है, जिससे गहन नैतिक प्रश्न उठेंगे और प्रभावी विनियमन एक चुनौतीपूर्ण प्रयास बन जाएगा।
'AI యొక్క గాడ్ ఫాదర్' రాబోయే భాషా అవరోధం గురించి హెచ్చరిస్తున్నారు
కృత్రిమ మేధస్సు (AI)లో అగ్రగామి వ్యక్తి అయిన జియోఫ్రీ హింటన్, ఈ సాంకేతికత యొక్క భవిష్యత్తు పథం గురించి తీవ్రమైన ఆందోళనలను వ్యక్తం చేశారు.
"వన్ డెసిషన్" షోలో పాల్గొన్న సందర్భంగా, AI వ్యవస్థలు ఒకదానితో ఒకటి సంభాషించడానికి త్వరలో వాటి స్వంత ప్రత్యేకమైన భాషలను అభివృద్ధి చేయవచ్చని హింటన్ హెచ్చరించారు.
ప్రస్తుతం, AI తరచుగా ఆంగ్లంలో ఉండే "చైన్ ఆఫ్ థాట్" తార్కికతను ఉపయోగిస్తుందని, ఇది మానవులు దాని తర్కాన్ని అనుసరించడానికి వీలు కల్పిస్తుందని ఆయన వివరించారు.
అయితే, యంత్రాలు మానవులకు అర్థం కాని అంతర్గత భాషలో కమ్యూనికేట్ చేయడం ప్రారంభిస్తే, అది గణనీయమైన మరియు ప్రమాదకరమైన కమ్యూనికేషన్ అంతరాన్ని సృష్టించవచ్చని ఆయన హెచ్చరించారు.
AI వ్యవస్థలు ఎంత త్వరగా సమాచారాన్ని నేర్చుకోగలవు మరియు పంచుకోగలవో అనే అతని పరిశీలన నుండి హింటన్ ఆందోళన చెందాడు.
డిజిటల్ వ్యవస్థలు ఒకేసారి ఏదైనా నేర్చుకుంటున్న 10,000 మంది వ్యక్తుల మాదిరిగానే, విస్తారమైన సంఖ్యలో యూనిట్ల మధ్య జ్ఞానాన్ని తక్షణమే పంచుకోగలవని, వారి సామూహిక మేధస్సు మానవ అవగాహనను వేగంగా అధిగమిస్తుందని ఆయన నమ్ముతున్నారు.
ఈ వేగవంతమైన అభ్యాసం మరియు కమ్యూనికేషన్ AI మానవ అవగాహన లేదా నియంత్రణకు అతీతంగా ఆలోచించడానికి వీలు కల్పిస్తాయి.
ఈ సాంకేతికత యొక్క సంభావ్య ప్రమాదాలను తాను చాలా త్వరగా గ్రహించి ఉండాల్సిందని హింటన్ అంగీకరించాడు, ఇందులో ఉన్న ప్రమాదాల యొక్క "ఆలస్యం గ్రహించడం" అని ఒప్పుకున్నాడు.
తక్షణమే సమాచారాన్ని పంచుకోవడానికి AI వ్యవస్థల యొక్క ఈ ప్రత్యేక సామర్థ్యం మానవ మెదడు యొక్క మరింత వ్యక్తిగత మరియు నెమ్మదిగా నేర్చుకునే ప్రక్రియకు పూర్తి విరుద్ధంగా ఉంది.
ఈ రకమైన సామూహిక మేధస్సు ఇప్పటికే GPT-4 వంటి నమూనాలను సాధారణ జ్ఞానంలో మానవులను అధిగమించడానికి వీలు కల్పించిందని మరియు సంక్లిష్టమైన తార్కిక పనులలో అంతరం త్వరగా తగ్గుతోందని హింటన్ ఎత్తి చూపాడు.
ఈ డిజిటల్ వ్యవస్థలు మరింత అధునాతనంగా మారడంతో, యంత్ర మేధస్సు మరియు మానవ అవగాహన మధ్య అంతరం పెరుగుతుందని, మానవ పర్యవేక్షణకు గణనీయమైన సవాలును సృష్టిస్తుందని అతను నమ్ముతాడు.
హింటన్ ఈ ప్రమాదాల గురించి గళం విప్పినప్పటికీ, టెక్ పరిశ్రమలోని చాలా మంది, ముఖ్యంగా పెద్ద కంపెనీలలో, సంభావ్య ప్రమాదాలను తక్కువగా అంచనా వేస్తున్నారని అతను గుర్తించాడు.
అయితే, ఈ సమస్యలను పరిష్కరించడంలో Google DeepMind CEO డెమిస్ హస్సాబిస్ నిబద్ధతను ఆయన ప్రశంసించారు.
AI నియంత్రణపై ప్రపంచవ్యాప్త చర్చ తీవ్రతరం అవుతుండగా, US వంటి ప్రభుత్వాలు "AI యాక్షన్ ప్లాన్స్"ను రూపొందిస్తున్నందున, సాంకేతిక పురోగతి బలమైన నైతిక చట్రంతో సరిపోలాలని హింటన్ నొక్కిచెప్పారు.
అంతిమంగా, AIని "హామీ ఇచ్చిన దాతృత్వం"గా మార్చడమే ముందుకు సాగడానికి ఏకైక మార్గం అని హింటన్ విశ్వసిస్తున్నారు, ఈ వ్యవస్థలు మానవ అవగాహనకు మించి పనిచేస్తే ఈ పని చాలా కష్టమవుతుంది.
అంతర్గత, యంత్ర-మాత్రమే భాష అభివృద్ధి చెందడం వల్ల మనం వారి చర్యలు లేదా ఉద్దేశాలను పర్యవేక్షించడం అసాధ్యం అవుతుంది, లోతైన నైతిక ప్రశ్నలను లేవనెత్తుతుంది మరియు ప్రభావవంతమైన నియంత్రణను సవాలుతో కూడిన ప్రయత్నంగా మారుస్తుంది.
No comments:
Post a Comment
Please Dont Leave Me