TECHNOLOGY

टेक फर्मों के इस समूह ने अभी एक सुरक्षित मेटावर्स के लिए साइन अप किया है


लेकिन ओएसिस की अधिकांश योजना आदर्शवादी बनी हुई है। एक उदाहरण उत्पीड़न और अभद्र भाषा का पता लगाने के लिए मशीन लर्निंग का उपयोग करने का प्रस्ताव है। मेरे सहयोगी करेन हाओ के रूप में की सूचना दी पिछले साल, एआई मॉडल या तो अभद्र भाषा को फैलाने या आगे बढ़ने का बहुत अधिक मौका देते हैं। फिर भी, वांग एक मॉडरेटिंग टूल के रूप में ओएसिस के एआई के प्रचार का बचाव करता है। “एआई उतना ही अच्छा है जितना डेटा मिलता है,” वह कहती हैं। “प्लेटफ़ॉर्म विभिन्न मॉडरेशन प्रथाओं को साझा करते हैं, लेकिन सभी बेहतर सटीकता, तेज प्रतिक्रिया और डिजाइन की रोकथाम द्वारा सुरक्षा की दिशा में काम करते हैं।”

दस्तावेज़ स्वयं सात पृष्ठ लंबा है और संघ के लिए भविष्य के लक्ष्यों की रूपरेखा तैयार करता है। इसमें से अधिकांश एक मिशन वक्तव्य की तरह पढ़ता है, और वांग कहते हैं कि पहले कई महीनों का काम लक्ष्यों को बनाने में मदद करने के लिए सलाहकार समूह बनाने पर केंद्रित है।

योजना के अन्य तत्व, जैसे इसकी सामग्री मॉडरेशन रणनीति, अस्पष्ट हैं। वांग का कहना है कि वह चाहती हैं कि कंपनियां विभिन्न प्रकार के कंटेंट मॉडरेटर को नियुक्त करें ताकि वे रंग के लोगों और गैर-पुरुष के रूप में पहचान करने वालों के उत्पीड़न को समझ सकें और उनका मुकाबला कर सकें। लेकिन योजना इस लक्ष्य को प्राप्त करने की दिशा में कोई और कदम नहीं उठाती है।

कंसोर्टियम सदस्य कंपनियों से डेटा साझा करने की भी उम्मीद करेगा, जिस पर उपयोगकर्ता दुर्व्यवहार कर रहे हैं, जो दोहराने वाले अपराधियों की पहचान करने में महत्वपूर्ण है। वांग कहते हैं, भाग लेने वाली टेक कंपनियां सुरक्षा नीतियों को बनाने में मदद करने के लिए गैर-लाभकारी संस्थाओं, सरकारी एजेंसियों और कानून प्रवर्तन के साथ साझेदारी करेंगी। वह ओएसिस के लिए एक कानून प्रवर्तन प्रतिक्रिया टीम बनाने की भी योजना बना रही है, जिसका काम उत्पीड़न और दुर्व्यवहार के बारे में पुलिस को सूचित करना होगा। लेकिन यह अस्पष्ट रहता है कैसे कानून प्रवर्तन के साथ कार्य बल का कार्य यथास्थिति से भिन्न होगा।

गोपनीयता और सुरक्षा को संतुलित करना

ठोस विवरण की कमी के बावजूद, जिन विशेषज्ञों से मैंने बात की थी, उन्हें लगता है कि कंसोर्टियम के मानक दस्तावेज़ एक अच्छा पहला कदम है, कम से कम। “यह एक अच्छी बात है कि ओएसिस स्व-नियमन को देख रहा है, जो उन लोगों से शुरू होता है जो सिस्टम और उनकी सीमाओं को जानते हैं,” ब्रिटान हेलर कहते हैं, प्रौद्योगिकी और मानवाधिकारों में विशेषज्ञता वाले वकील।

यह पहली बार नहीं है जब टेक कंपनियों ने इस तरह से एक साथ काम किया है। 2017 में, कुछ ने आतंकवाद से निपटने के लिए ग्लोबल इंटरनेट फोरम के साथ स्वतंत्र रूप से सूचनाओं का आदान-प्रदान करने पर सहमति व्यक्त की। आज, GIFCT स्वतंत्र बना हुआ है, और जो कंपनियाँ इस पर हस्ताक्षर करती हैं, वे स्व-विनियमन करती हैं।

मेलबर्न विश्वविद्यालय में स्कूल ऑफ कंप्यूटिंग एंड इंफॉर्मेशन सिस्टम्स के एक शोधकर्ता लुसी स्पैरो का कहना है कि ओएसिस के लिए जो चल रहा है वह यह है कि यह कंपनियों को काम करने के लिए कुछ प्रदान करता है, बजाय इसके कि वे स्वयं भाषा के साथ आने या प्रतीक्षा करने के लिए प्रतीक्षा करें। उस काम को करने वाला तीसरा पक्ष।

स्पैरो कहते हैं कि शुरू से ही डिजाइन में नैतिकता को पकाना, जैसा कि ओएसिस जोर देता है, सराहनीय है और मल्टीप्लेयर गेम सिस्टम में उनके शोध से पता चलता है कि इससे फर्क पड़ता है। “नैतिकता को किनारे पर धकेल दिया जाता है, लेकिन यहाँ, वे [Oasis] शुरू से ही नैतिकता के बारे में सोच को प्रोत्साहित कर रहे हैं, ”वह कहती हैं।

लेकिन हेलर का कहना है कि नैतिक डिजाइन पर्याप्त नहीं हो सकता है। वह सुझाव देती है कि तकनीकी कंपनियां अपनी सेवा की शर्तों को फिर से लागू करती हैं, जिनकी कानूनी विशेषज्ञता के बिना उपभोक्ताओं का लाभ उठाने के लिए भारी आलोचना की गई है।

स्पैरो यह कहते हुए सहमत हैं कि उन्हें यह विश्वास करने में संकोच है कि तकनीकी कंपनियों का एक समूह उपभोक्ताओं के सर्वोत्तम हित में कार्य करेगा। “यह वास्तव में दो सवाल उठाती है,” वह कहती हैं। “एक, हम सुरक्षा को नियंत्रित करने के लिए पूंजी-संचालित निगमों पर कितना भरोसा करते हैं? और दूसरा, हम कितना नियंत्रण चाहते हैं कि टेक कंपनियां हमारे आभासी जीवन पर नियंत्रण रखें?”

यह एक कठिन स्थिति है, खासकर क्योंकि उपयोगकर्ताओं को सुरक्षा और गोपनीयता दोनों का अधिकार है, लेकिन वे ज़रूरतें तनाव में हो सकती हैं।



Source link

Related posts

WORLDWIDE NEWS ANGLE