दुनिया

फेसबुक: तीन स्टाफ मेमो में भारत में हेट स्पीच को लेकर चिंता जताई गई, कंपनी ने कहा- दिक्कत नहीं

एक मीडिया रिपोर्ट के अनुसार, भारत में फेसबुक पर हेट स्पीच और ध्रुवीकरण को लेकर कंपनी के स्टाफ ने 2018 से 2020 के दौरान कई बार चिंता जताई थी. कर्मचारियों के अलर्ट के बावजूद फेसबुक के तत्कालीन उपाध्यक्ष क्रिस कॉक्स की 2019 में हुई आंतरिक समीक्षा बैठक में इन्हें कोई तवज्जो नहीं दी गई.

(फोटो साभार: पिक्साबे)

नई दिल्लीः भारत में फेसबुक पर हेट स्पीच और ध्रुवीकरण को लेकर कंपनी के स्टाफकर्मियों ने 2018 से 2020 के दौरान कई बार चिंता जताई थी.

इंडियन एक्सप्रेस की रिपोर्ट के मुताबिक, हालांकि, स्टाफकर्मियों के इन अलर्ट के बावजूद फेसबुक के तत्कालीन उपाध्यक्ष क्रिस कॉक्स की 2019 में हुई आंतरिक समीक्षा बैठक में कहा गया कि ‘फेसबुक पर तुलनात्मक रूप से खराब कंटेंट (हेट स्पीच आदि)  में कम दिक्कतें दिखाई दीं.’

2019 में लोकसभा चुनावों से कई महीनों पहले जनवरी-फरवरी 2019 में हेट स्पीच और खराब कंटेंट को लेकर दो रिपोर्टें फेसबुक के समक्ष पेश की गईं.

अगस्त 2020 के अंत में तीसरी रिपोर्ट पेश की गई, जिसमें स्वीकार किया गया कि फेसबुक के आर्टिफिशल इंटेलिजेंस (एआई) टूल्स स्थानीय भाषाओं की पहचान नहीं कर सकता और इस वजह से प्लेटफॉर्म पर हेट स्पीच और खराब कंटेंट को पहचाना नहीं जा सका.

कॉक्स के साथ बैठक के मिनट्स में निष्कर्ष निकाला गया: ‘सर्वेक्षण से हमें पता चला है कि लोग आमतौर पर सुरक्षित महसूस करते हैं. विशेषज्ञ हमें बताते हैं कि यह देश अपेक्षाकृत स्थिर है.’

फेसबुक की पूर्व कर्मचारी और ह्विसिलब्लोअर फ्रांसेस हौगेन ने इस बात को उजागर किया है. इन दस्तावेजों की एक सीरीज अमेरिकी कांग्रेस के समक्ष भी पेश की गई है.

हालांकि, फेसबुक ने कॉक्स के साथ बैठक और आंतरिक मेमो को लेकर कोई प्रतिक्रिया नहीं दी.

कॉक्स के साथ समीक्षा बैठक भारत के निर्वाचन आयोग द्वारा लोकसभा के सात चरणों में होने वाले चुनावों के ऐलान से एक महीने पहले हुई थी. कॉक्स के साथ बैठक में यह उल्लेख किया गया कि उपक्षेत्रों में बड़ी समस्याएं राष्ट्रस्तर पर खो सकती हैं.

पहली रिपोर्ट ‘एडवर्सेरियल हार्मफुल नेटर्वक्सः इंडिया केस स्टडी’ में कहा गया है कि पश्चिम बंगाल में फेसबुक पर पोस्ट किए गए कंटेंट में से 40 फीसदी फर्जी या अप्रमाणित थे.

दूसरी आंतरिक रिपोर्ट टेस्ट एकाउंट के निष्कर्षों पर आधारित थी, जिसे एक कर्मचारी ने फरवरी 2019 में तैयार किया था.

टेस्ट एकाउंट एक डमी यूजर होता है, जिसे फेसबुक का एक कर्मचारी तैयार करता है और इसकी लिस्ट में कोई फ्रेंड नहीं होता. इसे दरअसल फेसबुक के विभिन्न फीचर के प्रभाव को बेहतर तरीके से समझने के लिए तैयार किया जाता है.

इस रिपोर्ट में बताया गया कि सिर्फ तीन हफ्तों में टेस्ट यूजर की न्यूज फीड में राष्ट्रवादी कंटें, गलत सूचनाएं और हिंसा को लेकर ध्रुवीकरण करने वाली पोस्टें दिखाई दीं.

हालांकि, टेस्ट यूजर ने सिर्फ फेसबुक के एल्गोरिथम द्वारा दिखाए गए कंटेंट ही फॉलो किए थे. रिपोर्ट के मुताबिक, इन कंटेंट की गुणवत्ता ठीक नहीं थी.

अगले दो हफ्तों में विशेष रूप से पुलवामा आतंकी हमले के बाद फेसबुक के एल्गोरिदम ने ऐसे ग्रुप और पेज सजेस्ट करने शुरू कर दिए जो अधिकतर राजनीति और सैन्य सामग्री से जुड़े हुए थे.

फेसबुक ने अक्टूबर में बताया था कि हिंदी और बंगाली सहित विभिन्न भाषाओं में हेट स्पीच का पता लगाने के लिए उन्होंने टेक्नोलॉजी में काफी निवेश किया है.

फेसबुक के प्रवक्ता ने बताया, ‘परिणामस्वरूप हमने हेट स्पीच की संख्या को कम कर दिया. आज इसकी संख्या कम होकर 0.05 फीसदी हो गई. दुनियाभर में मुस्लिमों सहित हाशिए पर मौजूद लोगों के खिलाफ हेट स्पीच के मामले बढ़ रहे हैं इसलिए जिस तरह से ऑनलाइन हेट स्पीच के मामले बढ़ रहे हैं, हम हमारी नीतियों को अपडेट करने को लेकर प्रतिबद्ध हैं.’

बता दें कि ये मेमो फेसबुक कर्मचारियों और वरिष्ठ अधिकारियों की बातचीत का हिस्सा है. कर्मचारियों ने सवाल उठाया कि संभावित हेट स्पीच का पता लगाने के लिए फेसबुक के पास बुनियादी कीवर्ड डिटेक्शन सेटअप भी नहीं था.