एक मीडिया रिपोर्ट के अनुसार, भारत में फेसबुक पर हेट स्पीच और ध्रुवीकरण को लेकर कंपनी के स्टाफ ने 2018 से 2020 के दौरान कई बार चिंता जताई थी. कर्मचारियों के अलर्ट के बावजूद फेसबुक के तत्कालीन उपाध्यक्ष क्रिस कॉक्स की 2019 में हुई आंतरिक समीक्षा बैठक में इन्हें कोई तवज्जो नहीं दी गई.
नई दिल्लीः भारत में फेसबुक पर हेट स्पीच और ध्रुवीकरण को लेकर कंपनी के स्टाफकर्मियों ने 2018 से 2020 के दौरान कई बार चिंता जताई थी.
इंडियन एक्सप्रेस की रिपोर्ट के मुताबिक, हालांकि, स्टाफकर्मियों के इन अलर्ट के बावजूद फेसबुक के तत्कालीन उपाध्यक्ष क्रिस कॉक्स की 2019 में हुई आंतरिक समीक्षा बैठक में कहा गया कि ‘फेसबुक पर तुलनात्मक रूप से खराब कंटेंट (हेट स्पीच आदि) में कम दिक्कतें दिखाई दीं.’
2019 में लोकसभा चुनावों से कई महीनों पहले जनवरी-फरवरी 2019 में हेट स्पीच और खराब कंटेंट को लेकर दो रिपोर्टें फेसबुक के समक्ष पेश की गईं.
अगस्त 2020 के अंत में तीसरी रिपोर्ट पेश की गई, जिसमें स्वीकार किया गया कि फेसबुक के आर्टिफिशल इंटेलिजेंस (एआई) टूल्स स्थानीय भाषाओं की पहचान नहीं कर सकता और इस वजह से प्लेटफॉर्म पर हेट स्पीच और खराब कंटेंट को पहचाना नहीं जा सका.
कॉक्स के साथ बैठक के मिनट्स में निष्कर्ष निकाला गया: ‘सर्वेक्षण से हमें पता चला है कि लोग आमतौर पर सुरक्षित महसूस करते हैं. विशेषज्ञ हमें बताते हैं कि यह देश अपेक्षाकृत स्थिर है.’
फेसबुक की पूर्व कर्मचारी और ह्विसिलब्लोअर फ्रांसेस हौगेन ने इस बात को उजागर किया है. इन दस्तावेजों की एक सीरीज अमेरिकी कांग्रेस के समक्ष भी पेश की गई है.
हालांकि, फेसबुक ने कॉक्स के साथ बैठक और आंतरिक मेमो को लेकर कोई प्रतिक्रिया नहीं दी.
कॉक्स के साथ समीक्षा बैठक भारत के निर्वाचन आयोग द्वारा लोकसभा के सात चरणों में होने वाले चुनावों के ऐलान से एक महीने पहले हुई थी. कॉक्स के साथ बैठक में यह उल्लेख किया गया कि उपक्षेत्रों में बड़ी समस्याएं राष्ट्रस्तर पर खो सकती हैं.
पहली रिपोर्ट ‘एडवर्सेरियल हार्मफुल नेटर्वक्सः इंडिया केस स्टडी’ में कहा गया है कि पश्चिम बंगाल में फेसबुक पर पोस्ट किए गए कंटेंट में से 40 फीसदी फर्जी या अप्रमाणित थे.
दूसरी आंतरिक रिपोर्ट टेस्ट एकाउंट के निष्कर्षों पर आधारित थी, जिसे एक कर्मचारी ने फरवरी 2019 में तैयार किया था.
टेस्ट एकाउंट एक डमी यूजर होता है, जिसे फेसबुक का एक कर्मचारी तैयार करता है और इसकी लिस्ट में कोई फ्रेंड नहीं होता. इसे दरअसल फेसबुक के विभिन्न फीचर के प्रभाव को बेहतर तरीके से समझने के लिए तैयार किया जाता है.
इस रिपोर्ट में बताया गया कि सिर्फ तीन हफ्तों में टेस्ट यूजर की न्यूज फीड में राष्ट्रवादी कंटें, गलत सूचनाएं और हिंसा को लेकर ध्रुवीकरण करने वाली पोस्टें दिखाई दीं.
हालांकि, टेस्ट यूजर ने सिर्फ फेसबुक के एल्गोरिथम द्वारा दिखाए गए कंटेंट ही फॉलो किए थे. रिपोर्ट के मुताबिक, इन कंटेंट की गुणवत्ता ठीक नहीं थी.
अगले दो हफ्तों में विशेष रूप से पुलवामा आतंकी हमले के बाद फेसबुक के एल्गोरिदम ने ऐसे ग्रुप और पेज सजेस्ट करने शुरू कर दिए जो अधिकतर राजनीति और सैन्य सामग्री से जुड़े हुए थे.
फेसबुक ने अक्टूबर में बताया था कि हिंदी और बंगाली सहित विभिन्न भाषाओं में हेट स्पीच का पता लगाने के लिए उन्होंने टेक्नोलॉजी में काफी निवेश किया है.
फेसबुक के प्रवक्ता ने बताया, ‘परिणामस्वरूप हमने हेट स्पीच की संख्या को कम कर दिया. आज इसकी संख्या कम होकर 0.05 फीसदी हो गई. दुनियाभर में मुस्लिमों सहित हाशिए पर मौजूद लोगों के खिलाफ हेट स्पीच के मामले बढ़ रहे हैं इसलिए जिस तरह से ऑनलाइन हेट स्पीच के मामले बढ़ रहे हैं, हम हमारी नीतियों को अपडेट करने को लेकर प्रतिबद्ध हैं.’
बता दें कि ये मेमो फेसबुक कर्मचारियों और वरिष्ठ अधिकारियों की बातचीत का हिस्सा है. कर्मचारियों ने सवाल उठाया कि संभावित हेट स्पीच का पता लगाने के लिए फेसबुक के पास बुनियादी कीवर्ड डिटेक्शन सेटअप भी नहीं था.