फेसबुक और इंस्टाग्राम जैसे सोशल मीडिया प्लेटफॉर्म्स की पैरेंट कंपनी Meta को अरबी शब्द "शहीद" को लेकर अपने ही निगरानी बोर्ड (Oversight Board) से आलोचना का सामना करना पड़ रहा है. इनगैजेट की एक रिपोर्ट के मुताबिक "शहीद" शब्द को अक्सर "martyr"(शहीद) के रूप में ट्रांसलेट किया जाता है. इस शब्द को मेटा के प्लेटफार्म्स (फेसबुक और इंस्टाग्राम) से किसी भी अन्य शब्द या फ्रेज से ज्यादा बार हटाया गया है.


COMMERCIAL BREAK
SCROLL TO CONTINUE READING

समस्या मेटा के मौजूदा तरीके में है, जो "शहीद" शब्द को केवल हिंसा या चरमपंथ की प्रशंसा के रूप में मानता है. हालांकि, निगरानी बोर्ड का तर्क है कि "शहीद" के कई अर्थ होते हैं और इसे अक्सर रिपोर्टिंग, अकादमिक चर्चा और मानवाधिकारों के संदर्भ में इस्तेमाल किया जाता है. रिपोर्ट के मुताबिक मेटा द्वारा इस शब्द को "खतरनाक व्यक्तियों" के साथ जोड़कर इस पर बैन लगाया जाना अरबी बोलने वाले यूजर्स को काफी प्रभावित करता है और जायज चर्चा को दबा देता है. 


निगरानी बोर्ड मेटा को "शहीद" शब्द वाले कंटेंट को ऑटोमैटिक रूप से हटाने से हटकर, हिंसा या अन्य स्थापित नीतियों के उल्लंघन के स्पष्ट संकेतों की पहचान करने पर ध्यान केंद्रित करने की सलाह देता है. इसके अलावा बोर्ड मेटा से कंटेंट मॉडरेशन में ऑटोमेटेड सिस्टम के उपयोग के संबंध में ट्रांसपैरेंसी बढ़ाने की सलाह देता है.


सबसे ज्यादा सेंसर किया जाने वाला शब्द


यह फैसला काफी महत्वपूर्ण है क्योंकि "शहीद" संभवत मेटा के प्लेटफार्मों पर सबसे ज्यादा सेंसर किया जाने वाला शब्द है. निगरानी बोर्ड की सह-अध्यक्ष, हेले थॉर्निंग-समिट ने चिंता व्यक्त की कि मेटा की वर्तमान रणनीति सुरक्षा से ज्यादा सेंसरशिप को प्राथमिकता देती है, जिससे संभावित रूप से पूरा यूजर ग्रुप हाशिए पर चला जाता है, जबकि अपने लक्ष्य को हासिल करने में भी विफल रहती है. इसके अलावा यह नीति संवेदनशील विषयों पर रिपोर्टिंग को हतोत्साहित करके मीडिया और सार्वजनिक चर्चा को प्रतिबंधित कर सकती है. थॉर्निंग-समिट ने कहा "बोर्ड विशेष रूप से इस बात से चिंतित है कि मेटा का दृष्टिकोण पत्रकारिता और नागरिक चर्चा को प्रभावित करता है क्योंकि मीडिया ऑर्गनाइजेशन और टिप्पणीकार कंटेंट हटाने से बचने के लिए नामित संस्थाओं पर रिपोर्टिंग करने से बच सकते हैं."


पहले भी सामने आया था ऐसा मामला 


यह पहली बार नहीं है जब मेटा पर अरबी यूजर्स के खिलाफ पक्षपाती मॉडरेशन के लिए आलोचना की गई है. पिछली एक रिपोर्ट में पता चला था कि फिलीस्तीनी अरबी के लिए कंटेंट मॉडरेशन कम सटीक था, जिसके कारण गलत तरीके से अकाउंट सस्पेंड हो गए थे. मेटा ने 2023 में भी माफी मांगी थी, जब ऑटोमेटेड ट्रांसलेशन ने इंस्टाग्राम पर फिलीस्तीनी यूजर्स के प्रोफाइल में "आतंकवादी" शब्द डाल दिया था