{"_id":"6481e0a68cd65894c306ef28","slug":"instagram-most-important-platform-for-adult-content-wsj-stanford-university-2023-06-08","type":"feature-story","status":"publish","title_hn":"Instagram: अश्लील वीडियो वाले अकाउंट को प्रमोट करता है इंस्टाग्राम, एल्गोरिद्म ने खोल दी Meta की पोल","category":{"title":"Social Network","title_hn":"सोशल नेटवर्क","slug":"social-network"}}
Instagram: अश्लील वीडियो वाले अकाउंट को प्रमोट करता है इंस्टाग्राम, एल्गोरिद्म ने खोल दी Meta की पोल
टेक डेस्क, अमर उजाला, नई दिल्ली
Published by: विशाल मैथिल
Updated Thu, 08 Jun 2023 07:39 PM IST
सोशल मीडिया कंपनी Instagram ने अपनी सुरक्षा सेवाओं में समस्याओं को स्वीकार किया और कहा कि उसने उठाए गए मुद्दों के समाधान के लिए एक टास्क फोर्स बनाई है।
इंस्टाग्राम पर बच्चों से संबंधित अश्लील और शोषण दिखाने वाली कंटेंट को बढ़ावा देने का आरोप लगाया गया है। स्टैनफोर्ड यूनिवर्सिटी और वॉल स्ट्रीट जर्नल की एक रिपोर्ट का कहना है कि इंस्टाग्राम इस तरह के कंटेंट को प्रमोट करता है। रिपोर्ट में कहा गया है कि मेटा के स्वामित्व वाला सोशल मीडिया प्लेटफॉर्म Instagram बाल यौन शोषण वाले कंटेंट को बढ़ावा देने और बेचने के लिए पीडोफाइल नेटवर्क द्वारा उपयोग किया जाने वाला मुख्य प्लेटफॉर्म है।
रिकमंडेशन एल्गोरिदम का हो रहा इस्तेमाल
यूएस यूनिवर्सिटी के साइबर पॉलिसी सेंटर के शोधकर्ताओं ने कहा, "अकाउंट के बड़े नेटवर्क जो नाबालिगों द्वारा संचालित प्रतीत होते हैं, खुले तौर पर बिक्री के लिए स्व-निर्मित बाल यौन शोषण कंटेंट का विज्ञापन कर रहे हैं।" रिपोर्ट में कहा गया है कि इंस्टाग्राम वर्तमान में इन नेटवर्कों के लिए सबसे महत्वपूर्ण प्लेटफॉर्म है, जिसमें रिकमंडेशन एल्गोरिदम और डायरेक्ट मैसेजिंग जैसी सुविधाएं हैं जो खरीदारों और विक्रेताओं को जोड़ने में मदद करती हैं।
जर्नल के अनुसार, विशेष रूप से बच्चों को संदर्भित करने वाले यौन रूप से स्पष्ट कीवर्ड का इस्तेमाल किया जाता है, जो उन अकाउंट की ओर ले जाते हैं जो अपने अकाउंट का इस्तेमाल नाबालिगों के यौन शोषण को दिखाते वाले कंटेंट का विज्ञापन करने के लिए करते हैं।
जर्नल में कहा गया है कि यह अकाउंट खुद बच्चों द्वारा संचालित होने का दावा करते हैं और खुले तौर पर अश्लील नामों का उपयोग करते हैं। हालांकि, जर्नल में विशेष रूप से यह नहीं कहा गया है कि वे इन फोटो को बेचते हैं, अकाउंट में ऑप्शन के साथ मेनू होते हैं, जिनमें कुछ मामलों में विशिष्ट सेक्सुअल एक्टिविटी शामिल हैं।
स्टैनफोर्ड के शोधकर्ताओं ने पाशविकता और खुद को नुकसान पहुंचाने वाले वीडियो के ऑफर भी देखे। आर्टिकल में कहा गया है "एक निश्चित मूल्य पर बच्चे इन-पर्सन 'मीटिंग' के लिए उपलब्ध हैं,"। हालांकि अब तक मेटा की और से इसपर कोई प्रतिक्रिया नहीं आई है। जर्नल के अनुसार, सोशल मीडिया की दिग्गज कंपनी ने अपनी सुरक्षा सेवाओं के में समस्याओं को स्वीकार किया और कहा कि उसने उठाए गए मुद्दों के समाधान के लिए एक टास्क फोर्स बनाई है।
बता दें कि इसी साल मार्च में पेंशन और निवेश फंड ने मेटा के खिलाफ अपने प्लेटफॉर्म पर मानव तस्करी और बाल यौन शोषण की फोटो पर कार्रवाई नहीं करने को लेकर शिकायत दर्ज कराई थी।
एड फ्री अनुभव के लिए अमर उजाला प्रीमियम सब्सक्राइब करें
अतिरिक्त ₹50 छूट सालाना सब्सक्रिप्शन पर
Next Article
Disclaimer
हम डाटा संग्रह टूल्स, जैसे की कुकीज के माध्यम से आपकी जानकारी एकत्र करते हैं ताकि आपको बेहतर और व्यक्तिगत अनुभव प्रदान कर सकें और लक्षित विज्ञापन पेश कर सकें। अगर आप साइन-अप करते हैं, तो हम आपका ईमेल पता, फोन नंबर और अन्य विवरण पूरी तरह सुरक्षित तरीके से स्टोर करते हैं। आप कुकीज नीति पृष्ठ से अपनी कुकीज हटा सकते है और रजिस्टर्ड यूजर अपने प्रोफाइल पेज से अपना व्यक्तिगत डाटा हटा या एक्सपोर्ट कर सकते हैं। हमारी Cookies Policy, Privacy Policy और Terms & Conditions के बारे में पढ़ें और अपनी सहमति देने के लिए Agree पर क्लिक करें।