তিন মাসে শিশুদের ৮৭ লাখ নগ্ন ছবি সরালো ফেইসবুক
শিশুদের সম্ভাব্য যৌনতাসূচক ছবি স্বয়ংক্রিয়ভাবে শনাক্ত করতে নতুন সফটওয়্যার বানানোর কথাও জানিয়েছে বিশ্বের সবচেয়ে বড় সামাজিক মাধ্যমটি। প্ল্যাটফর্মটিতে ২০১৭ সালেই এই সফটওয়্যার আনা হলেও সে সময় তা উন্মুক্ত ছিল না, এখন এটি পাবলিক করা হয়েছে বলে উল্লেখ করা হয় বিবিসি’র প্রতিবেদনে।
ফেইসবুক জানায়, শিশুদের যৌন নিপীড়নের দিকে নিয়ে যাওয়ার চেষ্টা করা হচ্ছে এমন সম্ভাব্য ঘটনাগুলো শনাক্ত করতেও আরেকটি প্রোগ্রাম বানানো হয়েছে। সরিয়ে দেওয়া ৮৭ লাখ ছবির মধ্যে ৯৯ শতাংশই কোনো ব্যবহারকারী অভিযোগ করার আগে সরিয়ে ফেলা হয়েছে।
পেডোফাইল বা শিশু যৌন নিপীড়করা বিভিন্ন ‘সিক্রেট’ গ্রুপের মাধ্যমে শিশুদের অশ্লীল ছবি ছড়াচ্ছে- ২০১৬ সালে এমন খবর প্রকাশ করে ব্রিটিশ সংবাদমাধ্যমটি। এরপর ২০১৭ সালে প্ল্যাটফর্মটিতে শিশু যৌন নিপীড়নমূলক কনটেন্ট বেড়ে যাওয়া নিয়ে কমন্স মিডিয়া কমিটি-এর চেয়ারম্যান ডেমিয়ান কলিন্স-এর সমালোচনার মুখোমুখি হয় ফেইসবুক।
ফেইসবুকের বৈশ্বিক নিরাপত্তা প্রধান অ্যান্টিগোন ডেভিস বলেন, শিশু নগ্নতা বা নিপীড়নমূলক কনটেন্ট শনাক্তে ব্যবস্থা আনার কথা ভাবছে ফেইসবুক। এসব ব্যবস্থা ফেইসবুক অধীনস্থ ছবি শেয়ারিং অ্যাপ ইনস্টাগ্রামেও আনার পরিকল্পনা রয়েছে বলেও জানান তিনি।
এ ছাড়াও ফেইসবুক কর্তৃপক্ষ অভিযোগ পেয়েছে এমন শিশু যৌন নিপীড়নমূলক কনটেন্ট সরাতে আলাদা একটি সিস্টেম ব্যবহার করা হয়েছে।
এ ধরনের কনটেন্ট নিয়ে ফেইসবুককে অভিযোগ করেছে মার্কিন অলাভজনক সংস্থা ন্যাশনাল সেন্টার ফর মিসিং অ্যান্ড এক্সপ্লয়েটেড চিলড্রেন (এনসিইএমইসি)।
Comments
So empty here ... leave a comment!