ad720-90

তিন মাসে শিশুদের ৮৭ লাখ নগ্ন ছবি সরালো ফেইসবুক


শিশুদের সম্ভাব্য যৌনতাসূচক ছবি স্বয়ংক্রিয়ভাবে শনাক্ত করতে নতুন সফটওয়্যার বানানোর কথাও জানিয়েছে বিশ্বের সবচেয়ে বড় সামাজিক মাধ্যমটি। প্ল্যাটফর্মটিতে ২০১৭ সালেই এই সফটওয়্যার আনা হলেও সে সময় তা উন্মুক্ত ছিল না, এখন এটি পাবলিক করা হয়েছে বলে উল্লেখ করা হয় বিবিসি’র প্রতিবেদনে।   

ফেইসবুক জানায়, শিশুদের যৌন নিপীড়নের দিকে নিয়ে যাওয়ার চেষ্টা করা হচ্ছে এমন সম্ভাব্য ঘটনাগুলো শনাক্ত করতেও আরেকটি প্রোগ্রাম বানানো হয়েছে। সরিয়ে দেওয়া ৮৭ লাখ ছবির মধ্যে ৯৯ শতাংশই কোনো ব্যবহারকারী অভিযোগ করার আগে সরিয়ে ফেলা হয়েছে। 

পেডোফাইল বা শিশু যৌন নিপীড়করা বিভিন্ন ‘সিক্রেট’ গ্রুপের মাধ্যমে শিশুদের অশ্লীল ছবি ছড়াচ্ছে- ২০১৬ সালে এমন খবর প্রকাশ করে ব্রিটিশ সংবাদমাধ্যমটি। এরপর ২০১৭ সালে প্ল্যাটফর্মটিতে শিশু যৌন নিপীড়নমূলক কনটেন্ট বেড়ে যাওয়া নিয়ে কমন্স মিডিয়া কমিটি-এর চেয়ারম্যান ডেমিয়ান কলিন্স-এর সমালোচনার মুখোমুখি হয় ফেইসবুক।

ফেইসবুকের বৈশ্বিক নিরাপত্তা প্রধান অ্যান্টিগোন ডেভিস বলেন, শিশু নগ্নতা বা নিপীড়নমূলক কনটেন্ট শনাক্তে ব্যবস্থা আনার কথা ভাবছে ফেইসবুক। এসব ব্যবস্থা ফেইসবুক অধীনস্থ ছবি শেয়ারিং অ্যাপ ইনস্টাগ্রামেও আনার পরিকল্পনা রয়েছে বলেও জানান তিনি।

এ ছাড়াও ফেইসবুক কর্তৃপক্ষ অভিযোগ পেয়েছে এমন শিশু যৌন নিপীড়নমূলক কনটেন্ট সরাতে আলাদা একটি সিস্টেম ব্যবহার করা হয়েছে।

এ ধরনের কনটেন্ট নিয়ে ফেইসবুককে অভিযোগ করেছে মার্কিন অলাভজনক সংস্থা ন্যাশনাল সেন্টার ফর মিসিং অ্যান্ড এক্সপ্লয়েটেড চিলড্রেন (এনসিইএমইসি)।





সর্বপ্রথম প্রকাশিত

Sharing is caring!

Comments

So empty here ... leave a comment!

Leave a Reply

Sidebar