প্রযুক্তি সংবাদ

কম্পিউটারে কারসাজি করা ছবি শনাক্ত করবে মাইক্রোসফটের প্রোগ্রাম

বর্তমান বিশ্বে বড় দুশ্চিন্তার নাম ডিপফেক। এতে কম্পিউটারে কারসাজি করা ছবিতে এক ব্যক্তির সাদৃশ্য অন্যের ক্ষেত্রে প্রতিস্থাপনের জন্য ব্যবহৃত হয়। আশঙ্কার কথা, ছবি বা ভিডিওকে বিকৃত ও কৃত্রিম বুদ্ধিমত্তার সাহায্যে নিখুঁতভাবে তৈরি করে হুবহু আসলের মতো বলে প্রচার করা হচ্ছে। বিষয়টি প্রযুক্তিজগতে ডিপফেক নামে ব্যাপক পরিচিত হয়ে উঠেছে।

এত দিন ডিপফেক ঠিকভাবে শনাক্ত করার প্রযুক্তি সহজলভ্য ছিল না। এ ক্ষেত্রে এগিয়ে এসেছে বিশ্বের বৃহত্তম সফটওয়্যার নির্মাতা প্রতিষ্ঠান মাইক্রোসফট। ডিপফেক শনাক্ত করতে বিশেষ টুল বা প্রোগ্রাম তৈরি করেছে মাইক্রোসফট।

বিবিসি অনলাইনের প্রতিবেদনে জানানো হয়, মাইক্রোসফটের তৈরি সফটওয়্যারটি ছবি বা ভিডিও বিশ্লেষণ করে এতে কৃত্রিম বুদ্ধিমত্তা ব্যবহার করা হয়েছে কি না এবং ছবি বিকৃত করা হয়েছে কি না, তা জানাতে সক্ষম হবে।

মাইক্রোসফট আশা করছে, তাদের উদ্ভাবিত প্রযুক্তি ভুয়া তথ্যের বিরুদ্ধে লড়তে সহায়তা করবে।

তবে বিশেষজ্ঞরা বলছেন, যে গতিতে ডিপফেক প্রযুক্তি এগোচ্ছে, এতে ঝুঁকির বিষয়টি থেকেই যাবে। ঝুঁকি কমাতে মাইক্রোসফট তাদের সফটওয়্যারের পৃথক আরেকটি সংস্করণের কথা বলেছে, যা কনটেন্ট নির্মাতাদের ভিডিওতে লুকানো কোড বসানোর সুযোগ দেবে। ফলে, কেউ ভিডিও নিয়ে তা বিকৃত করার চেষ্টা করলে ধরা পড়ে যাবে।

২০১৮ সালের পর ডিপফেক প্রযুক্তি অনেকটাই প্রকাশ্যে চলে আসে। একজন ডেভেলপার আধুনিক কৃত্রিম বুদ্ধিমত্তা প্রয়োগ করে একটি সফটওয়্যার তৈরি করেন, যা একজনের চেহারা অন্যজনের ওপর বসাতে পারে। এ প্রক্রিয়ায় কোনো ব্যক্তির অনেক স্থিরচিত্র কাজে লাগিয়ে অন্যের ভিডিওচিত্রে বসানো যায়।

সফটওয়্যার মূলত ছবি কাজে লাগিয়ে নতুন ভিডিও তৈরি করতে পারে, যাতে ভিডিওতে থাকা ব্যক্তির মুখভঙ্গি, ঠোঁটের নড়াচড়া বা অন্য নড়াচড়াও মেলানো যায়। এরপর থেকে এ প্রক্রিয়া আরও সহজ হয়ে গেছে। অনেক ব্যবহারকারী একে কাজে লাগাচ্ছেন। এখন কেবল কয়েকটি ছবি দিয়েই ডিপফেক ভিডিও তৈরি করা যায়।

কয়েকটি অ্যাপ রয়েছে, যা কেবল একটি ছবি বা সেলফি দিয়েই কোনো তারকার মুখের আদল বসিয়ে দিতে পারে। এমনকি কোনো হলিউডের চলচ্চিত্রের ভিডিও দৃশ্যে ব্যবহারকারীকে বসিয়ে দিতে পারে।

প্রযুক্তি বিশ্লেষকেদের আশঙ্কা, এই ডিপফেক প্রযুক্তি ব্যবহার করে ভুয়া ভিডিও ক্লিপ তৈরি করা হতে পারে, যা সহজেই অপব্যবহার করা যায়। এতে বিখ্যাত ব্যক্তিদের এমন কিছু বলতে শোনা যেতে পারে বা দেখা যেতে পারে, যা আদতে তাঁরা কখনো বলেননি বা করেননি। এ ধরনের ভিডিও বা ছবি রাজনৈতিক উদ্দেশ্য অপব্যবহারের আশঙ্কা বেশি।

গত বছরের জুলাইয়ে ভারতীয় বিশেষজ্ঞরা সতর্ক করেছেন, ডিপফেক ভুয়া ভিডিও একেবারে আসলের মতো দেখায় বলে ইতিমধ্যে বিনোদন দুনিয়ায় এর ব্যবহার নিয়ে ব্যাপক আলোচনা হচ্ছে। ডিপফেক কনটেন্ট ভারতসহ বহুজাতিক জনসংখ্যার দেশে ভয়াবহ বিপদ ডেকে আনতে পারে। দুষ্কৃতকারীরা বিকৃত কনটেন্ট ব্যবহার করে বিভিন্ন সম্প্রদায়ের মধ্যে বিবাদ তৈরি করতে পারে।

কৃত্রিম বুদ্ধিমত্তার প্রোগ্রাম দিয়ে তৈরি এসব ভিডিওতে কোনো ব্যক্তিকে এমন কথা বলতে শোনা যায়, যা তারা বলেনি। এমন কাজ করতে দেখা যেতে পারে, যা তারা করেনি। ডিজিটাল প্রক্রিয়ায় বিকৃত করা এসব ভিডিও কনটেন্ট প্রচলিত টেক্সট ও বিকৃত করা ছবির চেয়েও বেশি মারাত্মক। এসব ভুয়া তথ্য মানুষকে বেশি টানতে পারে বা মানুষ এতে হুবহু আসলের মতো দেখতে বলে বিশ্বাস করে বসে।

গত বছরে মার্ক জাকারবার্গের একটি ডিপফেক ভিডিও দ্রুত ছড়িয়ে পড়ার ঘটনা থেকেই এ ধরনের ভিডিওর ভয়াবহতা উপলব্ধি করা যায়। বিবিসির এক প্রতিবেদনে বলা হয়, মার্ক জাকারবার্গসদৃশ কম্পিউটার প্রোগ্রামে তৈরি জাকারবার্গের একটি ভিডিও ক্লিপ ছড়িয়ে পড়ে।

ওই ভিডিওতে জাকারবার্গের মতো কথা বলার বা মাথা নাড়ার দৃশ্য রয়েছে। ভিডিওটিতে জাকারবার্গের সফলতার পেছনে একটি গোয়েন্দা সংস্থার হাত রয়েছে বলে দাবি করা হয়।

এ বছরের শুরুতে ফেসবুক ডিপফেক নিষিদ্ধ করে। ফেসবুকের পথ ধরে টুইটার ও টিকটক ডিপফেকের ব্যবহার বন্ধ করে দেয়।

মাইক্রোসফট এখন যে টুলটির কথা বলছে, তা ব্যবহারকারীকে বিশেষ চিহ্ন দেখাতে পারে বা জানিয়ে দিতে পারে ছবির বিকৃত রূপ সম্পর্কে। যেসব পরিবর্তন খালি চোখে দেখা যায়, তা ধরতে পারবে এ টুল।

ডিপফেক নিয়ে উদ্বেগ প্রকাশ করে বিশেষজ্ঞরা বলছেন, সাধারণ ভুয়া খবর বা তথ্য সরানোর চেয়েও ডিপফেক কনটেন্ট সরানো কঠিন হয়ে যাবে।

পিউ রিসার্চের এক গবেষণায় বলা হয়, যুক্তরাষ্ট্রের বেশির ভাগ প্রাপ্তবয়স্ক ব্যক্তি মনে করেন, বিকৃত ভিডিও তাঁদের মধ্যে সাম্প্রতিক ঘটনা ও বিষয়গুলো নিয়ে বিভ্রান্তি সৃষ্টি করবে।

ডিপফেক ছড়িয়ে পড়লে এমন অবস্থা হবে, যখন মানুষ নিজের চোখে দেখা বিষয়গুলো বিশ্বাস করবে না। মানুষের মধ্যে বিশ্বাস নষ্ট হয়ে যাবে। দুর্বৃত্তরা এ সুযোগ কাজে লাগিয়ে ভুয়া ভিডিও বা কনটেন্ট তৈরি করে ব্যক্তি, বিশেষ গোষ্ঠী ও সম্প্রদায়ের ওপর মিথ্যা প্রমাণের চেষ্টা চালাবে।

বিশেষজ্ঞরা বলছেন, ডিপফেক ভিডিও ধরার জন্য স্বয়ংক্রিয় শনাক্তকরণ প্রক্রিয়া এখনো প্রাথমিক পর্যায়ে রয়েছে। তবে এ ক্ষেত্রে সচেতনতা ও প্রযুক্তি সহায়তা যুক্ত করে এ ধরনের কনটেন্টকে ফ্ল্যাগ দেখানোর সুযোগ থাকা উচিত।

এ সম্পর্কিত আরও পোস্ট

মন্তব্য করুন

আপনার ই-মেইল এ্যাড্রেস প্রকাশিত হবে না। * চিহ্নিত বিষয়গুলো আবশ্যক।

Back to top button
Close
Close