আশফাক আহমেদ
অনলাইনে কোনো ছবি বা ভিডিও দেখেই সেটাকে সবসময় পুরোপুরি বিশ্বাস করার এখন আর সুযোগ নেই। এর পেছনের কারণ ডিপফেইক প্রযুক্তি। এখন সহজেই কৃত্রিম বুদ্ধিমত্তা বা এআই-এর মাধ্যমে বিশ্বাসযোগ্য কিন্তু বানোয়াট ভিডিও তৈরি করা সম্ভব। পাশাপাশি সেগুলো অনেকক্ষেত্রেই ব্যবহার করা হচ্ছে মানুষকে প্রতারণার কাজে। সব মিলিয়ে কোনটি আসল এবং কোনটি নকল তা বোঝার উপায় কঠিন হয়ে গেছে।
ডিপফেক শব্দটি এসেছে ‘ডিপ লার্নিং’ অর্থাৎ গভীরভাবে শিক্ষা নেওয়া এবং অন্যদিকে ‘ফেক’ অর্থাৎ নকল বা ভুয়া এই দুই শব্দের সংমিশ্রণ থেকে। প্রযুক্তির ভাষায় ডিপফেক হলো কৃত্রিম বুদ্ধিমত্তার সাহায্যে সমন্বয়কৃত নকল বিষয়বস্তু। সেটা হতে পারে ভিডিও, ছবি, অ্যানিমেশন, অডিও।
প্রযুক্তিনির্ভর এই বিষয়টি মেশিন লার্নিং ব্যবস্থায় গড়ে ওঠে। যেখানে দুটো ভিন্ন ধরনের অ্যালগরিদম ব্যবহার করা হয়। প্রথম অ্যালগরিদমটি জেনারেট করার কাজটি করে। ব্যবহারকারী যেমন চায় সে প্রেক্ষিতে নকল চিত্র বা ভিডিওর সর্বোচ্চ সম্ভাব্য প্রতিরূপ প্রদান করে। অন্য অ্যালগরিদমটি সেই প্রতিরূপের দোষ-ত্রুটি খোঁজার কাজ শুরু করে দেয়। ডিসক্রিমিনেট বা ব্যবধান নির্ণয় করে সে তথ্য জানিয়ে দেয়। মুখের কোন ভাঁজটা আরেকটু গভীর হবে, কোথায় আরেকটু উন্নতি করা যায়, সে কৌশলও বলে দেয়। যতক্ষণ না নকলটি পুরোপুরি আসলের মতো হচ্ছে ডিসক্রিমিনেটর ততবার সাজেশন দিয়ে যাবে। নকল ভিডিও বা অডিওতে থাকা কণ্ঠ হুবহু আসল ব্যক্তির মতো হতে হবে। সেজন্য আসল ব্যক্তির আসল কণ্ঠের একটি অডিও নমুনা নকল করার উদ্দেশ্যে তৈরি এআই নমুনায় ইনপুট করা হয়। এরপর প্রথম অ্যালগরিদম সেই কণ্ঠটি নিয়ে নানা কণ্ঠের মিমিক্রি করে। প্রকৃত কণ্ঠের কাছাকাছি বা সমান হলে সেটি ডিসক্রিমিনেটরের ছাড়পত্র পায়।
ডিপফেইক কনটেন্টের অধিকাংশ হয় ভিডিও। খালি চোখে ডিপফেইক কি না শনাক্ত একপলকে সম্ভব না হলেও, গভীর নজরে তা ধরা পড়ে। চোখের পাতা ওঠা-নামার সময়ের পার্থক্য, মুখভঙ্গির ভিন্নতা, শারীরিক অঙ্গভঙ্গি, কথার গতি, কণ্ঠের নমনীয়তা-কঠোরতা, ঠোঁটের নড়াচড়া তুলনামূলক কম-বেশি, চুলের রঙ ইত্যাদি মৌলিক কিছু বিষয় নজরে রাখলে সহজেই আসল-নকল পার্থক্য করা যেতে পারে। এগুলোতেও ধরা না গেলে একটু গভীরে ভাবতে হবে কনটেন্টের আলো-ছায়ার খেলা নিয়ে। পটভূমিতে থাকা সাবজেক্টের চেয়ে ব্যক্তি সাবজেক্ট ঝাপসা না স্পষ্ট।
ডিপফেইক শনাক্তের সুনির্ধারিত কোনো মাধ্যম বা অস্ত্র না থাকলেও, কিছু প্রতিষ্ঠান নিজস্ব অ্যালগরিদম বা পদ্ধতি ব্যবহার করে সেগুলো শনাক্ত করে। ডিপট্রেস সেভাবেই কাজ করে। সাধারণ ভিডিও ইনভিড সফটওয়ারের সাহায্য নিয়েই করা যায়। ভিডিও থেকে স্ক্রিনশট বা একটি অংশ নিয়ে রিভার্স ইমেজ সার্চ পদ্ধতিটি ব্যবহার করে প্রাথমিক যাচাই করা যেতে পারে। এছাড়াও ডিপফেইক ভিডিও, ছবি শনাক্তের জন্য ভিডিও-মেটাডেটা, ফটো-মেটাডেটা ব্যবহার জনপ্রিয় হচ্ছে। ইউটিউব ভিডিও যাচাইয়ে রয়েছে অ্যামনেস্টি ইন্টারন্যাশনালের ইউটিউব ডেটা ভিউয়ার। এর মাধ্যমে সফটওয়ারটি নিজস্ব ফরমেটের ভিডিও শনাক্ত করতে পারে। তবে এর বাইরের অন্য কোনো ফরমেটের ভিডিও শনাক্ত করতে পারে না।
মাত্র কয়েক বছর আগে মানুষ ডিপফেইক শব্দটির সাথে পরিচিত হয়। শব্দটি প্রথম ব্যবহার হয় অ্যামেরিকান সামাজিকমাধ্যম রেডিটে। এই সামাজিকমাধ্যমটি গল্প, ছবি, ভিডিও ইত্যাদির রেটিং, আলোচনা-সমালোচনায় মুখর থাকে। এখানে কয়েকটি পোস্টকে একত্রে থ্রেড বলা হয়। ২০১৭ সালে ডিপফেইক নামক অ্যাকাউন্ট থেকে হঠাৎ থ্রেডে অদ্ভুত দাবি করা হয়। অ্যাকাউন্ট ব্যবহারকারী বলেন, তিনি এমন একটি মেশিন লার্নিং অ্যালগরিদম বানিয়েছেন যা বিখ্যাত কোনো ব্যক্তির মুখ একপলকে অশ্লীল কনটেন্টে রূপ দিতে পারে। বিষয়টি দ্রুত ছড়িয়ে পড়ে। সমালোচনার চাপে পোস্টগুলো বন্ধ করে দেওয়া হয়। কিন্তু যা হবার তা হয়ে যায়। মানুষের মধ্যে জানাজানি হয়ে যায়।
তবে শব্দটি নতুন হলেও প্রযুক্তিটির ইতিহাসের শুরুটা ১৯৯৭ সালে। তখন একে কোনও নামে ডাকা হতো না। ভিত্তি ছিল একটি গবেষণাপত্র। ব্রেগলার, কোভেল এবং সøানি এই তিনজনের বিষয় ছিল ‘ভিডিও রিরাইট, ড্রাইভিং ভিজ্যুয়াল স্পিচ উইথ অডিও’। অর্থাৎ অডিও সংশোধন। বিদ্যমান ভিডিও ফুটেজ ঠিক রেখে স্বয়ংক্রিয়ভাবে একজন ব্যক্তির নকল কণ্ঠস্বর আরোপ। দেখে মনেই হবে না যে ব্যক্তিটির কণ্ঠ নকল। অথচ ভিডিওতে তা বলেননি। নকল ভয়েসের সাথে তাল রেখে কেবল ঠোঁট নাড়ানোর মাধ্যমেই কাজটি করা হয়। এই প্রকল্পের মূল প্রস্তাবনা ছিল চলচ্চিত্রে কণ্ঠারোপ সহজ করা। ডিপফেইক প্রযুক্তির একক কোনও উদ্ভাবক নেই। ধারণাটি বছর পঁচিশ আগে এলেও খুঁটিনাটি বিষয়গুলো ধীরে ধীরে গড়ে ওঠে নানা জনের হাত ধরে।
বর্তমান সময়ে সম্ভবত এআই উদ্ভাবিত সবচেয়ে ভয়ানক প্রযুক্তি এটি। অশ্লীলতায় পূর্ণ সব কনটেন্ট ভাইরাসের মতো দ্রুত ছড়িয়ে যাচ্ছে প্রতিদিন। বেহাতে পড়ে প্রযুক্তিটির সর্বোচ্চ নেতিবাচক ব্যবহার বিশ্ব দেখছে। সাধারণ মানুষ থেকে আমেরিকার প্রেসিডেন্ট। আমেরিকার ৪৫তম প্রেসিডেন্ট ট্রাম্প ক্ষমতা থাকা অবস্থাতেই তার ডিপফেক ভিডিও ছড়িয়ে পড়ে। সে নকল ভিডিওতে প্রেসিডেন্ট ট্রাম্প প্যারিস জলবায়ু চুক্তি সম্পর্কিত সদস্যপদ নিয়ে বেলজিয়ামকে উপহাস করেন।
ফেসবুক প্রতিষ্ঠাতা মার্ক জাকারবার্গ, জনপ্রিয় কমেডিয়ান মিস্টার বিন বাদ যাচ্ছেন না কেউ। এর উদাহরণ দিয়ে শেষ করা যাবে না। ধীরে ধীরে এই প্রযুক্তি হুমকি, ভয়-ভীতি, গুজব ছড়ানো, অর্থ আদায়সহ নানা অপকর্মে ব্যবহৃত হচ্ছে। ফলে সতর্ক অবস্থানে থাকার বিকল্প নেই। আর সেই সাথে প্রয়োজন ডিপফেইক শনাক্ত করার দক্ষতা অর্জন। এবং জড়িতদের আইনের আওতায় আনার ব্যবস্থা করা।
প্রযুক্তিটি নতুন হওয়া আইনও গড়ে ওঠেনি সব দেশে। কিছু দেশ প্রস্তাব এনেছে। কিছু দেশ আইন প্রণয়নের কথা ভাবছে। হাতেগোনা কয়েকটি দেশে আইন রয়েছে। রয়েছে শাস্তির বিধান। অ্যামেরিকা, চীন তাদের অন্যতম। সেখানে ডিপফেইক কনটেন্ট অবৈধ। যুক্তরাষ্ট্রে ডিপফেইক পর্ন বিষয়ক আইন রয়েছে। আরেকটি ধারায় ডিপফেইক বিষয়বস্তু নিষিদ্ধের কথাও রয়েছে।
তবে ডিপফেইক যে সবসময়ই খারাপ ব্যাপারটা আবার এমনও নয়। যদিও এটা সত্যি বেশিরভাগ ক্ষেত্রে এটি খারাপ উদ্দেশ্যেই ব্যবহার করা হয়ে থাকে। যেমন, ফুটবল খেলোয়ার ডেভিড বেকহ্যাম ম্যালেরিয়া বিষয়ক সচেতনমূলক একটি প্রচার চালিয়েছিলেন। তার সেই ভিডিওর বক্তব্য ডিপফেইক সহায়তায় নয়টি ভাষায় বলানো হয়। যা একাধিক ভাষায় বিশ্বজুড়ে ছড়িয়ে দিতে সহায়তা করে। অন্য প্রযুক্তির সাথে ডিপফেইকের পার্থক্য হলো, সেগুলোর ভালো দিকটার আগে খারাপ দিক পরে ধরা পড়ে। ডিপফেইকের ক্ষেত্রে বিষয়টি সম্পূর্ণ বিপরীত। এর নেতিবাচক দিকটির সাথেই অভ্যস্ততা বেশি। ক্ষতিকারক নকল শনাক্ত করা যেমন প্রয়োজন, তেমনি ইতিবাচক ব্যবহারের ক্ষেত্র নিয়েও আলোচনার সুযোগ রয়েছে।
বিজ্ঞান বসে নেই। প্রযুক্তিও সমানতালে বিজ্ঞানকে অবলম্বন করে এগিয়ে চলছে। সমাধান আসবেই। গবেষণা চলছে ডিপফেইকের খারাপ দিক থেকে মুক্তি পাওয়ার পথ বের করার। প্রযুক্তির অগ্রযাত্রা যেভাবে চলছে অদূর ভবিষ্যতে এই ডিপফেইক নকল ধরার কৌশল বা পদ্ধতিও হয়তো অনেক সহজ হয়ে যাবে।
লেখাটির পিডিএফ দেখতে চাইলে ক্লিক করুন: ট্রেক টেন্ড