টেক

সত্যের দিন কি শেষ হয়ে আসছে আমাদের পৃথিবীতে?

ডিপফেক নিয়ন আলোয় neonaloy

গত বছরের এপ্রিলে বাজফিড থেকে বারাক ওবামার একটি ভিডিও সারা ইন্টারনেটে ছড়িয়ে পড়ে, পাঁচ কোটিরও বেশি ভিউ এখন সেই ভিডিওটির। ভিডিওতে দেখা যায় বারাক ওবামা অডিয়েন্সের উদ্দেশ্যে কথা বলছেন, পেছনে আমেরিকার পতাকা। কিন্তু তিনি যেসব কথা বলছেন তা কখনোই বারাক ওবামার সর্বসম্মুখে বলার কথা নয়। যে কেউ অবাক হবেন ভিডিওটি দেখলে।

কিন্তু সত্য ঘটনা হচ্ছে ভিডিওটিতে আসলে বারাক ওবামা ছিলেনই না, তার কণ্ঠ নকল করেছিলেন জনপ্রিয় অস্কারজয়ী অভিনেতা এবং চলচ্চিত্র নির্মাতা জর্ডান পিল, আর ওবামার চেহারা এবং অবয়ব তৈরি করা হয়েছিল কৃত্রিম বুদ্ধিমত্তার সাহায্যে, কিন্তু এর কৃত্রিমতা বোঝা একেবারেই অসম্ভব। জনসচেতনতা তৈরি করতে এই ভিডিওটি বানানোর পেছনে যে প্রযুক্তি কাজ করেছে তার নাম ডিপফেক– কৃত্রিম বুদ্ধিমত্তাকে ব্যবহার করে কোনো ব্যক্তির ফেক ভিডিও বানানোর প্রযুক্তি। পিল এই ভিডিওটি তৈরি করেছিলেন এই ডিপফেক সম্পর্কে জনসচেতনতা তৈরি করতে, মানুষকে বোঝাতে যে এই প্রযুক্তি কতটা ভয়ংকর হতে পারে আমাদের জন্য।

ডিপফেক আসলে কী?

যদিও ছবিতে একজনের জায়গায় আরেকজনকে বসিয়ে দেয়ার ব্যাপারটা তেমন নতুন কিছু নয়, ফটোশপ ব্যবহার করে মানুষ অনেক আগে থেকেই তা করে আসছে। কিন্তু এই বিশ্বাসযোগ্য একদম বাস্তবতার কাছাকাছি ফেক ভিডিও তৈরি করবার প্রযুক্তিটা বেশ নতুন। এই কাজটি করা হচ্ছে একটি কম্পিউটার প্রোগ্রামের মাধ্যমে যেখানে ব্যবহৃত হচ্ছে কৃত্রিম  বুদ্ধিমত্তা। একটি অ্যালগোরিদমকে শেখানো হচ্ছে কোনো ব্যক্তির অডিও এবং ভিডিওর মধ্যে নির্দিষ্ট প্যাটার্নগুলো বিট বাই বিট বুঝে নেবার প্রক্রিয়া, যার নাম ‘ডিপ লার্নিং’, এবং তার অন্য কারো ভিডিওতে সেগুলো স্থানান্তরিত করার মাধ্যমে তৈরি করা হচ্ছে একটি ফেক ভিডিও (এই ‘ডিপ লার্নিং’ আর ‘ফেক ভিডিও’ এই দু’টি শব্দের মিশেলেই এসেছে ডিপফেক নামটি)।

যেমন জর্ডান পিলের স্থানেই ওবামার প্রত্যেকটি বিটকে বসানোর মাধ্যমে জর্ডান পিল পরিণত হয়ে গিয়েছেন ওবামায়। আর ভয়েস ক্লোনিং টেকনোলজিকেও ব্যবহার করা হচ্ছে এই ভিডিওগুলো বানাতে, যেখানে একজন মানুষের কণ্ঠস্বর থেকে আসা সিলেবলগুলোকে রিঅ্যারেঞ্জ করে সম্পূর্ণ নতুন শব্দ তৈরি করা হয়। উল্লেখ্য যে অ্যাপেলের ‘সিরি’ বা অ্যামাজনের ‘অ্যালেক্সা’-তেও এই ভয়েস ক্লোনিং টেকনোলজিই ব্যবহার করা হচ্ছে।

ডিপফেক নিয়ন আলোয় neonaloy

ওবামা’র চেহারা ব্যবহার করে কথা বলছেন জর্ডান পিল, আর ক্যারিশমা দেখাচ্ছে ডিপফেক।

এই ডিপ লার্নিং অ্যালগোরিদমকে আপনি যত বেশি তথ্য দিবেন, সে তত বেশি ভালো কাজ করবে, ততটা বাস্তবতার কাছাকাছি হবে ডিপফেক ভিডিও। যেমন ওবামার ডিপফেক ভিডিওটার জন্য লেগেছিল ৫৬ ঘন্টার স্যাম্পল ভিডিও, অ্যাপেল সিরিকে তৈরি করতে ব্যবহার করেছে ১০ থেকে ২০ ঘন্টার ভিডিও।

কীভাবে ছড়াতে শুরু করলো এ প্রযুক্তি?

এই প্রযুক্তি ২০১৪ সালে প্রথম তৈরি করে ইয়ান গুডফেলো নামের একজন গ্র্যাজুয়েট স্টুডেন্ট। তখন এ প্রযুক্তির নাম ছিল জি.এ.এন। কিন্তু তখন সেটি তেমন একটা ছড়িয়ে যায়নি মানুষের মাঝে। ‘মাদারবোর্ড’ নামক এক ম্যাগাজিন থেকে জানা যায়, ডিপফেক ছড়ানো শুরু করে সামাজিক যোগাযোগ মাধ্যম সাইট রেডিটের মাধ্যমে, গত বছর। সেখানে ‘ডিপফেকস’ ছদ্মনামে একজন রেডিট ইউজার ডিপফেক বানানোর অ্যালগোরিদমটি একটি ওপেন সোর্স কোড হিসেবে সবার জন্য অ্যাভেইলেবল করে দেন। রাতারাতি হিট হয়ে যায় সেই অ্যালগোরিদম। অনেক অনেক সেলেব্রিটির ফেক সেক্সটেপ তৈরি হয়ে যায় কিছুদিনের মধ্যেই এই প্রযুক্তির হাত ধরে, সাধারণ পর্ণ ভিডিও আর সেলেব্রিটিদের ফুটেজ মিলিয়ে অ্যালগোরিদমই তৈরি করে সেই ভুয়া সেক্সটেপগুলো। এর আগে এই প্রযুক্তি শুধু গবেষকদের হাতেই ছিল, সাধারণ জনগণের হাতে আসে তখনই প্রথম। এরপর ‘রেডিট’ সেই ইউজারকে ব্যান করে দেয় ঠিকই, কিন্তু ইতোমধ্যে অনেকের কাছেই ছড়িয়ে গেছে সে প্রযুক্তি। এ বছর এই প্রযুক্তি ভিত্তিক একটি ডেস্কটপ অ্যাপও বেরিয়েছে যার নাম ‘ফেকঅ্যাপ।’

কিন্তু মানুষ কেন ভয় পাচ্ছে ডিপফেক-কে?

ডিপফেক-কে নিয়ে প্রথম ভয়টা হচ্ছে এই প্রযুক্তি সহজের মানুষের মানহানি করতে পারে, বিশৃঙ্খলার সৃষ্টি করতে পারে; যে বিশৃঙ্খলার ভিত্তি হবে একেবারেই উদ্দেশ্যপ্রণোদিত মিথ্যা। ভেবে দেখুন, এ প্রযুক্তি সবখানে ছড়িয়ে যাবার পর, একজন প্রতিদ্বন্দ্বী নির্বাচনপ্রার্থীর কুকর্মের মিথ্যা ভিডিও তৈরি, বা সংখ্যালঘুদের অপবাদ দিতে মিথ্যা ভায়োলেন্সের ভিডিও তৈরি- এগুলো কী খুব অসম্ভব হবে মানুষের পক্ষে? বিশেষ করে বিখ্যাত ব্যক্তিরা- রাজনীতিবিদরা, বড় বড় কোম্পানির সিইওরা, মিডিয়া সেলেব্রিটিরা, তাদের জন্য ভয়টা আরো বেশি। কারণ তাদের অসংখ্য ভিডিও রয়েছে পাবলিক ডোমেইনে, তাদেরকে নিয়ে সম্পূর্ণ বাস্তবের মতো ফেক ভিডিও বানানো তো কোনো ব্যাপারই নয় বর্তমান প্রযুক্তির পক্ষে। আর সাধারণ মানুষেরাও এর থেকে মুক্ত থাকবেন না, কারণ ফেসবুকের যুগে ইন্টারনেটে কারোরই কম ছবি বা ফুটেজ নেই। বিশেষ করে নারীদের মানহানি করা এবং হ্যারেস করাটা এখন অনেক সহজই হয়ে যাবে যদি ডিপফেক সহজলভ্য হয়ে যায়। একটি ভিডিও যখন ইন্টারনেটে ভাইরাল হয়ে যায়, সেটার নিয়ন্ত্রণ করবার ক্ষমতা আর কারোরই থাকে না তখন।

ডিপফেক নিয়ন আলোয় neonaloy

সেলেব্রিটিদের চেহারা ব্যবহার করে বানানো এই প্রত্যেকটি পর্ন ভুয়া

একই সাথে রয়েছে মুদ্রার উল্টোপিঠ, সেটাও কম ভয়াবহ নয়। ডিপফেক যদি দৈনন্দিন বিষয় হয়ে দাঁড়ায়, কোন ভিডিওই তখন আর নির্ভরযোগ্য প্রমাণ হিসেবে কোথাও ব্যবহার করা যাবে না। কাউকে যদি কুকর্ম করতে দেখাও যায় কোনো ভিডিওতে, সে বলে বসবে এটা ফেক, ‘ডিপফেক।’ তখন আমরা সত্যিকার অর্থেই ‘সত্যবিবর্জিত প্রাণী’ হয়ে দাঁড়াব।

‘ফেক’-গুলোকে চেনার কোনো নির্ভরযোগ্য উপায় কি আমরা বের করেছি?

দুঃখজনক হলেও সত্য যে, যেই পর্যায়ের মেশিন লার্নিং ডিপফেকগুলোকে তৈরি করতে ব্যবহৃত হয়, তার বিপরীতে কোনো ডিটেক্টিং অ্যালগোরিদম আমাদের হাতে নেই। গবেষকরা যদিও কিছু ক্লু ভেবেছেন যেগুলো দেখে আমরা বুঝতে পারবো সেই ভিডিওটি ফেক। যদি দেখা যায় ভিডিওর মানুষগুলো স্বাভাবিকের চেয়ে বেশি সময় পরপর পলক ফেলছে, বা অভিব্যক্তির পরিবর্তন কম হচ্ছে, তখন আমরা বুঝতে পারব যে ভিডিওটি ফেক হওয়ার সম্ভাবনা আছে।

ডিপফেক নিয়ন আলোয় neonaloy

তবে সাধারণের চোখ এগুলো আসলে খুব ভালোভাবে বুঝতে পারে না। ভিডিওর কালার স্যাচুরেশন বাড়িয়ে ত্বক থেকে রক্ত সঞ্চালনের গতিবিধি এবং স্পন্দন বোঝারও উপায় রয়েছে। যদি ভিডিওটি ফেক হয়ে থাকে, তবে এই গতিবিধি এবং স্পন্দন খুবই অস্বাভাবিক হবে। বর্তমানে যুক্তরাষ্ট্রের প্রতিরক্ষা বিভাগ ডিপফেক চেনার প্রযুক্তি নিয়ে কাজ করছে।

ডিপফেক-এর কী কোনো উপকারী ব্যবহার আছে?

হ্যাঁ, তা আছে। যেমন স্কটিশ একটি প্রতিষ্ঠান বর্তমানে যারা কোনো রোগব্যাধির কারণে কণ্ঠ হারিয়ে ফেলছেন তাদের কৃত্রিম কণ্ঠ তৈরি করার প্রযুক্তি তৈরি করছে, এই প্রযুক্তি অনেকটা ডিপফেক-এর মতোই। এছাড়া শিক্ষাক্ষেত্রেও এই প্রযুক্তি ব্যবহার করা যেতে পারে। যেমন কিছুদিন আগেই নর্থ ক্যারোলিনা স্টেট ইউনিভার্সিটি মার্টিন লুথার কিংয়ের একটি বক্তৃতা কৃত্রিমভাবে তৈরি করেছে যেটি ধারণকৃত ছিল না।

তবে ভালো দিকের তুলনায় এই প্রযুক্তির অপব্যবহারের সম্ভাবনাই বেশি। কারণ সত্য-মিথ্যার পার্থক্য যদি করা সম্ভব না হয়ে তখন ন্যায়বিচার সম্পূর্ণ মীথ-এ পরিণত হতে পারে। তখন এই প্রযুক্তির বিপরীতে সত্যকে টিকিয়ে রাখার একমাত্র পুঁজি হবে আমাদের বিবেক। আমরা যদি আমাদের বিবেক দিয়ে ন্যায়বোধ দিয়ে সত্যকে চিনতে না পারি, তবে সত্য হারিয়ে যাবে এই পৃথিবী থেকে।

কিন্তু প্রযুক্তিকে মানুষ খুব কমই পেরেছে নৈতিকতার বেড়াজালে আটকে রাখতে। যত কড়াকড়ি-ই করা হোক না কেন, প্রযুক্তি এসবের ফাঁক গলে ঠিকই কোন না কোনভাবে নিজেকে প্রতিষ্ঠিত করে ফেলবে। আর সেদিন হয়তো দুরে নয়, যখন ভণ্ড পীর আহসান হাবীব পেয়ারের মত অপরাধীরা হাতেনাতে ধরা পড়ার পরেও “এগুলো ইডিট করা যায়” বলে হাসিমুখে বেকসুর খালাস পেয়ে বেরিয়ে আসবে আদালত থেকে।

তাই এই মুহুর্তে হয়তো আমাদের একমাত্র করণীয় নিজেদের বোধ-বুদ্ধি-বিবেকের চর্চা করতে শিখা। চারপাশের যেকোনো তথ্য, ভিডিও সামনে আসা মাত্রই বিশ্বাস করার অভ্যাস থেকে আমরা বেরিয়ে আসি, প্রশ্ন করতে শিখি, তথ্যকে যাচাই করে তারপর বিশ্বাস করার সংস্কৃতি নিজেদের মাঝে গড়ে তুলি।

Most Popular

To Top