চট্টগ্রাম শুক্রবার, ২৬ এপ্রিল, ২০২৪

সর্বশেষ:

ডিপফেক এআই প্রযুক্তির সুবিধা-ঝুঁকি, তোলপাড়

২৮ মার্চ, ২০২৩ | ৬:৪৩ পূর্বাহ্ণ

ডা. ম. রমিজউদ্দিন চৌধুরী

[‘গত ২৪ মার্চ’র দৈনিক পূর্বকোণে সাবেক মার্কিন প্রেসিডেন্ট ডোনাল্ড ট্রাম্পকে গ্রেপ্তারের কিছু ছবি সম্বলিত একটা নিউজ ছাপা হয়েছে- যাতে দেখানো হয়েছে, দাঙ্গা পুলিশ সাবেক প্রেসিডেন্টকে টেনে-হিঁচড়ে নিয়ে যাচ্ছে। মূলতঃ আর্টিফিসিয়াল ইন্টেলিজেন্স ব্যবহার করে তৈরি ‘ডিপফেইক’র (জাল ভিডিও) কতক ক্লিপ ওই ছবিগুলো। অনেকটা খেলাচ্ছলেই ওই ডিপফেইকটি তৈরি করেছেন অনুসন্ধানী সাংবাদিকতা গোষ্ঠী বেলিংক্যাটের প্রতিষ্ঠাতা এলিয়ট হিগিন্স। আজকের প্রতিবেদন ওই ‘ডিপফেক’র ভালোমন্দ দিক নিয়ে।]

ডিপফেক এআই প্রযুক্তি হল এক ধরনের কৃত্রিম বুদ্ধিমত্তা যা বাস্তবসম্মত চেহারার ভিডিও বা অডিও বিষয়বস্তু তৈরি করতে ব্যবহার করা হয়, যেখানে তিনি এমন কিছু বলেন বা করেন যা তিনি আসলে বলেননি বা করেননি। এই প্রযুক্তি মেশিন লার্নিং অ্যালগরিদম ব্যবহার করে একটি ‘বিশ্বাসযোগ্য জাল’ ভিডিও বা অডিও তৈরি করতে বিদ্যমান ভিডিও এবং অডিও রেকর্ডিংগুলিকে নিপুণভাবে বিশ্লেষণ করে থাকে।
একটি ডিপফেক তৈরির প্রক্রিয়াতে সাধারণত নিম্ন লিখিত পদক্ষেপগুলি জড়িত থাকে :
১. ডেটা সংগ্রহ করা : প্রথম ধাপ হল প্রচুর পরিমাণে ডেটা সংগ্রহ করা, যেমন সেই ব্যক্তির ভিডিও এবং অডিও রেকর্ডিং যা ডিপফেকের জন্য ব্যবহার করা হবে।
২. মডেলের প্রশিক্ষণ : সংগৃহীত ডেটা একটি ডিপলার্নিং মডেলকে প্রশিক্ষণ দিতে ব্যবহার করা হয়, যেটা এক ধরনের নিউরাল নেটওয়ার্ক যা প্যাটার্ন চিনতে এবং নতুন ডেটা তৈরি করা শিখতে পারে।
৩. নকল তৈরি করা : একবার মডেল প্রশিক্ষিত হলে, এটি একটি ডিপফেক তৈরি করতে ব্যবহার করা যেতে পারে। এর মধ্যে রয়েছে মডেলকে এমন ব্যক্তির ভিডিও বা অডিও রেকর্ডিং আত্মস্থ করানো যাকে রূপায়িত করা হবে এবং তারপরে নিপুণভাবে ওই ট্রেনিংয়ের আউটপুটকে একটি ‘বিশ্বাসযোগ্য জাল’ (ডিপফেক) তৈরি করতে ব্যবহার করা হয়। উদাহরণস্বরূপ, মডেলটি নতুন মুখের অভিব্যক্তি, নড়াচড়া বা বক্তৃতার ধরণ তৈরি করতে ব্যবহার করা যেতে পাওে যেটা মূল রেকর্ডিংয়ের সাথে মেলে।
৪. জাল পরিমার্জন : চূড়ান্ত পদক্ষেপ হল ডিপফেকটিকে আরও বিশ্বাসযোগ্য করে তুলতে পরিমার্জন করা। এটি আরও বাস্তবসম্মত দেখানোর জন্য ভিডিওর আলো, রঙ বা অন্যান্য ভিজ্যুয়াল উপাদানগুলির সামঞ্জস্য ঠিকঠাক কওে নিতে হয়।
সামগ্রিকভাবে, ডিপফেক তৈরির প্রক্রিয়াটি জটিল এবং উচ্চমাত্রার প্রযুক্তিগত দক্ষতার প্রয়োজন। প্রযুক্তিটি আরও উন্নত হওয়ার সাথে সাথে যে কারও পক্ষে বিশ্বাসযোগ্য ডিপফেক তৈরি করা সহজ হয়ে উঠছে, যা এই প্রযুক্তির সম্ভাব্য অপব্যবহারের বিষয়ে উদ্বেগ বাড়াচ্ছে। প্রাক্তন মার্কিন প্রেসিডেন্ট ডোনাল্ড ট্রাম্পের গ্রেপ্তারের প্রসঙ্গে ডিপফেক এআই প্রযুক্তির ব্যবহার মানব জীবন এবং বিশ্ব রাজনীতির জন্য ইতিবাচক এবং নেতিবাচক উভয়ক্ষেত্রেই গুরুত্বপূর্ণ প্রভাব ফেলবে সন্দেহ নেই।
তাৎপর্য
১. ভুল তথ্য : ডিপফেকগুলি মিথ্যা ভিডিও তৈরি করতে ব্যবহার করা হতে পারে যা ভুল তথ্য ছড়াতে, জনমতকে ভুল পথে চালিত করতে এবং বিশৃঙ্খলা সৃষ্টি করতে ব্যবহার করা হতে পারে। ডিপফেক ব্যবহার করে, কেউ ‘যা তারা করেনি বা বলেনি’ এমন কিছু করেছে বা বলেছে বলে মনে করানো সম্ভব। ট্রাম্পের ওই কাল্পনিক গ্রেপ্তারের ভিডিওর ক্ষেত্রে, ডিপফেকটিকে অনায়াসে মিথ্যাভাবে ট্রাম্পকে গ্রেপ্তার করা হচ্ছে দেখানো যেতো, যার ফলে তার সমর্থকদের মধ্যে ব্যাপক বিভ্রান্তি তৈরি হতো এবং তদের বিপজ্জনক প্রতিক্রিয়াও দেখা দিতে পারতো।
২. বিশ্বাসযোগ্যতা : ডিপফেক ভিডিও প্রমাণের সত্যতার উপর আস্থা নষ্ট করতে পারে। যদি ডিপফেক প্রযুক্তি আরও উন্নত হয়, তাহলে কোনটি আসল এবং কোনটি নয় তা নির্ণয় করা আরও কঠিন হয়ে উঠতে পারে, যা এমন একটি পরিস্থিতির দিকে ইঙ্গিত করে- যেখানে লোকেদের ‘ভিডিও প্রমাণের’ বিষয়ে আরও বেশি সন্দিহান (যদিও এটি আসল) কওে তুলতে পারে।
৩. রাজনৈতিক প্রভাব : ডিপফেকগুলি বিশ্ব রাজনীতিতে উল্লেখযোগ্য প্রভাব ফেলতে পারে। প্রার্থীদের মিথ্যা ভিডিও তৈরি করতে ডিপফেক ব্যবহার করা হলে রাজনৈতিক প্রচারণা এবং নির্বাচন প্রভাবিত হতে পারে। রাজনৈতিক প্রতিপক্ষরা একে অপরকে কলঙ্কিত করার জন্য ডিপফেকগুলি ব্যবহার করতে পারে, যার ফলে রাজনৈতিক ব্যক্তিত্বদের উপর আস্থা তলানিতে নেমে আসতে পারে।
সুবিধা
১. ফরেনসিক : ডিপফেকগুলি ফৌজদারি বিচার ব্যবস্থায় ফরেনসিক উদ্দেশ্যে ব্যবহার করা যেতে পারে। উদাহরণস্বরূপ, সন্দেহভাজন ব্যক্তিকে শনাক্ত করতে সাহায্য করার জন্য তার মুখ পুনরায় তৈরি করতে একটি ডিপফেক ব্যবহার করা যেতে পারে।
২. শিক্ষা : ডিপফেকগুলি শিক্ষায় সিমুলেশন তৈরি করতে ব্যবহার করা যেতে পারে যা শিক্ষার্থীদের জটিল ধারণাগুলি আরও ভালভাবে বুঝতে সাহায্য করতে পারে। উদাহরণস্বরূপ, একটি ঐতিহাসিক ব্যক্তিত্বের বক্তৃতা বা ঘটনা পুনরায় তৈরি করতে একটি ডিপফেক ব্যবহার করা যেতে পারে।
৩. বিনোদন : ডিপফেকগুলি সিনেমা এবং টিভি শোতে আরও বাস্তবসম্মত বিশেষ প্রভাব তৈরি করতে ব্যবহার করা যেতে পারে। এগুলি আরও বিশ্বাসযোগ্য ভার্চুয়াল বাস্তবতার অভিজ্ঞতা তৈরি করতেও ব্যবহার করা যেতে পারে।
অসুবিধা
১. অপব্যবহার : ব্যক্তি বা সংস্থার দ্বারা জাল খবর, প্রচার, বা জনমতের হেরফের করার জন্য এ প্রযুক্তির অপব্যবহার করা হতে পারে। স্টক মার্কেটে ভুয়া তথ্য ছড়িয়ে স্টকমূল্যে ব্যাপক ধস নামাতে এটির ব্যবহৃত হবার সম্ভাবনাও উড়িয়ে দেয়া যায়না।
২. গোপনীয়তা : ডিপফেকগুলি ব্যক্তির নকল ভিডিও তৈরি করে, তাদের গোপনীয়তা লঙ্ঘন এবং তাদের খ্যাতি নষ্ট করতে ব্যবহার করা হতে পারে।
৩. নিরাপত্তা : ডিপফেক প্রযুক্তি বিশ্বনেতা বা ব্যবসায়িক নির্বাহীদের মতো ক্ষমতায় থাকা ব্যক্তিদের জাল ভিডিও তৈরি করে চাঁদাবাজি বা ব্ল্যাকমেলের জন্য ব্যবহার করা হতে পারে।
পরিশেষে, ডোনাল্ড ট্রাম্পের তথাকথিত গ্রেপ্তারের ভিডিওতে যে ডিপফেক এআই প্রযুক্তির ব্যবহার হয়েছে তার আলোকে বলা যায, এই প্রযুক্তির সম্ভাব্য সুবিধা এবং উল্লেখযোগ্য ঝুঁকি উভয়ই রয়েছে। এটি ফরেনসিক, শিক্ষামূলক এবং বিনোদনের ক্ষেত্রে ব্যবহার করা যেতে পারে বটে, তবে এর অপব্যবহারের উল্লেখযোগ্য ঝুঁকিও রয়েছে যেমন, এটি ভুল তথ্য ছড়াতে, গোপনীয়তা লঙ্ঘন করতে কিংবা ‘ভিডিও প্রমাণে’ বিশ্বাসযোগ্যতায় ক্ষতি করতে ব্যবহৃত হতে পারে।

শেয়ার করুন

সম্পর্কিত পোস্ট