সোরা এমনকি মানুষের ডিপফেক ডিটেক্টরকে বোকা বানায়

 | BanglaKagaj.in

সোরা এমনকি মানুষের ডিপফেক ডিটেক্টরকে বোকা বানায়


এটি এমন ছিল যে AI দরকারী সূত্রগুলি পিছনে রেখে যাবে যে এটি তৈরি করা চিত্রটি বাস্তবে বাস্তব ছিল না। প্রযুক্তির পূর্ববর্তী প্রজন্মগুলি একজন ব্যক্তিকে একটি অতিরিক্ত আঙুল বা এমনকি একটি অতিরিক্ত অঙ্গ দিতে পারে। দাঁতগুলি অদ্ভুত এবং জায়গার বাইরে দেখাতে পারে এবং ত্বক অত্যধিক লাল হয়ে যেতে পারে, যেমন পিক্সারের বাইরের কিছু। মাল্টিপল ডাইমেনশন আমাদের মডেলগুলিকে অভিভূত করতে পারে, যেগুলি একটি সংবেদনশীল উপায়ে ভৌত জগতের প্রতিনিধিত্ব করার জন্য সংগ্রাম করেছে: একটি নদীতে সাঁতার কাটা একটি স্যামনের একটি চিত্রের জন্য জিজ্ঞাসা করুন এবং একটি AI আপনাকে একটি অশান্ত স্রোতের সাথে ভাসমান একটি মাঝারি-বিরল সালমন স্টেক দেখাতে পারে৷ অবশ্যই, আমরা অদ্ভুত উপত্যকায় ছিলাম। কিন্তু অন্তত আমরা জানতাম যে আমরা সেখানে ছিলাম। এখন আর সেই অবস্থা নেই। যদিও আমরা যে বিষয়বস্তু দেখি তা কৃত্রিম বুদ্ধিমত্তার সাহায্যে তৈরি করা হয়েছে তা শনাক্ত করার কিছু অ্যানালগ উপায় এখনও আছে, অন্তর্নিহিত ভিজ্যুয়াল ইঙ্গিতগুলি ক্রমশ অদৃশ্য হয়ে যাচ্ছে। Sora 2-এর সীমিত প্রকাশ, OpenAI-এর সর্বশেষ ভিডিও জেনারেশন মডেল, সেই বিকাশকে ত্বরান্বিত করেছে, বেশ কয়েকটি AI সনাক্তকরণ সংস্থার বিশেষজ্ঞরা ফাস্ট কোম্পানিকে বলেছেন – যার অর্থ আমরা শীঘ্রই AI পতনের দিকে যেতে ডিজিটাল এবং অন্যান্য প্রযুক্তি সরঞ্জামগুলির উপর সম্পূর্ণ নির্ভর করতে পারি। এটি শুধুমাত্র সাধারণ ইন্টারনেট ব্যবহারকারীদের জন্যই নয় বরং এর ইমেজ বা পরিচয়কে চুরি এবং আত্মসাৎ থেকে রক্ষা করার সাথে সংশ্লিষ্ট যেকোন প্রতিষ্ঠানের জন্যও এর প্রভাব রয়েছে। “এমনকি আমার মত বিশ্লেষক যারা এই শিল্পের বিকাশ দেখেছেন, এটি সত্যিই কঠিন, বিশেষ করে ছবিগুলির সাথে,” ফ্রান্সেসকো ক্যাভালি, সেন্সিটি এআই, ফাস্ট কোম্পানিকে বলে। “আকৃতি, রঙ এবং মানুষ নিখুঁত। তাই এখন টুলের সাহায্য ছাড়া, গড় ইন্টারনেট ব্যবহারকারীর পক্ষে কৃত্রিম বুদ্ধিমত্তার মাধ্যমে ছবি, ভিডিও বা অডিও ক্লিপ তৈরি করা হয়েছে কিনা তা বোঝা প্রায় অসম্ভব।” ভিজ্যুয়াল ক্লু ম্লান হয়ে যাচ্ছে ভালো খবর হল অন্তত এখনও পর্যন্ত কিছু ভিজ্যুয়াল লক্ষণ রয়েছে যে বিষয়বস্তুটি AI এর মাধ্যমে তৈরি করা হয়েছিল৷ গবেষকরা আরও খুঁজছেন। যদিও অতিরিক্ত আঙ্গুলগুলি কম সাধারণ বলে মনে হয়, এআই-চালিত ইমেজ জেনারেশন মডেলগুলিতে এখনও বিশ্বাসযোগ্য পাঠ্য তৈরি করতে অসুবিধা হয়, সোফিয়া রবিনসন ব্যাখ্যা করেন, রিয়ালিটি চেকের সিনিয়র সম্পাদক, তথ্য নির্ভরযোগ্যতা সংস্থা নিউজগার্ড দ্বারা পরিচালিত একটি প্রকাশনা৷ কৃত্রিম বুদ্ধিমত্তা দ্বারা উত্পাদিত আউট পরিণত একটি trampoline উপর খরগোশ লাফানো দেখানো নজরদারি ভিডিও মনে আছে? রবিনসন বলেছেন, খরগোশ আসলে তা করে কিনা তা আপনার বিবেচনা করা উচিত। “আমরা সত্যিই মানুষকে উত্সাহিত করতে চাই যে তারা অনলাইনে যা দেখছে সে সম্পর্কে আরও সমালোচনামূলক চিন্তা করতে কারণ এই ভিজ্যুয়াল উপাদানগুলি অদৃশ্য হয়ে গেছে,” তিনি যোগ করেন। রবিনসন বলেছেন যে ভিডিওটির কিছু অংশ কালো করা হয়েছে কিনা তা দেখা সম্ভব, যা ইঙ্গিত করতে পারে যে সেখানে একটি সোরা 2 ওয়াটারমার্ক রয়েছে। আমরা এটি কে ভাগ করেছে তাও পরীক্ষা করতে পারি। অ্যাকাউন্টের পৃষ্ঠায় স্যুইচ করলে কখনও কখনও একই ধরনের ভিডিওর একটি বড় সংগ্রহ দেখা যায় – একটি প্রায় নির্দিষ্ট উপহার যা আপনি একটি AI থেকে একটি অফার পাচ্ছেন। অন্যদিকে, ব্যবহারকারীর নামগুলি অগত্যা আমাদের বুঝতে সাহায্য করবে না যে আসলে কে এই বিষয়বস্তুটি তৈরি করেছে: যেমন ফাস্ট কোম্পানি পূর্বে রিপোর্ট করেছে, এটি মোটামুটি সহজ, যদিও সর্বদা সম্ভব নয়, একজন বিখ্যাত ব্যক্তির সাথে একটি Sora 2 ব্যবহারকারীর নাম যুক্ত করা, অন্য লোকের ছবি ব্যবহার করার বিষয়ে OpenAI-এর নিয়ম থাকা সত্ত্বেও। শেষ পর্যন্ত, আমাদের মডেলের স্বতন্ত্র শৈলী এবং প্রবণতাকে আয়ত্ত করতে হতে পারে, বলেছেন সিওয়েই লিউ, বাফেলোর স্টেট ইউনিভার্সিটি অফ নিউইয়র্কের একজন অধ্যাপক যিনি ডিপফেক নিয়ে গবেষণা করেন৷ উদাহরণস্বরূপ, Sora 2 দ্বারা উত্পন্ন বক্তৃতা খুব দ্রুত প্রদর্শিত হতে পারে। (কেউ কেউ এটিকে “এআই অ্যাকসেন্ট” বলে অভিহিত করেছেন।) তবে, লিউ সতর্ক করেছেন যে এই সূচকগুলি “সূক্ষ্ম এবং প্রায়শই যখন আকস্মিকভাবে দেখা যায় তখন মিস করা যায়।” প্রযুক্তির উন্নতি ঘটবে, যার মানে এই ধরনের ইঙ্গিত চিরতরে লেগে থাকার সম্ভাবনা নেই। প্রকৃতপক্ষে, গবেষকরা বলছেন যে AI-এর ভিজ্যুয়াল অবশেষগুলি সহ-তৈরি করা সামগ্রীর একটি অংশ বাস্তবে ম্লান হয়ে যাচ্ছে বলে মনে হচ্ছে। “আমরা ভিজ্যুয়াল অসঙ্গতি সম্পর্কে যে পরামর্শ দিতাম তা অদৃশ্য হয়ে যাচ্ছে, এক সময়ে একটি মডেল,” এমমানুয়েল সালিবা বলেছেন, একজন প্রাক্তন সাংবাদিক যিনি এখন গেটরিয়েল ল্যাবসে তদন্তের নেতৃত্ব দিচ্ছেন, একটি সাইবারসিকিউরিটি কোম্পানি যা এআই-জেনারেটেড সামগ্রী সনাক্ত করে, অধ্যয়ন করে এবং ম্যানিপুলেট করে৷ তিনি বলেছেন যে একটি চিত্র তৈরিতে কৃত্রিম বুদ্ধিমত্তার ব্যবহার নির্দেশ করার জন্য অসামঞ্জস্যপূর্ণ শারীরিক নড়াচড়ার ব্যবহার সত্ত্বেও, সোরা 2 বাস্তব জগতের অনুকরণে উল্লেখযোগ্যভাবে উন্নতি করেছে। রিয়েলিটি ডিফেন্ডারে, একটি ডিপফেক ডিটেকশন কোম্পানিও, কোম্পানির সমস্ত গবেষক — যাদের অর্ধেকই পিএইচডি করেছেন — নতুন প্রজন্মের কৃত্রিম বুদ্ধিমত্তার দ্বারা উত্পাদিত বিষয়বস্তু দ্বারা প্রতারিত হয়েছেন৷ “সোরা চালু হওয়ার পর থেকে, তাদের প্রত্যেকেই একটি ডিপফেককে আসল বা বিপরীত হিসাবে লেবেল করেছে,” বেন কোলম্যান, রিয়ালিটি ডিফেন্ডারের সহ-প্রতিষ্ঠাতা এবং সিইও, ফাস্ট কোম্পানিকে বলেছেন৷ “যারা 5 থেকে 25 বছর ধরে এটি নিয়ে কাজ করছেন তারা যদি আসল এবং নকলের মধ্যে পার্থক্য বলতে না পারেন তবে সাধারণ ব্যবহারকারীরা বা যারা ম্যানুয়াল ডিটেকশন ব্যবহার করেন তারা কীভাবে করবেন?” লেবেলগুলিও আমাদের রক্ষা করবে না। কোম্পানিগুলি AI-জেনারেটেড কন্টেন্ট শনাক্ত করার উপায় হিসেবে ওয়াটারমার্কিংকে দাবি করে, সহজ সমাধানগুলি এই টুলগুলিকে হতাশ করে বলে মনে হয়। উদাহরণস্বরূপ, ওপেনএআই-এর সোরা ভিডিওগুলি একটি দৃশ্যমান ওয়াটারমার্ক সহ আসে, তবে অনলাইন সরঞ্জামগুলি এটিকে সরিয়ে দিতে পারে। ওপেনএআই, অন্যান্য কোম্পানির মতো, বিষয়বস্তুর উত্স এবং সত্যতার জন্য জোট দ্বারা তৈরি C2PA মান মেনে চলে। এই স্পেসিফিকেশনটি তার মেটাডেটাতে বিষয়বস্তুর একটি অংশের উদ্ভব বা উত্স এনকোড করার কথা। যাইহোক, ওপেনএআই প্রযুক্তি দ্বারা উত্পন্ন একটি চিত্রের একটি স্ক্রিনশট নেওয়ার মাধ্যমে ওয়াটারমার্কটি সরানো যেতে পারে। এমনকি এই ইমেজটিকে টেনে আনা এবং ড্রপ করা, কিছু ক্ষেত্রে, ওয়াটারমার্ক মুছে ফেলতে পারে, টুল শো সহ ফাস্ট কোম্পানির পরীক্ষা। ওপেনএআই ত্রুটিটি স্বীকার করেছে, তবে একজন মুখপাত্র বলেছেন যে তারা ড্র্যাগ-এন্ড-ড্রপ সমস্যাটি পুনরুত্পাদন করতে অক্ষম। যখন ফাস্ট কোম্পানি Adobe, যেটি C2PA যাচাইকরণ টুল পরিচালনা করে, এই দুর্বলতা সম্পর্কে প্রশ্ন জিজ্ঞাসা করেছিল, কোম্পানি বলেছিল যে সমস্যাটি OpenAI পক্ষের ছিল। হালনাগাদ পদ্ধতি অবশ্যই, ফাস্ট কোম্পানি যে কোম্পানিগুলির সাথে কথা বলেছে তারা ডিপফেকের প্রলয় থেকে আমাদের বাঁচানোর জন্য ডিজাইন করা বিভিন্ন পণ্য বিক্রি করতে আগ্রহী৷ কেউ কেউ কল্পনা করেন যে AI বিষয়বস্তু সনাক্তকরণ ভাইরাস স্ক্যানিংয়ের পথে যেতে পারে এবং অগণিত অনলাইন এবং কর্মক্ষেত্রের সরঞ্জামগুলিতে একীভূত হতে পারে। অন্যরা উল্লেখ করেছেন যে তাদের প্ল্যাটফর্মগুলি প্রয়োজনীয় হবে কারণ সোরা 2 এর মতো সরঞ্জামগুলির আবির্ভাব ভিডিও কল-ভিত্তিক যাচাইকরণকে অপ্রচলিত করে তুলবে। কিছু এক্সিকিউটিভ বিশ্বাস করেন যে তাদের পণ্যগুলি কৃত্রিম বুদ্ধিমত্তা দ্বারা উত্পন্ন বিব্রতকর বিষয়বস্তু থেকে ব্র্যান্ডগুলিকে রক্ষা করতে ভূমিকা পালন করবে। সোরা অ্যাপ প্রকাশের প্রতিক্রিয়ায়, এই সংস্থাগুলির মধ্যে কয়েকটি বলেছে যে তারা ক্রমবর্ধমান আগ্রহ দেখছে। যাইহোক, মানুষের মতো, এমনকি এই সংস্থাগুলিকেও তাদের পদ্ধতিগুলি আপডেট করতে হবে যখন নতুন মডেলগুলি প্রকাশিত হয়। “এমনকি যদি একজন মানুষ প্রযুক্তির দৃষ্টিকোণ থেকে কিছু আবিষ্কার করতে না পারে, তবে সবসময় তদন্ত করার কিছু আছে,” সেন্সিটির ক্যাভালি বলেছেন। এটির জন্য প্রায়শই একটি মাল্টি-মেথড পদ্ধতির প্রয়োজন হয়, যা ফাইল মেটাডেটা এবং ব্যাকগ্রাউন্ড নয়েজের অসঙ্গতি বিবেচনা সহ বিভিন্ন বিষয় বিবেচনা করে। ক্যাভালি যোগ করেছেন যে নতুন মডেলগুলি চালু করার সময় সংবেদনশীলতার সনাক্তকরণ মডেলগুলিকে পুনরায় প্রশিক্ষিত এবং উন্নত করা হয়। কিন্তু এমনকি এটি সবসময় আদর্শ নয়। SUNY Buffalo-এর Liu বলেছেন যে যদিও তার টিম যে শনাক্তকরণ সিস্টেমগুলি তৈরি করেছে তা এখনও Sora 2 এর সাথে উত্পাদিত ভিডিওগুলিতে কাজ করে, জেনারেটিভ AI মডেলগুলিতে তাদের পারফরম্যান্সের তুলনায় তাদের নির্ভুলতা কম। এটা কিছু সূক্ষ্ম টিউনিং পরে. হানি ফরিদ, একজন UC বার্কলে অধ্যাপক যিনি রিয়েলিটি ডিফেন্ডারের সহ-প্রতিষ্ঠাতা এবং এর প্রধান বিজ্ঞান কর্মকর্তা হিসাবে কাজ করেন, বলেছেন কোম্পানির ফরেনসিক এবং ডেটা প্রযুক্তি সাম্প্রতিক মডেলগুলিতে “ভালো” কিন্তু “নিখুঁত নয়” সাধারণীকরণ দেখেছে। সোরা 2-এর ক্ষেত্রে, কোম্পানির কিছু ভিডিও প্রযুক্তি কার্যকরী থেকে গেছে, “যদিও অন্যদের ফাইন-টিউনিং প্রয়োজন ছিল,” তিনি বলেছেন, অডিও সনাক্তকরণ মডেলগুলি এখনও শক্তিশালী হচ্ছে। এটি জেনারেটিভ এআই-এর আগের যুগ থেকে একটি পরিবর্তন, যখন ফরেনসিক কৌশলগুলি সর্বশেষ মডেলগুলিতে প্রয়োগ করার জন্য ক্রমাগত আপডেট করতে হয়েছিল। “আমাদের ডিজিটাল ফরেনসিক কৌশলগুলির জন্য, এর জন্য AI মডেলগুলির দ্বারা প্রবর্তিত নির্দিষ্ট শিল্পকর্মগুলি বোঝার প্রয়োজন এবং তারপরে এই নিদর্শনগুলি সনাক্ত করার কৌশলগুলি তৈরি করা প্রয়োজন৷ আমাদের আরও ডেটা-চালিত কৌশলগুলির জন্য, এর জন্য সর্বশেষ মডেল থেকে সামগ্রী তৈরি করা এবং আমাদের মডেলগুলিকে পুনরায় প্রশিক্ষণ দেওয়া প্রয়োজন।” এই ডিপফেক সনাক্তকরণ পদ্ধতিগুলি ধরে রাখা অব্যাহত থাকবে কিনা তা স্পষ্ট নয়। এদিকে, আমরা ক্রমবর্ধমানভাবে কৃত্রিম বুদ্ধিমত্তায় আচ্ছন্ন একটি বিশ্বের দিকে এগিয়ে যাচ্ছি কিন্তু যার সিওয়াল আমরা এখনও তৈরি করছি।


প্রকাশিত: 2025-10-24 16:30:00

উৎস: www.fastcompany.com