আপনি কি ChatGPT এবং মিথুনকে বিশ্বাস করতে পারেন বলে মনে করেন? এখানে কেন আপনি আবার ভাবতে চাইতে পারেন

 | BanglaKagaj.in
(Image credit: Getty Images)

আপনি কি ChatGPT এবং মিথুনকে বিশ্বাস করতে পারেন বলে মনে করেন? এখানে কেন আপনি আবার ভাবতে চাইতে পারেন

একটি বড় আন্তর্জাতিক সমীক্ষায় দেখা গেছে যে সমস্ত AI সহকারী সংবাদ প্রতিক্রিয়াগুলির প্রায় অর্ধেকই গুরুতর ত্রুটি রয়েছে। 14টি ভাষা এবং 18টি দেশে বাস্তব সমস্যা, উত্স বা প্রাসঙ্গিক সমস্যাগুলি স্পষ্ট ছিল। মিথুনের ভাড়া সবচেয়ে খারাপ: মিথুনের প্রতিযোগীদের তুলনায় দ্বিগুণ গুরুতর সমস্যা রয়েছে। আপনি যখন একজন AI সহকারীকে খবর এবং বর্তমান ঘটনা সম্পর্কে জিজ্ঞাসা করেন, আপনি একটি বিচ্ছিন্ন এবং প্রামাণিক প্রতিক্রিয়া আশা করতে পারেন। কিন্তু বিবিসি দ্বারা পরিচালিত এবং ইউরোপীয় সম্প্রচার ইউনিয়ন (ইবিইউ) দ্বারা সমন্বিত একটি বড় আন্তর্জাতিক গবেষণা অনুসারে, প্রায় অর্ধেক ক্ষেত্রে এই উত্তরগুলি ভুল, বিভ্রান্তিকর বা সহজভাবে তৈরি করা হয়েছে (যে কেউ কৃত্রিম বুদ্ধিমত্তা ব্যবহার করে অ্যাপলের লেখা শিরোনামের অযৌক্তিকতা অনুভব করেছেন তারা এটি বুঝতে পারবেন)। প্রতিবেদনে ChatGPT, Microsoft Copilot, Google Gemini এবং Perplexity কীভাবে 18টি দেশে 14টি ভাষায় সংবাদের অনুরোধগুলি পরিচালনা করে তার বিবরণ দেয়। প্রতিবেদনে কৃত্রিম বুদ্ধিমত্তার সরঞ্জাম দ্বারা প্রদত্ত 3,000 টিরও বেশি ব্যক্তিগত প্রতিক্রিয়া বিশ্লেষণ করা হয়েছে। 22টি পাবলিক মিডিয়া আউটলেটের পেশাদার সাংবাদিকরা প্রতিটি উত্তরকে নির্ভুলতা, উত্স এবং মতামত থেকে সংবাদকে কতটা আলাদা করেছে তার জন্য মূল্যায়ন করেছেন। যারা তাদের সংবাদের জন্য এআই-এর উপর নির্ভর করেছিলেন তাদের জন্য ফলাফলগুলি গুরুতর ছিল। প্রতিবেদনে দেখা গেছে যে সমস্ত উত্তরের 45% উল্লেখযোগ্য সমস্যা ছিল, 31% অনুসন্ধান সমস্যা ছিল, এবং 20% কেবল ভুল ছিল। এবং এটি কেবল একটি বা দুটি বিরক্তিকর ভুল নয়, যেমন বেলজিয়ামের প্রধানমন্ত্রীকে বেলজিয়ামের পপ গ্রুপের ফ্রন্টম্যানের সাথে বিভ্রান্ত করা। এই সহকারীরা কীভাবে ভাষা, দেশ বা প্ল্যাটফর্ম নির্বিশেষে সংবাদ প্রক্রিয়া এবং সরবরাহ করে তা নিয়ে গবেষণায় গভীর কাঠামোগত সমস্যা প্রকাশ করা হয়েছে। আপনি পছন্দ করতে পারেন (চিত্র ক্রেডিট: বিবিসি/ইবিইউ) কিছু ভাষায়, সহকারীরা কেবল বিশদটি হ্যালুসিনেশন করেছে। অন্যান্য ক্ষেত্রে, তারা উদ্ধৃতিগুলিকে এমন প্রকাশনাগুলির জন্য দায়ী করে যেগুলি উদ্ধৃতির কাছাকাছি কিছু প্রকাশ করেনি। প্রসঙ্গ প্রায়ই অভাব ছিল, এবং সহকারীরা কখনও কখনও গুরুত্বপূর্ণ সূক্ষ্মতার পরিবর্তে সরল বা বিভ্রান্তিকর ওভারভিউ প্রদান করে। সবচেয়ে খারাপভাবে, এটি পুরো সংবাদের অর্থ পরিবর্তন করতে পারে। প্রতিটি সহকারী সমান সমস্যাযুক্ত ছিল না। মিথুন একটি বিস্ময়কর 76% প্রতিক্রিয়ার মধ্যে ভুল করেছে, মূলত অভাব বা দুর্বল উত্সের কারণে৷ Google অনুসন্ধানের বিপরীতে, যা ব্যবহারকারীদের এক ডজন উত্সের মাধ্যমে অনুসন্ধান করতে দেয়, একটি চ্যাটবটের উত্তর প্রায়শই নিশ্চিত বলে মনে হয়। এটি কর্তৃত্ব এবং স্পষ্টতার সাথে পড়ে, এমন ধারণা দেয় যে এটি চেক করা হয়েছে এবং সম্পাদনা করা হয়েছে, যখন আসলে এটি অর্ধ-স্মরণীয় সারাংশের একটি অস্পষ্ট কোলাজ ছাড়া আর কিছুই হতে পারে না। এটি আংশিকভাবে কেন বাজি এত বেশি। এবং কেন এমনকি ChatGPT এবং ওয়াশিংটন পোস্টের মধ্যে একটি অংশীদারিত্বও সমস্যার সম্পূর্ণ সমাধান করতে পারে না। সর্বশেষ খবর, পর্যালোচনা, মতামত, শীর্ষ প্রযুক্তিগত ডিল এবং আরও অনেক কিছুর জন্য সাইন আপ করুন। এআই সংবাদ সাক্ষরতা। সমস্যাটি সুস্পষ্ট, বিশেষ করে কত দ্রুত এআই সহকারীরা খবরের জন্য একটি সুবিধাজনক ইন্টারফেস হয়ে উঠছে। গবেষণায় রয়টার্স ইনস্টিটিউটের 2025 ডিজিটাল নিউজ রিপোর্ট থেকে অনুমান উদ্ধৃত করা হয়েছে যে সমস্ত অনলাইন সংবাদ গ্রাহকদের 7% এখন তথ্য পাওয়ার জন্য একটি AI সহকারী ব্যবহার করে এবং তাদের মধ্যে 15% 25 বছরের কম বয়সী৷ লোকেরা ইতিমধ্যেই AI কে তাদের কাছে বিশ্বকে ব্যাখ্যা করতে বলছে এবং AI বিশ্বকে ভুল করছে৷ খবর খোঁজার ক্ষেত্রে ChatGPT-এর অসুবিধা এই মুহুর্তে সুপরিচিত। কিন্তু আপনি হয়তো খেয়াল করেননি। এটি সমস্যার অংশ: এই সরঞ্জামগুলি প্রায়শই এটিকে এত তাড়াতাড়ি ভুল করে যে এটিকে লাল পতাকার মতো মনে হয় না। এই কারণে মিডিয়া সাক্ষরতা এবং অবিরাম পর্যবেক্ষণ গুরুত্বপূর্ণ। পরিস্থিতির উন্নতি করার চেষ্টা করার জন্য, EBU এবং এর অংশীদাররা “এআই হেল্পার টুলকিটে নিউজ ইন্টিগ্রিটি” প্রকাশ করেছে, যা ডেভেলপার এবং সাংবাদিক উভয়কেই সাহায্য করার জন্য ডিজাইন করা AI লিটারেসি স্টার্টার কিট হিসেবে কাজ করে। এটি উভয়ই বর্ণনা করে যে কী AI প্রতিক্রিয়াশীল করে এবং ব্যবহারকারী এবং মিডিয়া দর্শকদের কী ভুলগুলি সন্ধান করা উচিত। যখন OpenAI এবং Google-এর মতো কোম্পানিগুলি তাদের সহকারীর দ্রুত, আরও ব্যবহারকারী-বান্ধব সংস্করণ নিয়ে এগিয়ে যাচ্ছে, এই প্রতিবেদনগুলি দেখায় যে কেন স্বচ্ছতা এবং জবাবদিহিতা এত গুরুত্বপূর্ণ। এর মানে এই নয় যে কৃত্রিম বুদ্ধিমত্তা এমনকি সংবাদের অন্তহীন স্ট্রিম কিউরেট করার জন্যও কার্যকর হতে পারে না। এর মানে হল যে আপাতত এটি একটি দাবিত্যাগের সাথে আসতে হবে। এবং এমনকি যদি তারা নাও করে, অনুমান করবেন না যে সহকারী সবচেয়ে ভাল জানেন—আপনার উত্সগুলি পরীক্ষা করুন এবং টেকরাডারের মতো সবচেয়ে নির্ভরযোগ্যগুলির সাথে লেগে থাকুন৷ Google News-এ TechRadar অনুসরণ করুন এবং আপনার ফিডে আমাদের বিশেষজ্ঞের খবর, পর্যালোচনা এবং মতামত পেতে আপনার পছন্দের উৎস হিসেবে আমাদের যোগ করুন। “সাবস্ক্রাইব” বোতামটি ক্লিক করতে ভুলবেন না! এবং অবশ্যই, আপনি খবর, পর্যালোচনা, আনবক্সিং ভিডিওগুলির জন্য TikTok-এ TechRadar অনুসরণ করতে পারেন এবং WhatsApp-এ আমাদের কাছ থেকে নিয়মিত আপডেট পেতে পারেন। আপনি পছন্দ করতে পারেন…


প্রকাশিত: 2025-10-23 22:39:00

উৎস: www.techradar.com