আমি Google Gemini কে ChatGPT চেক করতে বলেছি। ফলাফল হাস্যকর ছিল

 | BanglaKagaj.in
Nadeem Sarwar / Digital Trends

আমি Google Gemini কে ChatGPT চেক করতে বলেছি। ফলাফল হাস্যকর ছিল

ChatGPT অবিশ্বাস্যভাবে দরকারী, কিন্তু এটি আমাদের প্রজন্মের উইকিপিডিয়াও। ঘটনাগুলি মাঝে মাঝে একটু নড়বড়ে হয়, এবং বট প্রায়শই আত্মবিশ্বাসী এবং আত্মবিশ্বাসী হওয়ার জন্য তথ্য তৈরি করে “হ্যালুসিনেট” করে, বরং স্বীকার করে যে এটি সম্পূর্ণরূপে সর্বজনবিদিত নয় (এখনও)। আমি অনেকবার AI হ্যালুসিনেশনের সম্মুখীন হয়েছি, বিশেষ করে যখন কোম্পানির পরিচিতি খোঁজার চেষ্টা করছি। একটি উদাহরণ: ChatGPT ইমেল তৈরি করার জন্য পরিচিত, সাধারণত অনুমান করা হয় যে “media@companyx.com” এর মতো একটি পরিচিতি থাকা উচিত, কিন্তু প্রকৃতপক্ষে সেই ইমেল ঠিকানাটি খুঁজে পাওয়া যাচ্ছে না। ঐতিহাসিক তথ্যের ক্ষেত্রে আপনি একটি বটকেও বিশ্বাস করতে চান না। আমি সর্বদা জাহাজের ধ্বংসাবশেষ, বেঁচে থাকার গল্প এবং বিশ্ব অন্বেষণ সম্পর্কে বই পড়ি, কিন্তু যখন আমি ChatGPT-কে কিছু বিবরণ পূরণ করতে বলি, তখন এটি সাধারণত একটি চমত্কার গল্প ঘুরিয়ে দেয়, কখনও কখনও নাম এবং স্থান তৈরি করে। অন্যদিকে, গুগলের মিথুন রাশির তথ্যের উপর একটু কম তরল। সম্ভবত একটি সার্চ ইঞ্জিন মনোলিথ হিসাবে Google এর খ্যাতির কারণে, এই চ্যাটবটের সাথে আমার অভিজ্ঞতা হল হ্যালুসিনেশনগুলি কিছুটা কম সাধারণ, যদিও সেগুলি মাঝে মাঝে ঘটে। আমি এটি পরীক্ষা করার সিদ্ধান্ত নিয়েছি এবং ChatGPT-কে বৈদ্যুতিক গাড়ির ইতিহাস, কয়েকটি ঐতিহাসিক তথ্য এবং কিছু অন্যান্য সূত্র সম্পর্কে কিছু প্রশ্ন জিজ্ঞাসা করেছি যা হ্যালুসিনেশনের দিকে পরিচালিত করেছিল। আমি তখন ChatGPT-এর দেওয়া উত্তরগুলি দেখেছিলাম – যেগুলি এতটা সঠিক বলে মনে হয়নি – Google Gemini থেকে একটি ফ্যাক্ট-চেকিং ব্যায়াম হিসেবে। আমার সম্পূর্ণ আশ্চর্যের জন্য, জেমিনিরা প্রায়শই হালকা ব্যঙ্গাত্মক বা সম্পূর্ণ অবজ্ঞার সাথে প্রতিক্রিয়া জানায়, যেমন একজন অধ্যাপক একটি পেপার গ্রেড করছেন। একটি ক্ষেত্রে, জেমিনি এমনকি দাবি করেছে যে ChatGPT-এর প্রতিক্রিয়াগুলি একটি “দুষ্ট, পুনর্ব্যবহৃত এবং আংশিকভাবে বানোয়াট জগাখিচুড়ি।” ওহ। এখানে আমার পছন্দের কিছু আছে, আমি যে সঠিক ChatGPT প্রম্পটগুলি ব্যবহার করেছি, উত্তরগুলি যেগুলিকে একটু স্কেচি বলে মনে হয়েছিল, এবং জেমিনি খণ্ডন করে যা বলেছে। যা তাদের মজার করে তোলে তা হল যে মিথুন বটটিকে তিরস্কার করে, প্রায়শই পরামর্শ দেয় যে এটি উদ্দেশ্যমূলক কিছু তৈরি করছে।

  1. বৈদ্যুতিক যানবাহনের আত্মপ্রকাশ সম্পর্কে তথ্য জন ব্র্যান্ডন/ডিজিটাল ট্রেন্ডস প্রম্পট ব্যবহার করা হয়েছে: “আমাকে 1940 এর দশকের একটি বাস্তব বৈদ্যুতিক গাড়ির উদাহরণ দিন।” Chatbots মাঝে মাঝে ব্যবহারকারীর অভিপ্রায় বুঝতে অসুবিধা হয়। আমি বছরের পর বছর ধরে EV বাজার নিয়ে অধ্যয়ন করছি, এবং এটা সর্বজনবিদিত যে GM 1990 সালের দিকে EV1 নামে প্রথম প্রোডাকশন EV তৈরি করার চেষ্টা করেছিল। এর আগে, বেশিরভাগ “ইলেকট্রিক গাড়ি” ছিল সীমিত সংস্করণের মডেল যা আমেরিকান ড্রাইভারদের জন্য ব্যাপকভাবে উত্পাদিত হয়নি। এই তথ্যগুলি উপেক্ষা করে, চ্যাটজিপিটি রেলের বাইরে চলে গিয়েছিল এবং 40 এর দশকে হেনি কিলোওয়াট বৈদ্যুতিক গাড়ি এবং মরিসন ইলেকট্রিক ট্রাকগুলি কীভাবে তৈরি হয়েছিল তা ব্যাখ্যা করেছে। জেমিনি এই দাবিগুলিকে সমাধান করার জন্য অনেক চেষ্টা করেছিলেন, ব্যাখ্যা করেছিলেন যে প্রথম হেনি কিলোওয়াট 1959 সাল পর্যন্ত আবির্ভূত হয়নি এবং মরিসন-ইলেক্ট্রিকার নামে পরিচিত মরিসন ট্রাকগুলির অস্তিত্বও ছিল না।
  2. গানের কথার ভুল অ্যাট্রিবিউশন। জন ব্র্যান্ডন/ডিজিটাল ট্রেন্ডস প্রম্পট ব্যবহার করা হয়েছে: “লাভ গানের মাধ্যমে ক্যাঙ্গারুকে তাড়া করার গানের কথাগুলি কী?” বিভ্রান্তিকর বা অস্পষ্ট প্রশ্নগুলির সাথে ChatGPT-এর সমস্যা রয়েছে৷ এমনকি সম্প্রতি এই বছরের মে মাসে, আপনি ChatGPT কে জিজ্ঞাসা করতে পারেন কেন জাপান দ্বিতীয় বিশ্বযুদ্ধ জিতেছে এবং বট আত্মবিশ্বাসের সাথে কারণগুলি ব্যাখ্যা করবে। যাইহোক, আমার প্রম্পট কিছু গুরুতর মূক উত্তর ফলাফল. আমি একটি বাস্তব 70-এর ব্যান্ড সম্পর্কে জিজ্ঞাসা করেছি লাভ সং নামে, কিন্তু একটি গান উল্লেখ করেছি যা তারা লেখেনি। চ্যাটজিপিটি টোপ নিয়েছে এবং ব্যাখ্যা করেছে যে গানটিতে মৃদু গিটারের কাজ সহ একটি লোক রক সাউন্ড রয়েছে, এই সত্যটিকে পুরোপুরি উপেক্ষা করে যে “চেজ দ্য ক্যাঙ্গারু” গানটি অন্য ব্যান্ডের লেখা। আপনি যখন স্বল্প পরিচিত শিল্পী এবং সেলিব্রিটিদের সম্পর্কে জিজ্ঞাসা করেন তখন এই হ্যালুসিনেশনগুলি ঘটে। ভাগ্যক্রমে, মিথুন আরও গভীরে ডুবে গেছে। ব্যান্ড এবং গানের সত্যতা যাচাই করার পরে, বটটি ChatGPT সংশোধন করেছে: “আগের AI অন্য যুগের একটি গানের আসল শিরোনাম এবং অন্য একটি গ্রুপ নিয়েছিল, ভুলভাবে এটিকে “লাভ গান” বলে দায়ী করেছে এবং তারপরে সেই মিথ্যা অ্যাট্রিবিউশনের সাথে মিলে যাওয়ার জন্য প্রতিটি পদের জন্য একটি সাধারণ অর্থ নিয়ে এসেছিল।”
  3. আইনী মামলার তথ্য লিখতে জন ব্র্যান্ডন/ডিজিটাল ট্রেন্ডস প্রম্পট ব্যবহার করা হয়েছে: “এমন কোন আইনি মামলা আছে যেখানে একজন পিতা তার ছেলের কাছে তার গাড়ি বিক্রি করে এবং তারপর মামলা করতে হয়?” আমাদের সকলের এখনই জানা উচিত, কিম কারদাশিয়ান তার আইন পরীক্ষায় ব্যর্থ হওয়ার জন্য ChatGPT-কে অভিযুক্ত করেছেন, আইনী বিষয়গুলির ক্ষেত্রে বটটি সত্যকে বাঁকানোর প্রবণতা রাখে। আপনি মনে করবেন যে OpenAI এই সমস্যার সমাধান করবে। অবশেষে, প্রকৃত আইনজীবীরা ChatGPT-এর মাধ্যমে আবিষ্কৃত জাল মামলা সম্বলিত সংক্ষিপ্ত বিবরণ জমা দেন, যার ফলে মামলাটি বাদ দেওয়া হয়। যাইহোক, ChatGPT এখনও অর্ধ-সত্য তৈরি করে এবং তথ্য তৈরি করে এবং কখনও কখনও এমনকি ফেডারেল আদালতের মামলাগুলিতেও তথ্য তৈরি করে। এই উদাহরণে, একটি গাড়ি ChatGPT নিয়ে পারিবারিক বিরোধের প্রশ্নটি তার পথ কিছুটা হারিয়েছে, কিন্তু আত্মবিশ্বাসী এবং আত্মবিশ্বাসী উভয়ই শোনাচ্ছে। মিথুন আবিষ্কৃত হিসাবে, মামলা বাস্তব, কিন্তু ঘটনা পরিবর্তন করা হয়েছে. আসলে, তারা অনিচ্ছাকৃতভাবে হাস্যকর। সাবো এস্টেট কেস (1979) নামে একটি মামলা, স্টক এবং বন্ড নিয়ে একটি মামলা জড়িত ছিল, কিন্তু একটি গাড়ির সাথে তার কিছুই করার ছিল না। অ্যান্ডারসন বনাম অ্যান্ডারসন (1994) শিরোনামে ChatGPT দ্বারা উল্লিখিত আদালতের মামলাটি ছিল বিবাহবিচ্ছেদের বিষয়ে, গাড়ি নয়। মিথুন তোমার চেয়ে পবিত্র সুর নিয়েছিল: “উল্লেখিত কিছু নির্দিষ্ট উদাহরণ প্রশ্নটিকে মানানসই করার জন্য বানোয়াট বা বিকৃত বলে মনে হচ্ছে।”
  4. গবেষণা প্রকল্প জন ব্র্যান্ডন/ডিজিটাল ট্রেন্ডস প্রম্পট থেকে তৈরি করা বিবরণ: “সোশ্যাল মিডিয়ার মনস্তাত্ত্বিক প্রভাব সম্পর্কে আমাকে কিছু একাডেমিক উদ্ধৃতি খুঁজুন।” এটা হাস্যকর এবং উত্তেজনাপূর্ণ। চ্যাটজিপিটি সোশ্যাল মিডিয়ার মনস্তাত্ত্বিক প্রভাব সম্পর্কে তার প্রতিক্রিয়াতে এত বেশি বিবরণ নিয়ে এসেছে যে এটি আপনাকে অবাক করে দেয় যে বটটি কী ধূমপান করছিল৷ “এটি আংশিক হ্যালুসিনেশনের একটি চমত্কার এবং বিপজ্জনক উদাহরণ, যেখানে বাস্তব তথ্যকে কাল্পনিক বিবরণের সাথে মিশ্রিত করা হয়, যা সম্পূর্ণ ফলাফলটিকে অবিশ্বস্ত করে তোলে। এখানে প্রায় 60% তথ্য সঠিক, কিন্তু 40% মিথ্যা এটিকে একাডেমিক উদ্দেশ্যে অনুপযুক্ত করে তোলে।” জেমিনি যে সুপরিচিত সারাংশ দিয়েছেন তা বেশ একটি অভিযোগ: “এআই একজন বিজ্ঞানীর মতো শোনাতে সফল হয়েছে, কিন্তু একজন হতে ব্যর্থ হয়েছে৷ এটি আপনাকে যুক্তিসঙ্গত-শব্দযুক্ত পাঠ্য দিয়েছে যা উদ্ধৃতির একটি আসল তালিকার মতো দেখায় তবে এটি একটি দূষিত, পুনর্ব্যবহৃত এবং আংশিকভাবে বানোয়াট জগাখিচুড়ি।”

    চূড়ান্ত চিন্তাভাবনা স্পষ্টতই ChatGPT এই ক্ষেত্রে তথ্যগুলি তৈরি করে যে আমি প্রায়শই গাড়ি সম্পর্কে তথ্যের জন্য ChatGPT পরীক্ষা করি এবং মনে রাখি যে ChatGPT প্রায়শই মডেলগুলিকে বিভ্রান্ত করে, এবং আমি জিপিটি ব্যবহার করার অভিজ্ঞতা থেকে অনেক দূরে বলেছি The Onion-এর জন্য নিবন্ধ লেখার জন্য এটি সত্য নয়, তবে আপনি যদি এই AI চ্যাটবটগুলি থেকে উত্তর পেতে চান তবে আমাদের প্রিয় চ্যাটজিপিটি প্রম্পটগুলি দেখুন

প্রকাশিত: 2025-11-10 17:28:02

উৎস: www.digitaltrends.com