প্রতি সপ্তাহে এক মিলিয়নেরও বেশি মানুষ ChatGPT-এর সাথে আত্মহত্যার বিষয়ে কথা বলে

 | BanglaKagaj.in

প্রতি সপ্তাহে এক মিলিয়নেরও বেশি মানুষ ChatGPT-এর সাথে আত্মহত্যার বিষয়ে কথা বলে


AI Decoded-এ স্বাগতম, ফাস্ট কোম্পানির সাপ্তাহিক নিউজলেটার কৃত্রিম বুদ্ধিমত্তার বিশ্বের সবচেয়ে বড় গল্পগুলিকে ভেঙে দেয়। আমি মার্ক সুলিভান, ফাস্ট কোম্পানির একজন সিনিয়র লেখক, উদীয়মান প্রযুক্তি, কৃত্রিম বুদ্ধিমত্তা এবং প্রযুক্তি নীতি কভার করে। এই সপ্তাহে আমি একটি চমকপ্রদ পরিসংখ্যানের উপর ফোকাস করছি যা দেখায় যে OpenAI-এর ChatGPT সাপ্তাহিক এক মিলিয়নেরও বেশি ব্যবহারকারীর সাথে আত্মহত্যার চিন্তাভাবনা সম্পর্কে জড়িত। আমি এআই-তে “আত্মদর্শন” এবং টেক্সাসের একজন দার্শনিকের এআই এবং নীতিশাস্ত্রের উপর নতুন মানব গবেষণাও দেখব। এখানে ইমেলের মাধ্যমে প্রতি সপ্তাহে এই নিউজলেটার পেতে সাইন আপ করুন। আপনার যদি এই সমস্যা সম্পর্কে প্রতিক্রিয়া এবং/অথবা ভবিষ্যতের পর্যালোচনার জন্য ধারণা থাকে, তাহলে আমাকে sullivan@fastcompany.com-এ ইমেল করুন এবং আমাকে X (পূর্বে Twitter) @thesullivan-এ অনুসরণ করুন।

OpenAI এর দুর্বল অবস্থান

OpenAI বলে যে একটি নির্দিষ্ট সপ্তাহে সক্রিয় ব্যবহারকারীদের মধ্যে 0.15% কথোপকথন রয়েছে যার মধ্যে “সম্ভাব্য আত্মহত্যার পরিকল্পনা বা অভিপ্রায়ের স্পষ্ট ইঙ্গিত রয়েছে।” বিবেচনা করে যে ChatGPT-এর আনুমানিক 700 মিলিয়ন সাপ্তাহিক সক্রিয় ব্যবহারকারী রয়েছে, এর অর্থ প্রতি সপ্তাহে এক মিলিয়নেরও বেশি কথোপকথন হয়। এটি ওপেনএআইকে খুব দুর্বল অবস্থানে রাখে। ভাষা মডেলের আউটপুটের উপর ভিত্তি করে এই ব্যবহারকারীদের মধ্যে কতজন তাদের ক্রিয়াকলাপ বেছে নেবে তা জানা নেই। কিশোর অ্যাডাম রেনের ঘটনা আছে, যিনি ক্রমাগত চ্যাটজিপিটির সাথে চ্যাট করার পরে এপ্রিল মাসে আত্মহত্যা করে মারা গিয়েছিলেন। তার বাবা-মা ওপেনএআই এবং এর সিইও স্যাম অল্টম্যানের বিরুদ্ধে মামলা করছেন, চ্যাটবটের সাথে আলোচনার ফলে তাদের ছেলেকে আত্মহত্যা করার অভিযোগ এনেছেন।

যদিও ব্যবহারকারীরা মনে করেন যে তারা বিচার ছাড়াই একটি অ-মানব সত্তার সাথে কথা বলতে পারেন, সেখানে প্রমাণ রয়েছে যে চ্যাটবট সবসময় ভাল থেরাপিস্ট নয়। ব্রাউন ইউনিভার্সিটির গবেষকরা দেখেছেন যে এআই চ্যাটবটগুলি নিয়মিতভাবে মৌলিক মানসিক স্বাস্থ্য নৈতিকতার মান লঙ্ঘন করে, এই সরঞ্জামগুলির ব্যবহার বাড়ার সাথে সাথে আইনি মান এবং তদারকির প্রয়োজনীয়তার উপর জোর দেয়। এই সবগুলি মানসিক স্বাস্থ্য সম্পর্কিত OpenAI এর সাম্প্রতিক পদক্ষেপগুলি ব্যাখ্যা করতে সহায়তা করে। মানসিক স্বাস্থ্য সমস্যায় ভোগা ব্যবহারকারীদের বিষয়ে উদ্বেগের ভিত্তিতে কোম্পানি সর্বশেষ GPT-5 মডেলে বড় ধরনের পরিবর্তন করার সিদ্ধান্ত নিয়েছে। এটি মডেলটিকে কম চাটুকার হতে প্রশিক্ষিত করেছে, বা ব্যবহারকারীর ধারণাগুলিকে ক্রমাগত যাচাই করার সম্ভাবনা কম, এমনকি যখন তারা স্ব-ধ্বংসাত্মক হয়, উদাহরণস্বরূপ।

এই সপ্তাহে, কোম্পানি আরো পরিবর্তন প্রবর্তন. দুর্দশাগ্রস্ত ব্যবহারকারীদের চ্যাটবট প্রতিক্রিয়া এখন সংকট হটলাইনের লিঙ্ক অন্তর্ভুক্ত করতে পারে। চ্যাটবট সংবেদনশীল কথোপকথনগুলিকে আরও সুরক্ষিত আকারে পুনঃনির্দেশ করতে পারে। কিছু ব্যবহারকারী দীর্ঘ চ্যাট সেশনে বিরতি নেওয়ার জন্য মৃদু অনুস্মারক দেখতে পারেন। OpenAI বলে যে এটি 1,000টি আত্ম-ক্ষতি এবং আত্মহত্যার চ্যালেঞ্জ কথোপকথনে তার মডেলগুলির প্রতিক্রিয়া পরীক্ষা করেছে এবং দেখেছে যে নতুন GPT-5 মডেলটি আগের GPT-5 মডেলের 77% এর তুলনায় 91% সন্তোষজনক উত্তর দিয়েছে। কিন্তু এগুলি কেবলমাত্র পরীক্ষাগারে করা মূল্যায়ন, এবং তারা বাস্তব-বিশ্বের কথোপকথনগুলি কতটা ভালভাবে অনুকরণ করে তা যে কারো অনুমান। ওপেনএআই নিজেই যেমন বলেছে, একজন দুর্দশাগ্রস্ত ব্যবহারকারীর লক্ষণগুলি ধারাবাহিকভাবে এবং সঠিকভাবে ক্যাপচার করা কঠিন।

সমস্যাটি গবেষণার মাধ্যমে উদ্ভূত হতে শুরু করে যে দেখায় যে চ্যাটজিপিটি ব্যবহারকারীরা – বিশেষ করে অল্পবয়সীরা – আত্মসম্মানের সমস্যা, বন্ধুত্বের সম্পর্ক এবং এর মতো ব্যক্তিগত বিষয়গুলি নিয়ে চ্যাটবটের সাথে কথা বলতে অনেক সময় ব্যয় করে। যদিও ChatGPT-তে এই ধরনের কথোপকথন সবচেয়ে বেশি নয়, গবেষকরা বলছেন যে সেগুলি সবচেয়ে দীর্ঘ এবং সবচেয়ে বেশি শেয়ার করা হয়েছে।

নৃবিজ্ঞানী দেখান যে এআই মডেলরা তাদের নিজস্ব চিন্তাভাবনা করতে পারে।

এটি কিছু লোককে অবাক করে দিতে পারে যে AI ল্যাবগুলি গাণিতিক ভাষায় ব্যাখ্যা করতে পারে না, কত বড় AI মডেলগুলি তাদের দেওয়া উত্তরগুলিতে পৌঁছায়। এআই সুরক্ষার একটি সম্পূর্ণ সাবফিল্ড রয়েছে যাকে “মেশিন ব্যাখ্যাযোগ্যতা” বলা হয় যা এই মডেলগুলির ভিতরে কীভাবে যোগাযোগ করে এবং চিন্তা করে তা বোঝার চেষ্টা করার জন্য নিবেদিত। অ্যানথ্রোপিক এর মেকানিস্টিক ইন্টারপ্রিটেবিলিটি টিম সবেমাত্র নতুন গবেষণা প্রকাশ করেছে যা প্রমাণ করে যে বড় ভাষার মডেলগুলি আত্মদর্শন প্রদর্শন করতে পারে। এর অর্থ হল তারা তাদের নিজস্ব অভ্যন্তরীণ চিন্তা প্রক্রিয়াগুলিকে চিনতে পারে, তাদের কারণ জিজ্ঞাসা করার সময় যুক্তিসঙ্গত উত্তরগুলি তৈরি করার পরিবর্তে। এই অনুসন্ধান নিরাপত্তা গবেষণার জন্য গুরুত্বপূর্ণ হতে পারে। যদি মডেলগুলি তাদের অভ্যন্তরীণ প্রক্রিয়াগুলি সঠিকভাবে রিপোর্ট করতে পারে, অ্যানথ্রোপিক বলে, গবেষকরা তাদের যুক্তি প্রক্রিয়াগুলির মধ্যে মূল্যবান অন্তর্দৃষ্টি অর্জন করতে পারে এবং আচরণগত সমস্যাগুলিকে আরও কার্যকরভাবে চিহ্নিত করতে এবং সমাধান করতে পারে। এর মানে এটাও যে এআই মডেল তার “চিন্তাভাবনায়” ভুল বাঁক বিবেচনা করতে সক্ষম হতে পারে যা এটিকে অনিরাপদ দিকনির্দেশে পাঠায় (সম্ভবত নিজের ক্ষতি করার কথা চিন্তা করে ব্যবহারকারীকে আপত্তি করতে ব্যর্থ হওয়া)। গবেষকরা এর সবচেয়ে বড় এবং সবচেয়ে উন্নত মডেলগুলি – ক্লাউড ওপাস 4 এবং ক্লাউড ওপাস 4.1 –এ আত্মদর্শনের স্পষ্ট লক্ষণগুলি খুঁজে পেয়েছেন – এটি পরামর্শ দেয় যে প্রযুক্তির অগ্রগতির সাথে সাথে এআই মডেলগুলির অন্তর্মুখী ক্ষমতাগুলি আরও পরিশীলিত হয়ে উঠতে পারে৷

নৃতাত্ত্বিক দ্রুত নির্দেশ করে যে AI মডেলগুলি আমরা মানুষের মতো সুনির্দিষ্ট উপায়ে অন্তর্নিহিতভাবে চিন্তা করে না। সীমাবদ্ধতা থাকা সত্ত্বেও, যেকোনও অন্তর্মুখী আচরণ পর্যবেক্ষণ করা AI গবেষকদের মধ্যে প্রচলিত অনুমানের বিপরীতে চলে। আত্মবিশ্লেষণের মতো উচ্চ-স্তরের জ্ঞানীয় ক্ষমতার তদন্তে এই ধরনের অগ্রগতি ধীরে ধীরে এআই সিস্টেম এবং কীভাবে তারা কাজ করে তা রহস্যময় করতে পারে।

কৃত্রিম বুদ্ধিমত্তাকে কি নৈতিকতা ও মূল্যবোধ শেখানো যায়?

মানুষের লক্ষ্য এবং আকাঙ্ক্ষার সাথে AI সিস্টেমগুলিকে সারিবদ্ধ করার সমস্যার একটি অংশ হল যে মডেলগুলিকে সহজে নৈতিক কাঠামো শেখানো যায় না যা তাদের আউটপুটকে গাইড করতে সহায়তা করে। টেক্সাস এএন্ডএম ইউনিভার্সিটির দর্শনের অধ্যাপক মার্টিন পিটারসন বলেছেন, যদিও এআই মানুষের সিদ্ধান্ত গ্রহণের অনুকরণ করতে পারে, এটি একটি “নৈতিক এজেন্ট” হিসাবে কাজ করতে পারে না যা সঠিক এবং ভুলের মধ্যে পার্থক্য বোঝে, যাতে এটি তার কাজের জন্য দায়বদ্ধ হতে পারে। পিটারসন যোগ করেছেন যে এটি দেখা যায় যে কৃত্রিম বুদ্ধিমত্তা এমন সিদ্ধান্ত এবং সুপারিশ জারি করে যা মানুষ যা করবে তার অনুরূপ বলে মনে হয়, কিন্তু কৃত্রিম বুদ্ধিমত্তা যেভাবে তাদের নির্মাণের বিষয়ে চিন্তা করে তা মানবতার সাথে মিল নেই। মানুষ স্বাধীন ইচ্ছা এবং নৈতিক দায়িত্ববোধের সাথে রায় দেয়, কিন্তু এই জিনিসগুলি বর্তমানে AI মডেলগুলিতে প্রশিক্ষিত করা যায় না। আইনি দৃষ্টিকোণ থেকে (যা সমাজের নৈতিক অনুভূতির প্রতিফলন হতে পারে), যদি কোনো AI সিস্টেম ক্ষতির কারণ হয়, তাহলে দোষটা তার ডেভেলপার বা ব্যবহারকারীদের ওপর বর্তায়, প্রযুক্তির ওপর নয়।

পিটারসন দাবি করেন যে কৃত্রিম বুদ্ধিমত্তা ন্যায়বিচার, নিরাপত্তা এবং স্বচ্ছতার মতো মানবিক মূল্যবোধের সাথে সারিবদ্ধ হতে পারে। কিন্তু তিনি বলেছেন এটি একটি কঠিন বৈজ্ঞানিক সমস্যা, এবং সাফল্যের ঝুঁকি বেশি। “আমরা AI-কে আমরা যা চাই তা করতে পারি না

ফাস্ট কোম্পানি থেকে আরও AI কভারেজ: প্রযুক্তি, ব্যবসায়িক উদ্ভাবন এবং কাজের এবং ডিজাইনের ভবিষ্যত সম্পর্কে একচেটিয়া প্রতিবেদন এবং প্রবণতা বিশ্লেষণ চান? ফাস্ট কোম্পানি প্রিমিয়ামের জন্য সাইন আপ করুন।

ফাস্ট কোম্পানির ওয়ার্ল্ড চেঞ্জিং অ্যাওয়ার্ডস আইডিয়ার জন্য প্রারম্ভিক পাখির মূল্য নির্ধারণের সময়সীমা শুক্রবার, নভেম্বর 14, রাত 11:59 PST এ আজই আবেদন করুন

(অনুবাদের জন্য ট্যাগ)অ্যানথ্রপি


প্রকাশিত: 2025-10-30 22:00:00

উৎস: www.fastcompany.com