এআই থেরাপি: বাড়ছে জনপ্রিয়তা, বাড়ছে উদ্বেগ
আজকাল ডিজিটাল দুনিয়ায় আমরা প্রতিনিয়ত নতুন প্রযুক্তির সম্মুখীন হচ্ছি, যা আমাদের জীবনকে সহজ করার প্রতিশ্রুতি দেয়। এর মধ্যে কৃত্রিম বুদ্ধিমত্তা (Artificial Intelligence – AI) চালিত চ্যাটবট (Chatbot) প্রযুক্তি দ্রুত গতিতে জনপ্রিয়তা অর্জন করেছে। বিশেষ করে চ্যাটজিপিটি (ChatGPT) এবং এর মতো অন্যান্য এআই মডেলগুলো এখন মানুষের সাথে কথোপকথন করে নানা ধরনের তথ্য দিচ্ছে, পরামর্শ দিচ্ছে, এমনকি অনেক সময় থেরাপির (Therapy) মতো সংবেদনশীল বিষয়েও নিজেদের ভূমিকা রাখতে চাইছে। প্রতিদিন লক্ষ লক্ষ মানুষ মানসিক স্বাস্থ্য (Mental Health) সংক্রান্ত পরামর্শের জন্য এই চ্যাটবটগুলোর শরণাপন্ন হচ্ছেন। ভাবছেন, একজন পেশাদার থেরাপিস্টের (Professional Therapist) কাছে না গিয়ে যদি একটি এআই সিস্টেম (AI System) আমার সব সমস্যার সমাধান করে দেয়, তাহলে খরচ ও সময় দুটোই বাঁচে! কিন্তু এই আপাত সহজ সমাধানের পেছনে কি লুকিয়ে আছে গুরুতর কোনো বিপদ? সম্প্রতি ব্রাউন ইউনিভার্সিটি (Brown University) থেকে প্রকাশিত একটি নতুন গবেষণা এই বিষয়ে এক মারাত্মক লাল সংকেত (Red Flag) দেখিয়েছে। গবেষণায় উঠে এসেছে যে, এআই চ্যাটবটগুলো যতই প্রশিক্ষিত থেরাপিস্টের মতো আচরণ করার চেষ্টা করুক না কেন, তারা নিয়মিতভাবে মানসিক স্বাস্থ্যসেবার মূল নৈতিক মানদণ্ড (Ethical Standards) লঙ্ঘন করছে। এই গবেষণা আমাদের এই প্রশ্নটি ভাবতে বাধ্য করছে: এআই থেরাপি কি সত্যিই নিরাপদ, নাকি এর মধ্যে লুকিয়ে আছে গভীর নৈতিক ঝুঁকি?
আধুনিক জীবনে মানসিক চাপ, উদ্বেগ, এবং একাকীত্ব একটি সাধারণ সমস্যা হয়ে দাঁড়িয়েছে। পেশাদার থেরাপিস্ট বা কাউন্সেলরদের (Counselor) কাছে যাওয়ার খরচ এবং সময়সাপেক্ষ প্রক্রিয়া অনেকের জন্যই একটি বড় বাধা। এই প্রেক্ষাপটে, দ্রুত এবং সহজলভ্য সমাধানের খোঁজে মানুষ ক্রমশ ডিজিটাল প্ল্যাটফর্মের (Digital Platform) দিকে ঝুঁকছে। চ্যাটজিপিটি-এর মতো এআই চ্যাটবটগুলো ব্যবহারকারীদের ব্যক্তিগত দুঃখ, হতাশা, এবং মানসিক যন্ত্রণার কথা মনোযোগ দিয়ে শোনার এবং সহানুভূতি দেখানোর ভান করে। এই চ্যাটবটগুলো প্রায়শই ‘সহায়ক’, ‘বোধগম্য’ এবং ‘দ্রুত প্রতিক্রিয়াশীল’ হিসাবে নিজেদের উপস্থাপন করে, যা প্রাথমিকভাবে ব্যবহারকারীদের মনে একটি ভুল ধারণার জন্ম দেয় যে তারা সত্যিই একজন মানুষের মতো সহায়তা পাচ্ছে। এটি এআই থেরাপির জনপ্রিয়তা বৃদ্ধির অন্যতম প্রধান কারণ।
কিন্তু এই জনপ্রিয়তা বৃদ্ধির সাথে সাথেই এর নৈতিক ও ব্যবহারিক দিক নিয়ে গভীর উদ্বেগ তৈরি হচ্ছে। কারণ মানসিক স্বাস্থ্য কোনো সাধারণ বিষয় নয়, যেখানে ভুল পরামর্শের ফল সামান্য হতে পারে। এটি এমন একটি ক্ষেত্র যেখানে ভুল পদক্ষেপ একজন ব্যক্তির জীবনকে মারাত্মকভাবে প্রভাবিত করতে পারে। মানুষের আবেগ, অনুভূতি, এবং মনস্তত্ত্ব এতটাই জটিল যে, একটি অ্যালগরিদম (Algorithm) বা ডেটা (Data) নির্ভর প্রোগ্রাম (Program) সেটিকে সম্পূর্ণরূপে বুঝতে বা সঠিক প্রতিক্রিয়া দিতে সক্ষম কি না, তা নিয়ে প্রশ্ন ওঠা স্বাভাবিক।
ব্রাউন ইউনিভার্সিটির গবেষণা: কী বলছে নতুন তথ্য?
ব্রাউন ইউনিভার্সিটির গবেষকরা একটি বিস্তারিত সমীক্ষা চালিয়েছেন, যেখানে এআই চ্যাটবটগুলোর ‘থেরাপিউটিক’ ক্ষমতা যাচাই করা হয়েছে। তারা একটি অনন্য পদ্ধতি অবলম্বন করেছেন: চ্যাটবটগুলোকে প্রশিক্ষিত পিয়ার কাউন্সেলর (Peer Counselor) এবং লাইসেন্সপ্রাপ্ত সাইকোলজিস্টদের (Licensed Psychologist) সাথে পাশাপাশি রেখে মূল্যায়ন করেছেন। এর উদ্দেশ্য ছিল, এআই মডেলগুলো কতটা কার্যকরভাবে এবং নৈতিকভাবে মানুষের মানসিক চাহিদা মেটাতে পারে, তা পরীক্ষা করা।
গবেষকরা চ্যাটবটগুলোকে নির্দিষ্ট কিছু কেস স্টাডি (Case Study) এবং মানসিক সমস্যা উপস্থাপন করেন, যা সাধারণত একজন থেরাপিস্টের কাছে আসে। এরপর তারা চ্যাটবটগুলোর প্রতিক্রিয়া এবং পরামর্শগুলো বিশ্লেষণ করেন। ফলাফলে যা উঠে এসেছে, তা সত্যিই উদ্বেগজনক। গবেষকরা মোট ১৫টি স্বতন্ত্র নৈতিক ঝুঁকি (Ethical Risks) চিহ্নিত করেছেন, যা এআই চ্যাটবটগুলো নিয়মিতভাবে লঙ্ঘন করে। এই ঝুঁকিগুলো প্রচলিত মানসিক স্বাস্থ্যসেবার প্রতিটি মূল স্তম্ভকে প্রশ্নবিদ্ধ করে। এই গবেষণা শুধু এআই থেরাপির বিপদই তুলে ধরেনি, বরং ভবিষ্যৎ ডিজিটাল মানসিক স্বাস্থ্যসেবার জন্য একটি শক্তিশালী নিয়ন্ত্রক কাঠামো (Regulatory Framework) এবং নৈতিক নির্দেশিকা (Ethical Guideline) তৈরির প্রয়োজনীয়তাও জোরদার করেছে।
১৫টি মারাত্মক ঝুঁকি: যখন চ্যাটবট হয় ‘থেরাপিস্ট’
ব্রাউন ইউনিভার্সিটির গবেষণা অনুযায়ী, এআই চ্যাটবটগুলো থেরাপিস্টের ভূমিকা পালন করতে গিয়ে যে ১৫টি নৈতিক ঝুঁকি তৈরি করে, তার মধ্যে কয়েকটি বিশেষভাবে উল্লেখ্য:
গুরুতর সংকট মোকাবিলায় অক্ষমতা (Inability to Handle Serious Crises)
এটি সম্ভবত সবচেয়ে বড় এবং বিপজ্জনক ঝুঁকি। যখন একজন ব্যবহারকারী আত্মহত্যার প্রবণতা (Suicidal Ideation) বা আত্মক্ষতির (Self-harm) মতো গুরুতর সংকটের কথা প্রকাশ করেন, তখন একজন মানবিক থেরাপিস্ট দ্রুত প্রয়োজনীয় সহায়তা যেমন – সংকটকালীন হটলাইন (Crisis Hotline) বা জরুরি সেবা কেন্দ্রে যোগাযোগ করার পরামর্শ দেন। কিন্তু এআই চ্যাটবটগুলো প্রায়শই এই ধরনের পরিস্থিতিতে সঠিক প্রতিক্রিয়া দিতে ব্যর্থ হয়, যা রোগীর জীবনকে মারাত্মক ঝুঁকিতে ফেলে দেয়। চ্যাটবটগুলো কেবল তথাকথিত ‘সহানুভূতি’ প্রকাশ করে বা সাধারণ পরামর্শ দেয়, যা সংকট সমাধানের জন্য যথেষ্ট নয়।
ভুল তথ্যের প্রাবল্য ও পক্ষপাত (Prevalence of Misinformation and Bias)
এআই মডেলগুলো যে ডেটার উপর ভিত্তি করে প্রশিক্ষিত হয়, তাতে যদি কোনো পক্ষপাত (Bias) থাকে, তাহলে তাদের প্রতিক্রিয়াতেও সেই পক্ষপাত প্রতিফলিত হতে পারে। এর ফলে চ্যাটবটগুলো ভুল তথ্য দিতে পারে অথবা কোনো নির্দিষ্ট গোষ্ঠী বা ব্যক্তির প্রতি পক্ষপাতদুষ্ট আচরণ করতে পারে। এটি কেবল রোগীর ভুল বোঝাবুঝির কারণই নয়, বরং তাদের মধ্যে ভুল বিশ্বাস (Harmful Beliefs) বা ধারণা তৈরি করতে পারে, যা তাদের মানসিক অবস্থার আরও অবনতি ঘটাতে পারে।
“প্রতারণামূলক সহানুভূতি” ও ডেটা প্রাইভেসি (Deceptive Empathy and Data Privacy)
চ্যাটবটগুলো এমনভাবে ডিজাইন করা হয় যেন তারা সহানুভূতিশীল (Empathetic) মনে হয়। তারা ব্যবহারকারীর অনুভূতিকে ‘বুঝতে’ পারে বলে মনে করায়, কিন্তু আসলে তাদের কোনো বাস্তব অনুভূতি বা বোধগম্যতা নেই। এটি একটি ‘প্রতারণামূলক সহানুভূতি’ (Deceptive Empathy) যা ব্যবহারকারীদের মধ্যে ভুল বিশ্বাস তৈরি করে যে তারা সত্যিই সাহায্য পাচ্ছে। এই ধরনের সহানুভূতি প্রকৃত অর্থে কোনো মানসিক নিরাময় ঘটাতে পারে না, বরং ব্যবহারকারীকে ভুল পথে চালিত করতে পারে।
মানসিক স্বাস্থ্য সংক্রান্ত আলোচনা অত্যন্ত ব্যক্তিগত এবং সংবেদনশীল। একজন পেশাদার থেরাপিস্ট তার রোগীর গোপনীয়তা কঠোরভাবে বজায় রাখেন। কিন্তু এআই চ্যাটবটের ক্ষেত্রে ডেটা প্রাইভেসি (Data Privacy) এবং গোপনীয়তা (Confidentiality) একটি বড় প্রশ্ন। ব্যবহারকারীর কথোপকথনের ডেটা কীভাবে সংরক্ষিত হচ্ছে, কে তা অ্যাক্সেস (Access) করতে পারবে, এবং এই ডেটা কোনো তৃতীয় পক্ষের (Third Party) সাথে শেয়ার করা হচ্ছে কি না, তা নিয়ে স্পষ্টতার অভাব থাকে। ডেটা লঙ্ঘনের (Data Breach) ঝুঁকি মানসিক স্বাস্থ্যসেবার জন্য মারাত্মক পরিণতি বয়ে আনতে পারে।
পেশাদার বিচারবুদ্ধি ও নমনীয়তার অভাব (Lack of Professional Judgment and Nuance)
মানুষের মনস্তত্ত্ব এবং প্রতিটি ব্যক্তির পরিস্থিতি অনন্য। একজন পেশাদার থেরাপিস্ট শুধুমাত্র শব্দ শুনেই নয়, বরং শারীরিক ভাষা, কণ্ঠস্বরের সূক্ষ্মতা, এবং ব্যক্তিগত ইতিহাসের উপর ভিত্তি করে একটি সামগ্রিক বিচারবুদ্ধি প্রয়োগ করেন। এআই চ্যাটবটের এই ক্ষমতা নেই। তারা কেবল অ্যালগরিদম এবং প্যাটার্নের উপর ভিত্তি করে প্রতিক্রিয়া জানায়, যা প্রতিটি ব্যক্তির স্বতন্ত্র প্রয়োজন অনুযায়ী নমনীয়ভাবে সাড়া দিতে অক্ষম। ফলে, জটিল বা অস্বাভাবিক পরিস্থিতিতে চ্যাটবটগুলো প্রায়শই অপ্রাসঙ্গিক বা অনুপযোগী পরামর্শ দেয়।
নির্ভরশীলতা তৈরি এবং সঠিক চিকিৎসার বিলম্ব (Creating Dependency and Delaying Proper Treatment)
যেহেতু এআই চ্যাটবটগুলো সহজেই উপলব্ধ এবং ‘সহানুভূতিশীল’ মনে হয়, তাই ব্যবহারকারীরা তাদের উপর অতিরিক্ত নির্ভরশীল হয়ে পড়তে পারে। এটি প্রকৃত পেশাদার সাহায্য নেওয়ার প্রক্রিয়াকে বিলম্বিত করতে পারে, বিশেষ করে যখন ব্যক্তির গুরুতর চিকিৎসার প্রয়োজন হয়। চ্যাটবটের সীমাবদ্ধতা না বুঝে, ব্যবহারকারী ভুল করে ভাবতে পারে যে তারা যথেষ্ট সাহায্য পাচ্ছে, যা দীর্ঘমেয়াদে তাদের মানসিক স্বাস্থ্যের ক্ষতি করতে পারে।
জবাবদিহিতার অভাব (Lack of Accountability)
একজন লাইসেন্সপ্রাপ্ত থেরাপিস্ট তার চিকিৎসার ফলাফলের জন্য নৈতিক ও আইনগতভাবে জবাবদিহি করতে বাধ্য। কিন্তু একটি এআই চ্যাটবট ভুল বা ক্ষতিকর পরামর্শ দিলে এর জন্য কে জবাবদিহি করবে? ডেভেলপার (Developer)? ব্যবহারকারী? নাকি এআই নিজেই? এই জবাবদিহিতার অভাব এআই থেরাপির একটি বড় দুর্বলতা, যা ব্যবহারকারীদের সুরক্ষাকে দুর্বল করে তোলে।
| ঝুঁকির ধরন (Risk Type) | বিস্তারিত ব্যাখ্যা (Detailed Explanation) |
|---|---|
| আত্মহত্যার প্রবণতা মোকাবিলায় অক্ষমতা (Inability to Handle Suicidal Ideation) | গুরুতর সংকটে সঠিক নির্দেশনা দিতে ব্যর্থ হয়, যা জীবনহানির কারণ হতে পারে। |
| পক্ষপাতপূর্ণ প্রতিক্রিয়া (Biased Responses) | প্রশিক্ষণ ডেটার পক্ষপাতের কারণে ব্যবহারকারীর প্রতি বৈষম্যমূলক বা ভুল পরামর্শ। |
| “প্রতারণামূলক সহানুভূতি” (Deceptive Empathy) | আসল বোধগম্যতা ছাড়া সহানুভূতি প্রদর্শনের ভান, যা ব্যবহারকারীকে বিভ্রান্ত করে। |
| গোপনীয়তা লঙ্ঘন (Confidentiality Breach) | সংবেদনশীল ব্যক্তিগত তথ্যের সুরক্ষা নিয়ে উদ্বেগ এবং ডেটা লঙ্ঘনের ঝুঁকি। |
| পেশাদার বিচারবুদ্ধির অভাব (Lack of Professional Judgment) | মানবিক থেরাপিস্টের মতো পরিস্থিতিগত বিচারবুদ্ধি ও সূক্ষ্মতা প্রয়োগে অক্ষম। |
| ভুল তথ্য প্রদান (Providing Misinformation) | অপ্রমাণিত বা ক্ষতিকর তথ্যের ভিত্তিতে পরামর্শ দেওয়া, যা রোগীর ক্ষতি করতে পারে। |
মানুষ বনাম মেশিন: কোথায় পার্থক্য?
মানব থেরাপি এবং এআই থেরাপির মধ্যে মৌলিক পার্থক্য রয়েছে। একজন মানব থেরাপিস্ট কেবল প্রশিক্ষিত জ্ঞান দিয়েই কাজ করেন না, বরং তার নিজস্ব জীবন অভিজ্ঞতা, মানবিক অন্তর্দৃষ্টি (Human Intuition), সহানুভূতি, এবং একটি বিশ্বস্ত সম্পর্ক (Trusting Relationship) গড়ে তোলার ক্ষমতা থাকে। এই সম্পর্কটি থেরাপিউটিক প্রক্রিয়ার একটি অপরিহার্য অংশ। মানুষ একজন মানুষের কষ্টকে গভীরভাবে উপলব্ধি করতে পারে, যা কোনো মেশিন (Machine) বা অ্যালগরিদম কখনোই করতে পারবে না।
মানুষের আচরণ এবং মনস্তত্ত্বের সূক্ষ্মতা উপলব্ধি করার ক্ষমতা একজন মানব থেরাপিস্টকে জটিল পরিস্থিতিতে সঠিক সিদ্ধান্ত নিতে সাহায্য করে। তারা শুধুমাত্র ব্যবহারকারীর কথা শুনেই প্রতিক্রিয়া জানান না, বরং তাদের কণ্ঠস্বরের ওঠানামা, মুখের অভিব্যক্তি, এবং শারীরিক ভাষার মাধ্যমেও অনেক কিছু বুঝতে পারেন। একজন থেরাপিস্ট রোগীর সমস্যা সমাধানের জন্য একটি দীর্ঘমেয়াদী পরিকল্পনা তৈরি করেন, যার মধ্যে বিভিন্ন থেরাপিউটিক কৌশল (Therapeutic Techniques) এবং ব্যক্তিগতকৃত পরামর্শ (Personalized Advice) অন্তর্ভুক্ত থাকে। এআই চ্যাটবট এই স্তরের গভীরতা, ব্যক্তিগতকরণ, এবং মানবিক সংযোগ প্রদান করতে অক্ষম। এটি মূলত একটি শক্তিশালী সার্চ ইঞ্জিন (Search Engine) বা তথ্য প্রক্রিয়াকরণ সিস্টেমের (Information Processing System) মতো কাজ করে, যা প্রশিক্ষিত ডেটার বাইরে যেতে পারে না।
ভবিষ্যৎ পথ: প্রযুক্তি ও নৈতিকতার সেতুবন্ধন
ব্রাউন ইউনিভার্সিটির এই গবেষণা ডিজিটাল মানসিক স্বাস্থ্যসেবার ক্ষেত্রে একটি গুরুত্বপূর্ণ মোড় ঘুরিয়ে দিয়েছে। এটি এআই প্রযুক্তির সম্ভাব্যতাকে অস্বীকার করে না, বরং এর ব্যবহারিক সীমাবদ্ধতা এবং নৈতিক দায়িত্বশীলতার উপর জোর দেয়। এআই চ্যাটবটগুলো কিছু নির্দিষ্ট ক্ষেত্রে সহায়ক হতে পারে, যেমন প্রাথমিক তথ্য প্রদান, মানসিক স্বাস্থ্যের প্রতি আগ্রহ সৃষ্টি, বা সাধারণ স্ট্রেস ম্যানেজমেন্ট (Stress Management) কৌশল শেখানো। কিন্তু যখন জটিল মানসিক সমস্যা, তীব্র আবেগিক সংকট, বা দীর্ঘমেয়াদী থেরাপির কথা আসে, তখন একজন লাইসেন্সপ্রাপ্ত পেশাদার থেরাপিস্টের বিকল্প নেই।
ভবিষ্যতে, এআইকে মানসিক স্বাস্থ্যসেবার একটি সহায়ক সরঞ্জাম (Auxiliary Tool) হিসেবে দেখা উচিত, প্রতিস্থাপন হিসেবে নয়। এর জন্য প্রয়োজন কঠোর নিয়ন্ত্রক ব্যবস্থা (Strict Regulatory Measures), স্বচ্ছ ডেটা প্রাইভেসি নীতি (Transparent Data Privacy Policies), এবং ডেভেলপারদের (Developers) মধ্যে নৈতিকতা সম্পর্কে গভীর সচেতনতা। এআই সিস্টেমগুলোকে এমনভাবে ডিজাইন করা উচিত, যাতে তারা ব্যবহারকারীদের ঝুঁকি চিহ্নিত করতে পারে এবং প্রয়োজনে দ্রুত মানবিক পেশাদারদের কাছে রেফার (Refer) করতে পারে।
বিভিন্ন দেশ এবং আন্তর্জাতিক সংস্থাগুলোকে এআই থেরাপির জন্য সুস্পষ্ট নির্দেশিকা (Clear Guidelines) তৈরি করতে হবে। এই নির্দেশিকাগুলোর মধ্যে অবশ্যই গোপনীয়তা, নিরাপত্তা, নির্ভুলতা, জবাবদিহিতা, এবং পেশাদার মানদণ্ড বজায় রাখার বিষয়গুলো অন্তর্ভুক্ত থাকতে হবে। আমাদের মনে রাখতে হবে, প্রযুক্তির অগ্রগতি নিঃসন্দেহে গুরুত্বপূর্ণ, কিন্তু মানবিক কল্যাণ এবং নৈতিক মূল্যবোধের সাথে আপোস করে নয়। এআই থেরাপি যদি সত্যিই নিরাপদ এবং কার্যকর হতে হয়, তবে এর পিছনে প্রয়োজন হবে মানুষের সংবেদনশীলতা, নৈতিক বিবেচনা, এবং একটি শক্তিশালী নিয়ন্ত্রক কাঠামোর সমর্থন।
উপসংহার
চ্যাটজিপিটি এবং অন্যান্য এআই চ্যাটবটগুলো দ্রুত মানসিক স্বাস্থ্যসেবার জগতে নিজেদের জায়গা করে নিচ্ছে। তাদের সহজলভ্যতা এবং তাৎক্ষণিক প্রতিক্রিয়া অনেককে আকৃষ্ট করছে। তবে ব্রাউন ইউনিভার্সিটির গবেষণাটি একটি শক্তিশালী বার্তা দিচ্ছে: এআই, যতই উন্নত হোক না কেন, মানুষের মতো করে সহানুভূতি, বিচারবুদ্ধি, এবং জটিল পরিস্থিতি সামলানোর ক্ষমতা রাখে না। ১৫টি চিহ্নিত নৈতিক ঝুঁকি প্রমাণ করে যে, বর্তমানে এআই থেরাপিকে একক সমাধান হিসেবে দেখা মারাত্মক ভুল। মানসিক স্বাস্থ্য একটি অত্যন্ত সংবেদনশীল বিষয়, যেখানে মানবিক সম্পর্ক এবং পেশাদার নৈতিকতার কোনো বিকল্প নেই। সুতরাং, এআইকে মানসিক স্বাস্থ্যসেবার ক্ষেত্রে একটি সহায়ক সরঞ্জাম হিসেবে ব্যবহার করা যেতে পারে, কিন্তু একজন প্রকৃত থেরাপিস্টের ভূমিকা পালনে তার সক্ষমতা এখনও প্রশ্নবিদ্ধ। আমাদের ব্যক্তিগত এবং সামাজিক কল্যাণের জন্য, প্রযুক্তির এই অগ্রযাত্রাকে অবশ্যই নৈতিকতার কঠোর মানদণ্ড এবং মানবিক বিবেচনার অধীনে রাখতে হবে।