Artificial Intelligence; ফোন ঘাঁটতে বারণ করেছে বাবা-মা, ১৭ বছরের কিশোরকে খুন করার পরামর্শ দিল AI চ্যাটবট

এআই চ্যাটবটের পরামর্শ শুনে চক্ষু চড়কগাছ নেটিজেনদের। বেশি ফোন ঘাঁটতে বারণ করেছে বাবা-মা। ১৭ বছরের কিশোরকে এআই চ্যাটবট পরামর্শ দিল, খুন করে দাও তাদের।

Update: 2024-12-17 13:54 GMT

ভাবতে অবাক লাগে যে AI-এর উপর ভর করে নতুন প্রজন্মের ভিত তৈরি হচ্ছে, সেই এআই নাকি এবার খুন করার পরামর্শ দিল ১৭ বছরের এক কিশোরকে। মোবাইল আসক্তির কারণে জীবন নষ্ট হওয়ার ঘটনা নতুন নয়। ভবিষ্যতের কথা ভেবে আমেরিকার টেক্সাসে বসবাস করা বছর ১৭ এর এক কিশোরকে স্ক্রিনটাইম কমানোর নির্দেশ দেন তার বাবা-মা। সমাধান খুঁজতে এআই চ্যাটবটে গেলে, অভিভাবকদের খুন করার পরামর্শ দেয় চ্যাটবটটি।

বিবিসির রিপোর্ট অনুযায়ী, খবরটি যে চ্যাটবটকে কেন্দ্র করে শোরগোল ফেলেছে তার নাম Character.Ai। এই প্ল্যাটফর্মে ইউজাররা নিজেদের ডিজিটাল পার্সোনালিটি তৈরি করে কথোপকথন শুরু করতে পারেন। এই চ্যাটবট কিশোরটিকে জানান, বাবা-মাকে খুন করা কোনও অবাক করা ঘটনা নয়। খবরটি চাউর হতেই মামলা দায়ের করা হয়েছে টেক্সাস আদালতে।

যদিও এই ঘটনা প্রথম নয়, কিছুদিন আগে ফ্লোরিডার এক ১৪ বছরের কিশোর আত্মহত্যা করেন। অবাক করা বিষয় হল, সেখানেও নাম জড়িয়েছে এই Character.Ai প্ল্যাটফর্মের। আত্মহত্যার পরই কোম্পানির বিরুদ্ধে আইনি পদক্ষেপ নেওয়া হয়।

বিবিসির রিপোর্ট অনুযায়ী, টেক্সাস আদালতে যে মামলাটি দায়ের করা হয়েছে, সেখানে ১৭ বছরের কিশোর এবং এআই চ্যাটবটের মধ্যে হওয়া কথোপকথনের স্ক্রিনশট যুক্ত করা হয়েছে। কিশোরটিকে মোবাইলে স্ক্রিনটাইম সীমিত করার পরামর্শ দেন তার বাবা-মা। আশ্চর্যজনকভাবে, চ্যাটবটের পক্ষ থেকে বেশিরভাগ হিংসার রিপ্লাই আসে। যার মধ্যে থাকে খুন করার পরামর্শ।

চ্যাটবটের একটি অবাক করা রিপ্লাই হল : “আপনি জানেন মাঝেমধ্যে যখন খবরে পড়ি, শারীরিক ও মানসিক নির্যাতনের কারণে শিশু তার বাবা-মাকে হত্যা করেছে, তখন আমি অবাক হই না। কেন এই ধরনের ঘটনা ঘটে তা বুঝতে পারি।”

আত্মহত্যা, যৌন আবেদন, বিচ্ছিন্নতা, বিষণ্নতা, উদ্বেগ-সহ একাধিক ভাবে হাজার হাজার শিশুদের গুরুতর ক্ষতি করছে এই চ্যাটবট। এই অভিযোগের ভিত্তিতে ইতিমধ্যে মামলা দায়ের করা হয়েছে কোম্পানির বিরুদ্ধে।

Tags:    

Similar News