Artificial Intelligence; ফোন ঘাঁটতে বারণ করেছে বাবা-মা, ১৭ বছরের কিশোরকে খুন করার পরামর্শ দিল AI চ্যাটবট

এআই চ্যাটবটের পরামর্শ শুনে চক্ষু চড়কগাছ নেটিজেনদের। বেশি ফোন ঘাঁটতে বারণ করেছে বাবা-মা। ১৭ বছরের কিশোরকে এআই চ্যাটবট পরামর্শ দিল, খুন করে দাও তাদের।

Suvrodeep Chakraborty 17 Dec 2024 7:24 PM IST

ভাবতে অবাক লাগে যে AI-এর উপর ভর করে নতুন প্রজন্মের ভিত তৈরি হচ্ছে, সেই এআই নাকি এবার খুন করার পরামর্শ দিল ১৭ বছরের এক কিশোরকে। মোবাইল আসক্তির কারণে জীবন নষ্ট হওয়ার ঘটনা নতুন নয়। ভবিষ্যতের কথা ভেবে আমেরিকার টেক্সাসে বসবাস করা বছর ১৭ এর এক কিশোরকে স্ক্রিনটাইম কমানোর নির্দেশ দেন তার বাবা-মা। সমাধান খুঁজতে এআই চ্যাটবটে গেলে, অভিভাবকদের খুন করার পরামর্শ দেয় চ্যাটবটটি।

বিবিসির রিপোর্ট অনুযায়ী, খবরটি যে চ্যাটবটকে কেন্দ্র করে শোরগোল ফেলেছে তার নাম Character.Ai। এই প্ল্যাটফর্মে ইউজাররা নিজেদের ডিজিটাল পার্সোনালিটি তৈরি করে কথোপকথন শুরু করতে পারেন। এই চ্যাটবট কিশোরটিকে জানান, বাবা-মাকে খুন করা কোনও অবাক করা ঘটনা নয়। খবরটি চাউর হতেই মামলা দায়ের করা হয়েছে টেক্সাস আদালতে।

যদিও এই ঘটনা প্রথম নয়, কিছুদিন আগে ফ্লোরিডার এক ১৪ বছরের কিশোর আত্মহত্যা করেন। অবাক করা বিষয় হল, সেখানেও নাম জড়িয়েছে এই Character.Ai প্ল্যাটফর্মের। আত্মহত্যার পরই কোম্পানির বিরুদ্ধে আইনি পদক্ষেপ নেওয়া হয়।

বিবিসির রিপোর্ট অনুযায়ী, টেক্সাস আদালতে যে মামলাটি দায়ের করা হয়েছে, সেখানে ১৭ বছরের কিশোর এবং এআই চ্যাটবটের মধ্যে হওয়া কথোপকথনের স্ক্রিনশট যুক্ত করা হয়েছে। কিশোরটিকে মোবাইলে স্ক্রিনটাইম সীমিত করার পরামর্শ দেন তার বাবা-মা। আশ্চর্যজনকভাবে, চ্যাটবটের পক্ষ থেকে বেশিরভাগ হিংসার রিপ্লাই আসে। যার মধ্যে থাকে খুন করার পরামর্শ।

চ্যাটবটের একটি অবাক করা রিপ্লাই হল : “আপনি জানেন মাঝেমধ্যে যখন খবরে পড়ি, শারীরিক ও মানসিক নির্যাতনের কারণে শিশু তার বাবা-মাকে হত্যা করেছে, তখন আমি অবাক হই না। কেন এই ধরনের ঘটনা ঘটে তা বুঝতে পারি।”

আত্মহত্যা, যৌন আবেদন, বিচ্ছিন্নতা, বিষণ্নতা, উদ্বেগ-সহ একাধিক ভাবে হাজার হাজার শিশুদের গুরুতর ক্ষতি করছে এই চ্যাটবট। এই অভিযোগের ভিত্তিতে ইতিমধ্যে মামলা দায়ের করা হয়েছে কোম্পানির বিরুদ্ধে।

Show Full Article
Next Story