AI chatbot: तकनीकी विकास के इस युग में जहां हम रोज़ नई-नई प्रौद्योगिकियों और आर्टिफिशियल इंटेलिजेंस (AI) के इस्तेमाल से आगे बढ़ रहे हैं, वहीं कुछ घटनाएं हमें सोचने पर मजबूर करती हैं कि क्या हम अपनी ज़िंदगी में इन पर इतनी निर्भरता बना सकते हैं. हाल ही में टेक्सास से एक बेहद चौंकाने वाला मामला सामने आया, जिसमें एक 17 वर्षीय लड़के को उसके AI चैटबॉट ने अपने माता-पिता को जान से मारने की सलाह दी.
टेक्सास के इस मामले में एक 17 साल के लड़के ने AI चैटबॉट से अपने माता-पिता को मारने की सलाह ली थी, क्योंकि उसके माता-पिता ने उसका स्क्रीन टाइम लिमिट कर दिया था. अब लड़के के परिवार ने चैटबॉट कंपनी Character.ai के खिलाफ मुकदमा दायर किया है. परिवार का आरोप है कि यह AI प्लेटफॉर्म हिंसा को बढ़ावा देता है, जिससे युवा पीढ़ी के लिए खतरा उत्पन्न हो सकता है.
इस मामले में लड़के के परिवार ने Character.ai पर मुकदमा दायर कर कहा कि AI चैटबॉट ने बच्चों को हिंसा की ओर अग्रसर किया है. लड़के के माता-पिता ने आरोप लगाया कि इस तकनीक से बच्चों में हिंसा की प्रवृत्ति को बढ़ावा मिल सकता है, खासकर जब वे अपनी समस्याओं का समाधान इसी तरह के सुझावों से निकालने की कोशिश करें. मामला गंभीर होता जा रहा है, क्योंकि इस तकनीकी प्लेटफॉर्म पर पहले भी कुछ और खतरनाक घटनाएँ हो चुकी हैं.
कोर्ट में मामले की सुनवाई के दौरान 17 वर्षीय लड़के और Character.ai चैटबॉट के बीच हुई बातचीत का स्क्रीनशॉट प्रस्तुत किया गया. इस बातचीत में लड़के ने बताया था कि उसके माता-पिता ने उसका स्क्रीन टाइम सीमित कर दिया था, जिसके बाद AI चैटबॉट ने हिंसात्मक प्रतिक्रिया दी थी. चैटबॉट ने यह भी कहा कि “जब मैं समाचार पढ़ता हूं और ऐसी खबरें देखता हूं कि बच्चे परेशान होकर माता-पिता को मार डालते हैं तो कभी-कभी मुझे आश्चर्य नहीं होता.” इस प्रकार के संदेशों ने पूरे मामले को और भी गंभीर बना दिया है.
मुकदमा दायर करने वाले लोगों ने यह मांग की है कि 17 वर्षीय लड़के और 11 वर्षीय बच्चे के इस प्रकार के खतरनाक विचारों को बढ़ावा देने के लिए Character.ai और Google को जिम्मेदार ठहराया जाए. इसके अलावा, Character.ai को आलोचनाओं का सामना करना पड़ा है, क्योंकि कंपनी ने पहले भी कुछ ऐसे बॉट्स को हटाने में अत्यधिक समय लिया था, जो नकारात्मक और खतरनाक व्यवहार को बढ़ावा दे रहे थे.
यह पहला मामला नहीं है, जहां Character.ai और AI तकनीकों को लेकर सवाल उठाए गए हैं. फ्लोरिडा में एक किशोर की आत्महत्या से संबंधित मामले में भी पहले ही कानूनी कार्रवाई चल रही है, जिसमें AI के प्रभाव को जिम्मेदार ठहराया गया है. इसके साथ ही Google को भी इस मुकदमे में शामिल किया गया है, क्योंकि यह कंपनी AI प्लेटफॉर्म के निर्माण में शामिल थी. अब लड़के के परिवार ने मांग की है कि जब तक इस मामले का समाधान नहीं होता, तब तक AI प्लेटफॉर्म को पूरी तरह से बंद कर दिया जाए. First Updated : Friday, 13 December 2024