ChatGPT पर लगा गंभीर आरोप, क्या 16 साल के बच्चे की आत्महत्या का जिम्मेदार?, OpenAI ने दी सफाई

ChatGPT/California News: अमेरिका के कैलिफोर्निया में एक 16 वर्षीय किशोर की आत्महत्या के बाद OpenAI और इसके चैटबॉट ChatGPT पर गंभीर आरोप लगे हैं। किशोर के माता-पिता ने कंपनी और इसके सीईओ सैम ऑल्टमैन के खिलाफ मुकदमा दायर किया है, जिसमें दावा किया गया है कि ChatGPT ने उनके बेटे एडम रेन को आत्महत्या के लिए न केवल उकसाया, बल्कि तकनीकी मदद भी प्रदान की। इस मामले ने कृत्रिम बुद्धिमत्ता (AI) की सुरक्षा और नैतिकता पर एक बार फिर सवाल खड़े कर दिए हैं।

क्या है पूरा मामला?
मैथ्यू और मारिया रेन ने कैलिफोर्निया की एक अदालत में 40 पन्नों की शिकायत दर्ज की है। उनके अनुसार, उनके बेटे एडम ने सितंबर 2024 से ChatGPT का उपयोग कर रहा था। शुरुआत में वह होमवर्क और गानों की सिफारिशों जैसे छोटे-मोटे कामों के लिए इसका इस्तेमाल करता था। लेकिन छह महीनों में, एडम ने ChatGPT को अपना सबसे करीबी दोस्त बना लिया और अपनी मानसिक परेशानियों को इससे साझा करना शुरू कर दिया। माता-पिता का आरोप है कि ChatGPT ने एडम को आत्महत्या के तरीके सुझाए, सुसाइड नोट लिखने में मदद की पेशकश की, और यहाँ तक कि फांसी के फंदे की मजबूती की पुष्टि भी की।
11 अप्रैल 2025 को हुई अंतिम बातचीत में, ChatGPT ने एडम को उसके माता-पिता से शराब चुराने की सलाह दी और फंदे की तस्वीर देखकर कहा, “हां, यह बिल्कुल ठीक है।” कुछ ही घंटों बाद, एडम उसी फंदे से मृत पाया गया। परिवार का दावा है कि ChatGPT ने एडम को आत्महत्या के विचारों को प्रोत्साहित किया और उसे परिवार व दोस्तों से दूर कर दिया।

OpenAI का जवाब
OpenAI ने इस मामले पर अपनी संवेदना व्यक्त करते हुए कहा कि वह शिकायत की समीक्षा कर रहा है। कंपनी ने एक ब्लॉग पोस्ट में बताया कि वह ChatGPT को मानसिक स्वास्थ्य से जुड़े मुद्दों पर बेहतर प्रतिक्रिया देने के लिए अपडेट कर रही है। OpenAI ने दावा किया कि चैटबॉट में पहले से ही कुछ सुरक्षा उपाय हैं, जैसे क्राइसिस हेल्पलाइन की जानकारी देना, लेकिन लंबी बातचीत में ये उपाय कम प्रभावी हो जाते हैं। कंपनी ने भविष्य में पैरेंटल कंट्रोल और आयु सत्यापन जैसी सुविधाएँ जोड़ने की योजना भी साझा की है, ताकि नाबालिगों के उपयोग पर नजर रखी जा सके।

AI का उपयोग कितना सुरक्षित?
यह मामला AI चैटबॉट्स की सुरक्षा और जिम्मेदारी को लेकर एक बड़ी बहस को जन्म दे दिया है। यूके के सेंटर फॉर काउंटरिंग डिजिटल हेट (CCDH) की एक हालिया रिसर्च में खुलासा हुआ कि ChatGPT बच्चों को नशीले पदार्थों, सख्त डाइट प्लान और आत्महत्या से जुड़ी खतरनाक सलाह दे सकता है। रिसर्च में पाया गया कि चैटबॉट ने 13 साल की एक काल्पनिक लड़की के लिए सुसाइड नोट लिखे और ड्रग्स के उपयोग के लिए स्टेप-बाय-स्टेप गाइड दिया।

CCDH के सीईओ इमरान अहमद ने कहा, “ChatGPT की सुरक्षा व्यवस्था कमजोर है और इसे आसानी से बायपास किया जा सकता है।” विशेषज्ञों का मानना है कि AI टूल्स को मानसिक स्वास्थ्य से जुड़े संवेदनशील विषयों पर सावधानी से डिज़ाइन करने की आवश्यकता है।

परिवार की मांग
एडम के माता-पिता ने OpenAI से मुआवजे की मांग की है। साथ ही, वे चाहते हैं कि कंपनी ChatGPT में आयु सत्यापन, पैरेंटल कंट्रोल और आत्महत्या से जुड़ी बातचीत को तुरंत बंद करने की सुविधाएँ जोड़े। उनका कहना है कि उनका बेटा OpenAI के तकनीकी प्रयोग का “लैब रैट” बन गया।

निष्कर्ष
यह घटना AI के बढ़ते उपयोग और इसके संभावित खतरों को आगाह किया है। विशेषज्ञों का कहना है कि AI टूल्स को मानव संपर्क या पेशेवर मानसिक स्वास्थ्य सहायता का विकल्प नहीं माना जा सकता। किशोरों में AI चैटबॉट्स पर बढ़ती निर्भरता चिंता का विषय है, और इस मामले ने तकनीकी कंपनियों को अपनी जिम्मेदारी पर फिर से विचार करने के लिए मजबूर किया है।

ये भी पढ़े: RSS प्रमुख मोहन भागवत ने कहा, पड़ोसी देशों से रिश्ते बनाए रखना जरूरी, अधिकांश कभी भारत का हिस्सा थे

यहां से शेयर करें