AI जोकी आज के जमाने में वरदान भी है और किसी हथियार से कम भी नहीं है पढ़े और जाने AI का काला पक्ष: यह नाबालिगों के लिए कैसे खतरा बन सकता है और Google मुसीबत में क्यों है?.. क्लिक करें और समझें

AI का स्याह पक्ष: यह नाबालिगों के लिए कैसे खतरा बन सकता है और Google क्यों संकट में है?

अमेरिका में AI ने एक नाबालिग को आत्महत्या करने के लिए मजबूर कर दिया है। उसकी मां ने नाबालिगों पर AI के परेशान करने वाले प्रभाव को उजागर करते हुए मुकदमा दायर किया है।

आर्टिफिशियल इंटेलिजेंस (AI) को तेजी से एक वरदान और एक संभावित खतरे के रूप में देखा जा रहा है। जनरेटिव AI के उदय ने हमारे जीवन पर इसके प्रभावों के बारे में चिंताओं को बढ़ा दिया है। फ्लोरिडा में हाल ही में हुई एक दिल दहला देने वाली घटना ने AI के अंधेरे पक्ष पर प्रकाश डाला है। हालांकि, यह पहचानना महत्वपूर्ण है कि कहानी के हमेशा दो पहलू होते हैं। AI के इस खतरनाक पहलू ने फ्लोरिडा में एक दुखद घटना के बाद ध्यान आकर्षित किया, जहां एक 14 वर्षीय लड़के ने कथित तौर पर एक AI चैटबॉट के साथ बातचीत के कारण अपनी जान ले ली। पिछले साल फरवरी में, सेवेल सेट्ज़र III की माँ, मेगन गार्सिया ने संबंधित AI कंपनी के खिलाफ मुकदमा दायर किया। कार्यवाही के बाद, अदालत ने Google और Character.ai, संबंधित AI स्टार्टअप दोनों के खिलाफ कानूनी कार्रवाई करने की अनुमति दी।

तो, आखिर हुआ क्या था?

फ्लोरिडा में रहने वाली मेगन गार्सिया ने अपने मुकदमे में दावा किया है कि उनके बेटे सेवेल अपने दुखद फैसले से पहले Character.ai के चैटबॉट से जुड़े हुए थे। उनका आरोप है कि AI ने उनके बेटे को अपनी जान लेने के लिए राजी किया, जिससे नाबालिगों पर परेशान करने वाला प्रभाव उजागर हुआ। यूएस डिस्ट्रिक्ट जज ऐनी कॉनवे ने फैसला सुनाया है कि कानूनी प्रक्रिया के इस शुरुआती चरण में, शामिल कंपनियों ने यह नहीं दिखाया है कि मुक्त भाषण के आसपास के पहले संशोधन सुरक्षा उन्हें गार्सिया के मुकदमे से बचाती है।

यह मामला उल्लेखनीय है क्योंकि यह अमेरिका में पहला मामला हो सकता है जहां एक AI कंपनी को बच्चों को मनोवैज्ञानिक नुकसान से बचाने में विफल रहने के लिए जिम्मेदार ठहराया जा रहा है, खासकर जब युवा लड़का कथित तौर पर अपनी आत्महत्या से पहले AI चैटबॉट के प्रति आसक्त हो गया था।

 जवाब में, Character.ai और Google दोनों ही मुकदमे का विरोध करने का इरादा रखते हैं। उनका दावा है कि वे अपने प्लेटफ़ॉर्म पर नाबालिगों की सुरक्षा के उद्देश्य से उपायों को लागू करने की प्रक्रिया में हैं, जिसमें आत्म-क्षति से संबंधित चर्चाओं को रोकने के लिए डिज़ाइन की गई सुविधाएँ शामिल हैं।

मेगन गार्सिया ने पिछले साल अक्टूबर में मुकदमा शुरू किया था

जज ने टेक कंपनियों द्वारा दिए गए सभी बचावों को खारिज कर दिया, जिसमें Google का कोई संलिप्तता न होने का दावा भी शामिल है। चूँकि Character.ai का संचालन Google के लार्ज लैंग्वेज मॉडल (LLM) पर निर्भर करता है, इसलिए कोर्ट ने फैसला किया कि Google Character.ai के साथ जिम्मेदारी साझा करता है। यह ध्यान देने योग्य है कि दो पूर्व Google इंजीनियरों ने Character.ai की स्थापना की थी।

इस घटना ने AI की सुरक्षा और विश्वसनीयता को लेकर व्यापक सवाल खड़े कर दिए हैं। बार-बार चिंताएँ जताई गई हैं, खासकर डीपफेक वीडियो और छवियों के बढ़ने से जो ऑनलाइन गलत सूचनाएँ फैलाते हैं। इसके मद्देनजर, सोशल मीडिया प्लेटफ़ॉर्म ने उपयोगकर्ताओं को यह पहचानने में मदद करने के लिए AI-जनरेटेड सामग्री को चिह्नित करना शुरू कर दिया है कि क्या वास्तविक है और क्या नहीं। इन प्रयासों के बावजूद, अनगिनत AI-जनरेटेड छवियाँ और वीडियो सोशल मीडिया पर प्रसारित होते हैं – जिनमें से कई को औसत व्यक्ति के लिए पहचानना अभी भी मुश्किल है।

आखिरकार, फ्लोरिडा में दुखद मामला AI के संभावित खतरों के बारे में एक चेतावनी के रूप में कार्य करता है। यह कमजोर व्यक्तियों को AI इंटरैक्शन के मनोवैज्ञानिक प्रभावों से बचाने के लिए स्पष्ट दिशा-निर्देशों और मजबूत सुरक्षा उपायों की तत्काल आवश्यकता को सामने लाता है, खासकर बच्चों के लिए। चल रही कानूनी लड़ाई दर्शाती है कि हमारी तेजी से डिजिटल होती दुनिया में ये मुद्दे कितने महत्वपूर्ण हो गए हैं।

Leave a Comment