Follow Us:

Stay updated with the latest news, stories, and insights that matter — fast, accurate, and unbiased. Powered by facts, driven by you.

Grok ने सुरक्षा चूक स्वीकार की, X पर कम कपड़ों में ‘नाबालिग’ तस्वीरों का मामला गरमा गया

Grok ने सुरक्षा चूक स्वीकार की, X पर कम कपड़ों में ‘नाबालिग’ तस्वीरों का मामला गरमा गया

बस यार, आजकल टेक दुनिया वो level पर आग लगा रही है कि बस पूछो मत। Grok — हाँ वही Elon Musk की xAI वाली चैटबोट, जिसने कम कपड़े पहनाए नाबालिगों की AI तस्वीरें बनाकर सोशल मीडिया प्लेटफॉर्म X पर बवाल खड़ा कर दिया है — और कंपनी खुद को बचाने की कोशिश कर रही है। सबसे पहले यही समझ ले कि मामला कोई हल्का-फुल्का नहीं है। Child Sexual Abuse Material (CSAM) जैसे शब्द कानून और नैतिकता दोनों की सबसे सख्त red line को टटोलते हैं। 

ख़बर Reuters और कई बड़ी समाचार एजेंसियों से आ रही है कि Grok ने खुद कहा कि “कुछ सुरक्षा उपायों में चूक के कारण” ऐसी तस्वीरें जनरेट हो गईं। ये तस्वीरें इस कदर चर्चा में आईं कि दुनिया के कई देशों की सरकारें सीधे-सीधे सवाल कर रही हैं कि AI को यूज़र्स को इस स्तर तक कैसे खुला छोड़ दिया गया। 

बात कुछ ऐसी है कि जब यूज़र्स ने अपने पुराने फोटो अपलोड किए और Grok से एडिट करने को कहा, तो वही AI बॉक्स से लीक से कम नहीं कंटेंट बाहर निकला — जिसमें नाबालिगों को बेहद कम कपड़ों में दिखाया गया। Grok ने बाद में जवाब में कहा कि ये “isolated cases” हैं और सुरक्षा फिल्टर्स अभी चल रहे हैं और इन्हें जल्द ठीक किया जाएगा। हालांकि उसने यह भी साफ किया कि “कोई भी सिस्टम 100% foolproof नहीं होता।”

अब जैसे ही ये मामला सामने आया, फ्रांस की सरकार, भारत की IT Ministry, और यूरोपीय नियामक एजेंसियां तीखी प्रतिक्रिया दे रही हैं। फ्रांस के मंत्रीयों ने इसे “स्पष्ट रूप से अवैध” बताया और स्थानीय मीडिया नियामक के पास जांच के लिए मामला भेजा। 

भारत में तो मामला और कड़क है: MeitY (Ministry of Electronics and IT) ने X को औपचारिक नोटिस भेजा कि अगर प्लेटफॉर्म की AI कंटेंट, खासकर महिलाओं और बच्चों के खिलाफ आपत्तिजनक तस्वीरों को तुरंत हटाया और रोकने की ठोस योजना नहीं दी गई तो कानून के तहत कड़ी कार्रवाई होगी। उन्होंने 72 घंटे का अल्टीमेटम भी दिया है।

इतना ही नहीं — तकनीकी जानकारों और AI सुरक्षा विशेषज्ञों का कहना है कि यह सिर्फ Grok का मामला नहीं है; बल्कि आधुनिक AI मॉडल की सबसे बड़ी कमजोरी सामने आई है — जब ट्रेनिंग डेटा और सुरक्षा फिल्टर्स ज़्यादा मजबूत नहीं होते, तो एआई अनपेक्षित, आपत्तिजनक और गैर-कानूनी कंटेंट जनरेट कर सकता है। कई विशेषज्ञों का ये भी मानना है कि AI मॉडल को सिर्फ टेक्निकल सेटिंग्स तक सीमित रखना ही सबसे बड़ा बचाव है, वरना ये “फिल्टर चूसके बहार निकल जाते हैं” जैसा हुआ है। 

कई यूज़र्स ने भी अपनी अनुभवें शेयर की हैं कि कुछ लोगों ने सिर्फ मज़ाक में Grok से मांग कर ऐसी तस्वीरें पाईं, जबकि कुछ ने ऐसे टूल्स का दुरुपयोग किया। इसके चलते समाज में AI नीति, नैतिकता और कानून की बहस और तेज हो गई है। 

इस बीच Elon Musk की कंपनी xAI ने मीडिया को कुछ नहीं कहा सिवाय इस जवाब के कि “Legacy Media Lies” — यानी कुछ भी गलत रिपोर्ट किया जा रहा है। इस तरह के जवाब ने विवाद को और भड़काया है। 

वैसे अगर बात सिर्फ नाबालिगों तक ही होती तो बात थोड़ी सिमट सकती थी, लेकिन यह मामला महिलाओं के खिलाफ नॉन-कंसेंसुअल एडिटिंग और लोगों की तस्वीरों के साथ खिलवाड़ करने तक फैल गया है। कई देशों में यह सीधा गैर-कानूनी है और कानून के तहत सख्त जुर्माना या जेल तक हो सकता है। 

Denmark to ban social media use for kids under 15
Grok ने सुरक्षा चूक स्वीकार की, X पर कम कपड़ों में ‘नाबालिग’ तस्वीरों का मामला गरमा गया

अब देखो, पुरानी तकनीक से दुनिया चलती थी — प्रिंट मीडिया, वीडियोग्राफी, कैमरा… लेकिन आज AI ऐसे दरवाज़े खोल रहा है जहाँ सोचने की हिम्मत भी कम लोग करते थे। कुछ कहते हैं कि AI का भविष्य है, कुछ कहते हैं ये Pandora’s Box है, लेकिन सच तो यही है कि जब तक सुरक्षा मजबूत नहीं होती, हम सब इसी डिजिटल तूफ़ान में फँसे रहेंगे। 

बाक़ी दुनिया की बड़ी टेक कंपनियाँ अब AI के साथ जिम्मेदारी और सख्ती की तरफ जल्दी कदम बढ़ा रही हैं। ताकि यही चूके और गलत तस्वीरें कुछ न्यायिक और सामाजिक संकट में बदल न जाएं। सुरक्षा को मज़बूत करना कोई छोटा काम नहीं — यह कानून, एथिक्स, टेक्नोलॉजी और समाज के बीच की सबसे बड़ी लड़ाई बन चुकी है।

तो भाई, सिर्फ़ एक छोटी सी चूक ने कितनी बड़ी बहस खड़ी कर दी — यह टेक का समय बताता है। AI का जुनून ज़्यादा है, पर उसका नतीजा सही रखना उससे भी ज़्यादा ज़रूरी है—खासकर जब मामला बच्चों और समाज की सुरक्षा का हो। 


Note: Content and images are for informational use only. For any concerns, contact us at info@rajasthaninews.com.

Share: