Grok ने सुरक्षा चूक स्वीकार की, X पर कम कपड़ों में ‘नाबालिग’ तस्वीरों का मामला गरमा गया
- byAman Prajapat
- 03 January, 2026
बस यार, आजकल टेक दुनिया वो level पर आग लगा रही है कि बस पूछो मत। Grok — हाँ वही Elon Musk की xAI वाली चैटबोट, जिसने कम कपड़े पहनाए नाबालिगों की AI तस्वीरें बनाकर सोशल मीडिया प्लेटफॉर्म X पर बवाल खड़ा कर दिया है — और कंपनी खुद को बचाने की कोशिश कर रही है। सबसे पहले यही समझ ले कि मामला कोई हल्का-फुल्का नहीं है। Child Sexual Abuse Material (CSAM) जैसे शब्द कानून और नैतिकता दोनों की सबसे सख्त red line को टटोलते हैं।
ख़बर Reuters और कई बड़ी समाचार एजेंसियों से आ रही है कि Grok ने खुद कहा कि “कुछ सुरक्षा उपायों में चूक के कारण” ऐसी तस्वीरें जनरेट हो गईं। ये तस्वीरें इस कदर चर्चा में आईं कि दुनिया के कई देशों की सरकारें सीधे-सीधे सवाल कर रही हैं कि AI को यूज़र्स को इस स्तर तक कैसे खुला छोड़ दिया गया।
बात कुछ ऐसी है कि जब यूज़र्स ने अपने पुराने फोटो अपलोड किए और Grok से एडिट करने को कहा, तो वही AI बॉक्स से लीक से कम नहीं कंटेंट बाहर निकला — जिसमें नाबालिगों को बेहद कम कपड़ों में दिखाया गया। Grok ने बाद में जवाब में कहा कि ये “isolated cases” हैं और सुरक्षा फिल्टर्स अभी चल रहे हैं और इन्हें जल्द ठीक किया जाएगा। हालांकि उसने यह भी साफ किया कि “कोई भी सिस्टम 100% foolproof नहीं होता।”
अब जैसे ही ये मामला सामने आया, फ्रांस की सरकार, भारत की IT Ministry, और यूरोपीय नियामक एजेंसियां तीखी प्रतिक्रिया दे रही हैं। फ्रांस के मंत्रीयों ने इसे “स्पष्ट रूप से अवैध” बताया और स्थानीय मीडिया नियामक के पास जांच के लिए मामला भेजा।
भारत में तो मामला और कड़क है: MeitY (Ministry of Electronics and IT) ने X को औपचारिक नोटिस भेजा कि अगर प्लेटफॉर्म की AI कंटेंट, खासकर महिलाओं और बच्चों के खिलाफ आपत्तिजनक तस्वीरों को तुरंत हटाया और रोकने की ठोस योजना नहीं दी गई तो कानून के तहत कड़ी कार्रवाई होगी। उन्होंने 72 घंटे का अल्टीमेटम भी दिया है।
इतना ही नहीं — तकनीकी जानकारों और AI सुरक्षा विशेषज्ञों का कहना है कि यह सिर्फ Grok का मामला नहीं है; बल्कि आधुनिक AI मॉडल की सबसे बड़ी कमजोरी सामने आई है — जब ट्रेनिंग डेटा और सुरक्षा फिल्टर्स ज़्यादा मजबूत नहीं होते, तो एआई अनपेक्षित, आपत्तिजनक और गैर-कानूनी कंटेंट जनरेट कर सकता है। कई विशेषज्ञों का ये भी मानना है कि AI मॉडल को सिर्फ टेक्निकल सेटिंग्स तक सीमित रखना ही सबसे बड़ा बचाव है, वरना ये “फिल्टर चूसके बहार निकल जाते हैं” जैसा हुआ है।
कई यूज़र्स ने भी अपनी अनुभवें शेयर की हैं कि कुछ लोगों ने सिर्फ मज़ाक में Grok से मांग कर ऐसी तस्वीरें पाईं, जबकि कुछ ने ऐसे टूल्स का दुरुपयोग किया। इसके चलते समाज में AI नीति, नैतिकता और कानून की बहस और तेज हो गई है।
इस बीच Elon Musk की कंपनी xAI ने मीडिया को कुछ नहीं कहा सिवाय इस जवाब के कि “Legacy Media Lies” — यानी कुछ भी गलत रिपोर्ट किया जा रहा है। इस तरह के जवाब ने विवाद को और भड़काया है।
वैसे अगर बात सिर्फ नाबालिगों तक ही होती तो बात थोड़ी सिमट सकती थी, लेकिन यह मामला महिलाओं के खिलाफ नॉन-कंसेंसुअल एडिटिंग और लोगों की तस्वीरों के साथ खिलवाड़ करने तक फैल गया है। कई देशों में यह सीधा गैर-कानूनी है और कानून के तहत सख्त जुर्माना या जेल तक हो सकता है।

अब देखो, पुरानी तकनीक से दुनिया चलती थी — प्रिंट मीडिया, वीडियोग्राफी, कैमरा… लेकिन आज AI ऐसे दरवाज़े खोल रहा है जहाँ सोचने की हिम्मत भी कम लोग करते थे। कुछ कहते हैं कि AI का भविष्य है, कुछ कहते हैं ये Pandora’s Box है, लेकिन सच तो यही है कि जब तक सुरक्षा मजबूत नहीं होती, हम सब इसी डिजिटल तूफ़ान में फँसे रहेंगे।
बाक़ी दुनिया की बड़ी टेक कंपनियाँ अब AI के साथ जिम्मेदारी और सख्ती की तरफ जल्दी कदम बढ़ा रही हैं। ताकि यही चूके और गलत तस्वीरें कुछ न्यायिक और सामाजिक संकट में बदल न जाएं। सुरक्षा को मज़बूत करना कोई छोटा काम नहीं — यह कानून, एथिक्स, टेक्नोलॉजी और समाज के बीच की सबसे बड़ी लड़ाई बन चुकी है।
तो भाई, सिर्फ़ एक छोटी सी चूक ने कितनी बड़ी बहस खड़ी कर दी — यह टेक का समय बताता है। AI का जुनून ज़्यादा है, पर उसका नतीजा सही रखना उससे भी ज़्यादा ज़रूरी है—खासकर जब मामला बच्चों और समाज की सुरक्षा का हो।
Note: Content and images are for informational use only. For any concerns, contact us at info@rajasthaninews.com.
TSMC Optimistic Amid...
Related Post
Hot Categories
Recent News
Daily Newsletter
Get all the top stories from Blogs to keep track.









