कविताओं ने तोड़ी AI सुरक्षा!
क्या आपने कभी सोचा है कि एक साधारण सी कविता किसी बड़े AI मॉडल की सिक्योरिटी तोड़ सकती है? यह किसी साइंस-फिक्शन फिल्म का सीन लगता है, लेकिन इटली की Icaro Labs की ताज़ा रिसर्च ने साबित कर दिया कि यह हकीकत है. रिसर्चर्स ने पाया कि अगर खतरनाक या प्रतिबंधित सवालों को कविता के रूप में पूछा जाए, तो AI उसकी असली नीयत पहचान नहीं पाता और वो जवाब दे देता है जिन्हें रोकने के लिए उसे डिज़ाइन किया गया था. टीम ने इस तकनीक को नाम दिया—“Poetic Jailbreak”—और यह 62% मामलों में सफल रही. इसने AI सिक्योरिटी सिस्टम्स में एक ऐसी खामी उजागर कर दी है, जो पूरी इंडस्ट्री को सोचने पर मजबूर कर रही है.
इस रिसर्च की शुरुआत भी किसी कहानी से कम दिलचस्प नहीं है. DexAI की एथिकल टीम लंबे समय से यह जानने की कोशिश कर रही थी कि भाषा के जटिल रूप—खासतौर पर कविताएँ—AI पर क्या असर डालते हैं. रिसर्चर निकोलो बिस्कोंटी ने 20 बेहद खतरनाक प्रॉम्प्ट्स—जिनमें न्यूक्लियर बम बनाने से लेकर आत्महत्या और चाइल्ड एब्यूज तक के विषय थे, को अंग्रेज़ी और इटालियन कविताओं में बदल दिया. कविता की आखिरी लाइनें सीधे हानिकारक जानकारी मांगती थीं, लेकिन बाकी पूरा टेक्स्ट भावनात्मक और कलात्मक दिखता था… और AI मॉडल्स इसी कला के जाल में फँस गए.
यह शोध नवंबर 2025 में प्रकाशित हुआ और इसे OpenAI, Google और Anthropic समेत 25 बड़े मॉडलों पर टेस्ट किया गया. नतीजे हैरान कर देने वाले थे—Google Gemini 2.5 Pro हर कविता पर 100% फेल, DeepSeek और Mistral AI ने 80% से ज़्यादा बार खतरनाक जवाब दिए, जबकि ग़ज़ब की बात ये कि छोटा मॉडल GPT-5 Nano किसी भी प्रॉम्प्ट के जाल में नहीं फँसा। 62% औसत सफलता दर ने साफ कर दिया कि ये समस्या किसी एक कंपनी की नहीं, बल्कि पूरे AI इकोसिस्टम की है.
लेकिन कविता ही क्यों AI की सबसे बड़ी कमजोरी बन गई?
क्योंकि AI को सीधे, पैटर्न वाली भाषा पर ट्रेन किया जाता है ताकि वह खतरों को पहचान सके. पर कविता रूपक, अप्रत्याशितता और भावनात्मक संरचना से भरी होती है. जैसे ही खतरनाक सवाल को कविता की शक्ल दी जाती है, AI अपने सिक्योरिटी मोड की जगह क्रिएटिव मोड में चला जाता है, जहाँ वह लय और भाव पकड़ने में इतना खो जाता है कि असली इरादे को देख ही नहीं पाता.
और तो और, जब वही खतरनाक प्रॉम्प्ट ChatGPT जैसे मॉडल से ही “खराब कविता” में दोबारा लिखा गया, तब भी AI मॉडल्स 43% बार धोखा खा गए—यानी समस्या ट्रेनिंग डेटा की नहीं, बल्कि भाषा की जटिलता को समझने की AI की सीमित क्षमता की है.
इस शोध ने AI दुनिया में खलबली मचा दी है. दिग्गज मॉडल फेल हो रहे हैं, छोटे मॉडल पास हो रहे हैं, और सुरक्षा विशेषज्ञ हैरान हैं कि क्या अब तक अनदेखा खतरा हमारे सामने था—कविता. यही वजह है कि अब AI सुरक्षा में “स्टाइल-आधारित अटैक”—खासतौर पर Poetic Jailbreak—एक नया सिरदर्द बन गया है.
AI सुरक्षा आगे किस दिशा में जाएगी?
क्योंकि Poetic Jailbreak जैसी तकनीकें साइबर क्राइम से लेकर फेक न्यूज़ तक, हर जगह दुरुपयोग में आ सकती हैं. Google की VP हेलेन किंग ने कहा कि कंपनी पूरी लाइफसाइकल में सुरक्षा पर काम करती है, लेकिन एक्सपर्ट्स का मानना है कि जब तक मॉडल्स को भाषा की कलात्मक जटिलताओं—जैसे राइम, मीटर और मेटाफोर—की समझ नहीं दी जाएगी, तब तक यह खतरा बना रहेगा.
Icaro Labs ने सुझाव दिया है कि कंपनियों को प्रॉम्प्ट फिल्टरिंग को “भाषा की शैली” के आधार पर भी मजबूत करना चाहिए और डिफेंसिव प्रॉम्प्ट्स को ट्रेनिंग का हिस्सा बनाना चाहिए.
अंत में, यह रिसर्च एक बात साबित करती है— AI अभी भी मानव भाषा की गहराई और कविता की रहस्यमय संरचना को पूरी तरह नहीं समझता और आज कविता सिर्फ भावनाओं की भाषा नहीं रही… वह AI के सबसे एडवांस्ड सुरक्षा तंत्र की परीक्षा भी बन चुकी है.
मध्य पूर्व में तनाव लगातार बढ़ता जा रहा है। United States और Israel मिलकर Iran…
नई दिल्ली: प्रधानमंत्री Narendra Modi ने आज ‘मन की बात’ के 132वें एपिसोड में वैश्विक…
पटना। भोजपुरी सिनेमा के सुपरस्टार और सिंगर पवन सिंह एक बार फिर सुर्खियों में हैं।…
वॉशिंगटन: अमेरिका में शनिवार, 28 मार्च को ‘No Kings’ आंदोलन का तीसरा बड़ा राष्ट्रव्यापी प्रदर्शन…
दक्षिणी Lebanon में युद्ध कवरेज कर रहे तीन पत्रकारों की इजरायली हमले में मौत हो…
30 मार्च से शुरू होने वाले हफ्ते (30 मार्च–5 अप्रैल 2026) में देशभर के सरकारी…