---Advertisement---

AI Model Editing से लीक हो सकता है संवेदनशील डेटा, नई रिसर्च ने बढ़ाई चिंता

By: Abhinav Prajapati

On: Monday, February 23, 2026 11:27 AM

AI Model Editing
Google News
Follow Us
---Advertisement---

AI Model Editing: आज के दौर में आर्टिफिशियल इंटेलिजेंस यानी AI Models और खासकर Large Language Models (LLMs) करोड़ों लोगों की रोज़मर्रा की जरूरत बन चुके हैं। जानकारी खोजने से लेकर कंटेंट लिखने और कोडिंग तक, ये मॉडल हर जगह इस्तेमाल हो रहे हैं। लेकिन हाल ही में सामने आई एक नई रिसर्च ने AI की सुरक्षा को लेकर गंभीर सवाल खड़े कर दिए हैं।

Model Edit करने से कैसे पैदा हो रहा है खतरा?

AI Model Editing मॉडल्स को जब किसी गलती को सुधारने या किसी संवेदनशील जानकारी को हटाने के लिए अपडेट किया जाता है, तो उसे Model Editing कहा जाता है। आमतौर पर इसमें “Locate-then-Edit” तकनीक का इस्तेमाल किया जाता है, जिसमें मॉडल के कुछ खास पैरामीटर्स बदले जाते हैं।

AI Model Editing

नई रिसर्च के मुताबिक, यही अपडेट्स एक तरह का डिजिटल फिंगरप्रिंट छोड़ देते हैं, जिससे साइबर अटैकर्स उस हटाई गई जानकारी को दोबारा रिकवर कर सकते हैं। यानी जिस डेटा को डिलीट समझा जाता है, वह पूरी तरह सुरक्षित नहीं रहता।

रिसर्च में क्या सामने आया?

AI Model Editing शंघाई Qi Zhi Institute, East China Normal University, Tsinghua University और Chinese Academy of Sciences के वैज्ञानिकों ने इस खतरे को विस्तार से समझाया है। रिसर्चर्स के अनुसार, LLMs को जब एडिट किया जाता है, तो उनके पैरामीटर अपडेट्स के जरिए संवेदनशील जानकारी का अंदाजा लगाया जा सकता है।

उन्होंने एक नया अटैक तरीका पेश किया है, जिसे KSTER Attack कहा गया है। यह दो स्टेज में काम करता है और मॉडल अपडेट्स की संरचना को पढ़कर डिलीट की गई जानकारी को फिर से निकाल सकता है।

किन AI Models पर हुआ सफल अटैक?

AI Model Editing रिसर्च के दौरान यह पाया गया कि यह सुरक्षा खामी कई पॉपुलर AI Models पर काम करती है, जिनमें शामिल हैं:

  • GPT-J

  • Llama-3

  • Qwen-2.5

AI Model Editing इन मॉडलों से एडिट की गई संवेदनशील जानकारी को काफी हद तक रिकवर किया जा सका, जो AI सिक्योरिटी के लिहाज से बेहद चिंताजनक है।

यूजर्स की प्राइवेसी पर क्यों है बड़ा खतरा?

AI Models को ट्रिलियन्स शब्दों के डेटा पर ट्रेन किया जाता है, जिसमें अनजाने में पर्सनल या संवेदनशील जानकारी भी स्टोर हो सकती है। अगर Model Editing के बाद भी डेटा को वापस निकाला जा सकता है, तो इसका सीधा असर यूजर्स की प्राइवेसी और डेटा सुरक्षा पर पड़ता है। यह खतरा खासतौर पर हेल्थ, फाइनेंस और पर्सनल कम्युनिकेशन जैसे संवेदनशील सेक्टर्स में AI के इस्तेमाल को लेकर चिंता बढ़ाता है।

क्या है इस खतरे से बचाव का तरीका?

AI Model Editing रिसर्चर्स ने इस समस्या से निपटने के लिए एक नई तकनीक सुझाई है, जिसे Subspace Camouflage कहा गया है। इसमें मॉडल अपडेट्स के अंदर जानबूझकर ऐसे डमी संकेत जोड़े जाते हैं, जिससे असली जानकारी को पहचानना मुश्किल हो जाए। इस तरीके से AI मॉडल की परफॉर्मेंस पर असर डाले बिना, डेटा लीक के खतरे को काफी हद तक कम किया जा सकता है।

आगे क्या बदलेगा AI सिक्योरिटी में?

इस रिसर्च ने AI इंडस्ट्री को एक साफ संदेश दिया है कि केवल मॉडल को एडिट करना ही पर्याप्त नहीं है। डेटा सुरक्षा और प्राइवेसी प्रोटेक्शन को AI डेवलपमेंट का अहम हिस्सा बनाना जरूरी है।

AI Model Editing

AI Model Editing आने वाले समय में AI कंपनियां और रिसर्च टीमें ज्यादा मजबूत सिक्योरिटी लेयर्स, बेहतर मॉडल एडिटिंग तकनीक और सुरक्षित अपडेट सिस्टम पर काम कर सकती हैं।

AI Models भले ही स्मार्ट होते जा रहे हों, लेकिन उनकी सुरक्षा अभी भी एक बड़ी चुनौती है। यह रिसर्च दिखाती है कि अगर सही सावधानी न बरती जाए, तो एडिट किया गया डेटा भी पूरी तरह सुरक्षित नहीं रहता। ऐसे में AI के सुरक्षित और जिम्मेदार इस्तेमाल के लिए नई तकनीकों और सख्त सिक्योरिटी उपायों की जरूरत पहले से कहीं ज्यादा बढ़ गई है।

Disclaimer: यह लेख विभिन्न रिसर्च रिपोर्ट्स और सार्वजनिक रूप से उपलब्ध तकनीकी जानकारी पर आधारित है। AI मॉडल्स और साइबर सिक्योरिटी से जुड़ी नीतियां समय-समय पर बदल सकती हैं। किसी भी तकनीकी निर्णय से पहले आधिकारिक स्रोतों की पुष्टि अवश्य करें।

Also Read

The Kerala Story 2 पर Anurag Kashyap का तीखा हमला, बोले यह फिल्म समाज को बांटने की कोशिश

भारत का अपना AI चैट ऐप ‘Indus’ लॉन्च, Sarvam ने OpenAI और Google को दी सीधी चुनौती

एक फोटो, हजारों लाइक्स 2026 के बेस्ट AI Image Editing & Sharing Tools

For Feedback - feedback@example.com

Join WhatsApp

Join Now

Join Telegram

Join Now

Leave a Comment