ChatGpt पर अगर आप भी पर्सनल जानकारी शेयर करते है, तो हो जाएं सावधान!

Aanchal Singh
By Aanchal Singh

ChatGpt: आजकल लगभग हर कोई ChatGPT का इस्तेमाल करने लगा है. इस टूल की मदद ज्यादातर स्टूडेंट्स करते है, क्योंकि इस पर सरल भाषा में प्रश्नों के जवाब मिल जाते है. कुछ ऐसे यूजर्स भी है जो कि प्लगइन्स और एक्सटेंशन तक पहुंचना चाहते है. लेकिन यहां से जानकारी मिलने के लिए यूजर्स को अपनी कुछ जानकारी भी साझा करने होती है. जो आपके लिए काफी हानिकारक हो सकता है.

read more: अंतरिम बजट के पहले दिन लगा महंगाई का झटका,14 रुपये बढ़ी कमर्शियल गैस सिलेंडर की कीमत

सावधानी बरतने की जरुरत

आपको बता दे कि ऐसा करते समय बहुत ही सावधानी बरतने की जरुरत होती है. क्योंकि चैटबॉट के साथ साझा किए जाने वाले डेटा के बारे में कुछ बातें कथित तौर पर लीक होने की बात कही गई है. इससे आप जो भी जानकारी साझा करते है, वो लीक हो सकती है. इसलिए बहुत ही सोच समझ कर अपनी जानकारी साझा करनी चाहिए. हाल ही में एक रिपोर्ट जारी की गई, जिसमें कहा गया कि चैट जीपीटी इस्तेमाल करते वक्त जो डेटा हम शेयर करते हैं वह लीक हो सकता है. कथित तौर पर चैटी जीपीटी से होने वाले प्राइवेट कन्वर्सेशन का डेटा लीक हो रहा है. हाल ही में एक स्क्रीनशॉट आया है जिसमें बताया गया है कि यहां से यूजरनेम और पासवर्ड जैसी संवेदनशील जानकारियां लीक हो रही हैं.

OpenAI ने इस पर क्या कहा..

इस पूरे मामले पर अपना स्पष्टीकरण देते हुए OpenAI के अधिकारियों ने कहा कि जिस डेटा के बारे में बात की जा रही है उसके साथ छेड़छाड़ की गई थी. एक बयान में कहा गया है कि “हमने जो पाया हम इसे एक खाता अधिग्रहण मानते हैं क्योंकि यह उस गतिविधि के अनुरूप है जिसे हम देखते हैं. जहां कोई व्यक्ति पहचान के ‘पूल’ में योगदान दे रहा है, जिसे बाहरी समुदाय या प्रॉक्सी सर्वर वितरित करने के लिए उपयोग करता है.

साल 2023 में ऐसा मामला आया था सामने

पहले भी कई बार चैटजीपीटी से यूजर्स की जानकारी लीक होने की जानकारी सामने आई थी। मार्च 2023 में कथित तौर पर आए कुछ बग्स के कारण ऐसा देखने को मिला था। उस समय रिसर्चर्स एआई बॉट को LLM प्रशिक्षण में उपयोग किए गए निजी डेटा को प्रकट करने के लिए प्रेरित करने के लिए प्रश्नों का उपयोग करने में सक्षम थे।

read more: Weather: दिल्ली में बारिश,तो उत्तर भारत में कोहरा,जानें कैसा है देश में मौसम का मिजाज…

Share This Article
Exit mobile version