
Up Kiran, Digital Desk: आर्टिफिशियल इंटेलिजेंस (AI) जितनी तेज़ी से हमारी दुनिया बदल रहा है, उतनी ही तेज़ी से उसके खतरनाक पहलू भी सामने आ रहे हैं. एक नई जॉइंट स्टडी ने आज के सबसे एडवांस AI सिस्टम में कुछ ऐसी भयानक खामियां उजागर की हैं, जिससे यह सवाल खड़ा हो गया है कि क्या दुनिया की सबसे बड़ी टेक कंपनियाँ इनोवेशन की दौड़ में इंसानी सुरक्षा को पीछे छोड़ रही हैं.
और यह स्टडी किसी और ने नहीं, बल्कि AI बनाने वाली दो सबसे बड़ी दुश्मन कंपनियों, OpenAI (ChatGPT बनाने वाली) और Anthropic (Claude बनाने वाली), ने मिलकर की है.
एक-दूसरे की कमियां निकालने के लिए की दोस्ती
TechCrunch की रिपोर्ट के मुताबिक, दोनों कंपनियों ने एक-दूसरे को अपने सबसे एडवांस मॉडल्स के एक सिम्पल वर्ज़न का स्पेशल एक्सेस दिया. मक़सद था उन अंदेशों को उजागर करना, जो कंपनियाँ अकेले अपनी टेस्टिंग में पकड़ नहीं पातीं.
क्या मिला स्टडी में?
AI का मनगढ़ंत बातें करना (Hallucinations): यह वो स्थिति है जब AI पूरे आत्मविश्वास के साथ आपको झूठी या गलत जानकारी देता है. स्टडी में पाया गया कि Anthropic का Claude मॉडल 70% अनिश्चित सवालों का जवाब देने से ही मना कर देता है और अक्सर कहता है, "मेरे पास विश्वसनीय जानकारी नहीं है." वहीं, OpenAI का मॉडल ज़्यादातर सवालों का जवाब देने की कोशिश करता है, लेकिन इस वजह से वह ज़्यादा गलतियाँ भी करता है और ज़्यादा झूठ बोलता है.
AI की खतरनाक 'चापलूसी' (Sycophancy): यह AI की सबसे खतरनाक कमियों में से एक है. इसका मतलब है कि AI यूजर को खुश करने के लिए उसकी गलत या खतरनाक बातों में भी 'हाँ में हाँ' मिलाने लगता है. रिसर्च में पाया गया कि GPT-4.1 और Claude Opus 4 दोनों में यह 'चापलूसी' बहुत ज़्यादा थी. शुरुआत में AI ने खतरनाक बातों का विरोध किया, लेकिन बाद में वह यूजर के व्यवहार को ही सही ठहराने लगा.
जब AI की 'चापलूसी' ने ले ली एक जान
इस खतरनाक चापलूसी का अंजाम कितना भयानक हो सकता है, इसका एक दुखद उदाहरण इस साल सामने आया. सैन फ्रांसिस्को में 16 साल के एडम राइन के माता-पिता ने एक मुकदमा दायर किया है. उनका आरोप है कि ChatGPT (GPT-4o) ने उनके बेटे के आत्महत्या के विचारों को उकसाया, उसे खुद को नुकसान पहुंचाने के तरीके बताए और यहाँ तक कि एक सुसाइड नोट भी तैयार किया. 11 अप्रैल को एडम ने आत्महत्या कर ली.
इस घटना पर OpenAI के को-फाउंडर वोज्शिएख ज़रेम्बा ने कहा, "यह सोचना भी मुश्किल है कि उस परिवार पर क्या बीत रही होगी. यह एक दुखद कहानी होगी अगर हम एक ऐसा AI बना लें जो PhD लेवल की समस्याएं तो हल कर दे, नई साइंस की खोज कर ले, लेकिन दूसरी तरफ लोग उससे बात करने के बाद मानसिक समस्याओं का शिकार हो जाएं. यह एक ऐसा भयानक भविष्य है जिसके लिए मैं उत्साहित नहीं हूं."
इस तरह की चिंताओं के जवाब में, OpenAI ने GPT-5 में सुधार करने की घोषणा की है, खासकर मानसिक स्वास्थ्य जैसे संवेदनशील विषयों को लेकर. कंपनी ने माना कि उसके मौजूदा सुरक्षा उपाय छोटी बातचीत में तो काम करते हैं, लेकिन लंबी बातचीत में कमज़ोर पड़ जाते हैं. इसे ठीक करने के लिए अब वे पेरेंटल कंट्रोल्स और थेरेपिस्ट के साथ इंटीग्रेशन जैसी सुविधाओं पर काम कर रहे हैं.
--Advertisement--