नई दिल्ली, 15 अप्रैल : भारत की न्यायिक व्यवस्था में आर्टिफिशियल इंटेलिजेंस (AI) के बढ़ते इस्तेमाल ने एक नई बहस को जन्म दे दिया है। जहां एक तरफ AI टूल्स कानूनी दस्तावेज तैयार करने, केस लॉ रिसर्च करने और लंबी-लंबी फाइलों को संक्षेप में बदलने में तेजी से उपयोग किए जा रहे हैं, वहीं दूसरी तरफ अदालतों ने इसके गलत और बिना जांचे इस्तेमाल पर गंभीर सवाल उठाए हैं।
सुप्रीम कोर्ट से लेकर कई हाई कोर्ट तक यह स्पष्ट कर चुके हैं कि अगर AI के कारण अदालत में गलत तथ्य, फर्जी केस लॉ या गलत उद्धरण (citations) दाखिल होते हैं, तो इसकी पूरी जिम्मेदारी संबंधित वकील की ही होगी। तकनीक का उपयोग गलत नहीं है, लेकिन उसे बिना सत्यापन के इस्तेमाल करना न्याय प्रक्रिया की गंभीरता को प्रभावित कर सकता है।
सुप्रीम कोर्ट की सख्त टिप्पणी: AI सुविधा है, भरोसा नहीं
हाल के महीनों में सुप्रीम कोर्ट ने ऐसे कई मामलों का संज्ञान लिया है, जहां वकीलों द्वारा दाखिल याचिकाओं में AI द्वारा जनरेट की गई गलत या काल्पनिक कानूनी जानकारियां पाई गईं।
अदालत ने स्पष्ट किया कि:
- AI कोई आधिकारिक कानूनी स्रोत नहीं है
- AI द्वारा दिए गए तथ्यों को बिना जांच के स्वीकार नहीं किया जा सकता
- अदालत में प्रस्तुत हर दस्तावेज की जिम्मेदारी वकील की होती है
यह रुख इसलिए भी महत्वपूर्ण माना जा रहा है क्योंकि देश में कानूनी क्षेत्र तेजी से डिजिटल हो रहा है और AI टूल्स जैसे ChatGPT, क्लॉज एनालाइज़र और लीगल रिसर्च प्लेटफॉर्म का इस्तेमाल बढ़ता जा रहा है।
सुप्रीम कोर्ट का संदेश साफ है—AI मदद कर सकता है, लेकिन वह न्यायिक विवेक का विकल्प नहीं बन सकता।
हाई कोर्ट्स की गाइडलाइन: सीमित और नियंत्रित उपयोग पर जोर
देश के कई हाई कोर्ट्स ने भी AI को लेकर अपने स्तर पर दिशा-निर्देश जारी किए हैं।
- पंजाब और हरियाणा हाई कोर्ट ने न्यायिक अधिकारियों को AI से फैसले लिखने या रिसर्च करने में सावधानी बरतने को कहा है
- गुजरात हाई कोर्ट ने AI के उपयोग को केवल प्रशासनिक कार्यों तक सीमित कर दिया है
- कुछ अन्य अदालतें भी AI को “सहायक उपकरण” मानकर ही इस्तेमाल करने की अनुमति दे रही हैं
इन निर्देशों से यह साफ होता है कि न्यायपालिका AI को पूरी तरह प्रतिबंधित नहीं कर रही, लेकिन उसके उपयोग पर सख्त नियंत्रण चाहती है।
HRERA का AI उपयोग: तकनीक बनाम विश्वसनीयता की बहस
हरियाणा रियल एस्टेट रेगुलेटरी अथॉरिटी (HRERA) का एक मामला भी इस बहस का हिस्सा बन गया है, जहां AI द्वारा तैयार स्थानीय प्रॉपर्टी प्राइस ओवरव्यू के आधार पर एक बिल्डर को मुआवजा बढ़ाने का आदेश दिया गया।
इस फैसले के बाद कानूनी विशेषज्ञों ने सवाल उठाए कि क्या AI डेटा को अकेले आधार बनाकर न्यायिक निर्णय लिया जा सकता है।
यह घटना भारत में AI और न्यायिक निर्णय प्रक्रिया के बीच बढ़ती निर्भरता को दर्शाती है, लेकिन साथ ही यह भी दिखाती है कि बिना मानवीय जांच के AI डेटा खतरनाक साबित हो सकता है।
विशेषज्ञों की राय: “AI गलत नहीं, लेकिन अंधा भरोसा खतरनाक”
कानूनी और टेक विशेषज्ञों का मानना है कि AI एक उपयोगी टूल है, लेकिन इसका उपयोग “सुपरविजन” के साथ होना चाहिए।
खैतान एंड कंपनी के सीनियर पार्टनर संजीव के कपूर ने कहा कि AI का इस्तेमाल गलत नहीं है, लेकिन बिना जांच के इसका उपयोग गंभीर समस्या पैदा कर सकता है। उनके अनुसार, वकील की जिम्मेदारी हमेशा बनी रहती है कि वह हर तथ्य और हर उद्धरण की पुष्टि करे।
वहीं, General Counsel’s Association of India के अध्यक्ष CV रघु ने कहा कि AI में नैतिक निर्णय लेने की क्षमता नहीं होती। इसलिए न्याय व्यवस्था में अंतिम जिम्मेदारी इंसान की ही रहनी चाहिए।
यह राय इस बात पर जोर देती है कि AI केवल एक सहायक तकनीक है, निर्णय लेने वाली इकाई नहीं।
कानूनी क्षेत्र में AI का बढ़ता प्रभाव
पिछले कुछ वर्षों में भारत में कानूनी क्षेत्र में AI का इस्तेमाल तेजी से बढ़ा है।
AI टूल्स का उपयोग मुख्य रूप से इन कार्यों में किया जा रहा है:
- कानूनी दस्तावेजों का ड्राफ्ट तैयार करना
- केस लॉ और पुराने निर्णयों की खोज
- लंबी कानूनी फाइलों का सारांश बनाना
- रिसर्च प्रक्रिया को तेज करना
इससे वकीलों का समय बचता है और काम की गति बढ़ती है, लेकिन इसके साथ ही गलत जानकारी का जोखिम भी बढ़ गया है।
कई मामलों में AI द्वारा गलत केस लॉ या फर्जी संदर्भ देने के कारण अदालतों में असहज स्थिति पैदा हुई है।
टेक विशेषज्ञों की चेतावनी: “AI को एजेंट नहीं, टूल की तरह इस्तेमाल करें”
टेक इंडस्ट्री के विशेषज्ञ भी मानते हैं कि AI को पूरी तरह स्वचालित निर्णय प्रणाली के रूप में नहीं देखा जाना चाहिए।
Humanizetech.ai के CEO जगदीश मित्रा ने कहा कि AI को केवल सहायक उपकरण नहीं बल्कि “मानव-निर्देशित सिस्टम” के रूप में विकसित करना चाहिए, जहां निर्णय का अंतिम अधिकार हमेशा इंसान के पास रहे।
उनका कहना है कि कानून जैसे संवेदनशील क्षेत्र में AI की गति से अधिक महत्वपूर्ण उसकी विश्वसनीयता है।
सबसे बड़ा सवाल: क्या AI न्याय व्यवस्था को प्रभावित कर रहा है?
यह पूरा विवाद एक बड़े सवाल को जन्म देता है—क्या AI धीरे-धीरे न्याय व्यवस्था में गलत प्रभाव डाल रहा है?
विशेषज्ञों के अनुसार, AI का उपयोग यदि नियंत्रित तरीके से हो तो यह न्याय प्रणाली को अधिक तेज और प्रभावी बना सकता है। लेकिन अगर बिना सत्यापन के इसे अपनाया गया, तो यह गलत फैसलों और कानूनी भ्रम की स्थिति पैदा कर सकता है।
निष्कर्ष: तकनीक जरूरी, लेकिन सत्यापन उससे भी ज्यादा जरूरी
भारत की अदालतों में AI का बढ़ता उपयोग एक नई तकनीकी क्रांति का संकेत है, लेकिन इसके साथ ही जिम्मेदारी और सतर्कता भी उतनी ही जरूरी है।
सुप्रीम कोर्ट और हाई कोर्ट्स का संदेश साफ है—AI मदद कर सकता है, लेकिन न्याय नहीं दे सकता। न्याय केवल मानव विवेक, कानून की समझ और सत्यापन पर आधारित हो सकता है।
आने वाले समय में यह देखना महत्वपूर्ण होगा कि भारत की न्याय प्रणाली AI को किस संतुलन के साथ अपनाती है—तेज फैसलों के लिए या सुरक्षित न्याय के लिए।
Also Read:


