सुप्रीम कोर्ट ने आर्टिफिशियल इंटेलिजेंस (AI) टूल द्वारा तैयार किए गए गैर-मौजूद अदालती फैसलों का हवाला देने वाले वादियों और कानूनी पेशेवरों के बढ़ते “खतरे” पर गहरी चिंता व्यक्त की है। जस्टिस राजेश बिंदल और जस्टिस विजय बिश्नोई की पीठ ने टिप्पणी की कि यह चलन न केवल भारतीय अदालतों में बल्कि पूरी दुनिया में तेजी से फैल रहा है, जो न्यायिक कार्यवाही की शुचिता के लिए एक बड़ी चुनौती है।
शीर्ष अदालत ने यह टिप्पणियां एक कंपनी के निदेशक द्वारा दायर उस याचिका पर सुनवाई के दौरान कीं, जिसमें बॉम्बे हाईकोर्ट द्वारा की गई कुछ टिप्पणियों को चुनौती दी गई थी। हालांकि सुप्रीम कोर्ट “रियायत के तौर पर” उन विशिष्ट टिप्पणियों को हटाने (expunge) पर सहमत हो गया, लेकिन उसने अदालत कक्ष में तकनीक के दुरुपयोग को लेकर कड़ी चेतावनी जारी की।
यह मामला बॉम्बे हाईकोर्ट के एक केस से शुरू हुआ था, जहां अदालत ने फरवरी और अप्रैल 2025 में दायर लिखित दलीलों में विसंगतियां देखी थीं। हाईकोर्ट ने नोट किया था कि ये दलीलें चैटजीपीटी (ChatGPT) जैसे एआई टूल का उपयोग करके तैयार की गई लगती हैं। अदालत ने इसके लिए “ग्रीन-बॉक्स टिक-मार्क”, बुलेट पॉइंट और दोहराव वाली भाषा जैसे कई स्पष्ट संकेतों का हवाला दिया था।
सबसे महत्वपूर्ण बात यह थी कि हाईकोर्ट ने “ज्योति बनाम दिनेश तुलसीयानी बनाम एलीगेंट एसोसिएट्स” नामक एक कथित केस लॉ (कानूनी मिसाल) के संदर्भ की ओर इशारा किया। जांच करने पर, अदालत और उसके लॉ क्लर्कों ने पाया कि वास्तविक दुनिया में ऐसे किसी फैसले का कोई अस्तित्व ही नहीं है।
हाईकोर्ट ने कहा था, “प्रतिवादी द्वारा न तो साइटेशन दिया गया है और न ही फैसले की प्रति उपलब्ध कराई गई है। यह अदालत और इसके लॉ क्लर्क इस केस लॉ को खोजने के लिए काफी मशक्कत करते रहे लेकिन इसे नहीं खोज सके। इसके परिणामस्वरूप कीमती न्यायिक समय बर्बाद हुआ है।”
सुप्रीम कोर्ट की पीठ ने हालांकि अपीलकर्ता के खिलाफ हाईकोर्ट की विशिष्ट टिप्पणियों को हटा दिया, लेकिन उसने एआई-जनित गलत सूचनाओं के संबंध में अंतर्निहित चिंता को सही ठहराया।
पीठ ने कहा, “तथ्य यह है कि यह खतरा अब सभी अदालतों में व्याप्त है, न केवल भारत में बल्कि पूरी दुनिया में। हर किसी को इसके बारे में सावधान रहने की जरूरत है। वास्तव में, यह अदालत पहले से ही न्यायिक पक्ष में इस मामले पर विचार कर रही है।”
न्यायपालिका ने इस बात पर जोर दिया कि हालांकि एआई टूल कानूनी शोध के लिए सहायता के रूप में काम कर सकते हैं, लेकिन सामग्री की सटीकता की अंतिम जिम्मेदारी संबंधित पक्षों की ही होती है। बॉम्बे हाईकोर्ट ने पहले भी नोट किया था कि एआई टूल द्वारा उत्पन्न संदर्भों और सामग्रियों को कानूनी आधार के रूप में प्रस्तुत करने से पहले उन्हें क्रॉस-वेरिफाई (सत्यापित) करने की “बड़ी जिम्मेदारी पक्षों पर है।”
कानूनी विशेषज्ञों का सुझाव है कि लार्ज लैंग्वेज मॉडल (LLM) द्वारा तथ्यों और साइटेशन का “मृगतृष्णा” (hallucination) पैदा करना एक ज्ञात तकनीकी सीमा है। हालांकि, जब ये मनगढ़ंत साइटेशन अदालत में पेश किए जाते हैं, तो वे न्याय में बाधा डाल सकते हैं और न्यायिक संसाधनों की बर्बादी का कारण बनते हैं। सुप्रीम कोर्ट की यह टिप्पणी कानूनी ड्राफ्टिंग और रिसर्च में एआई के उपयोग के संबंध में एक औपचारिक प्रोटोकॉल या दिशानिर्देशों की बढ़ती आवश्यकता को रेखांकित करती है।

