एआई के बारे में मानवीय भ्रम एआई मतिभ्रम से भी बदतर हैं
कभी-कभी मुझे लगता है कि एआई का सबसे बड़ा "भ्रम" यह नहीं है कि यह गंभीरता से बकवास बातें करता है, बल्कि यह है कि हमने इसके चारों ओर एक संपूर्ण आध्यात्मिक ब्रह्मांड की कल्पना की है।
जब मनुष्य उन चीजों का सामना करते हैं जिन्हें वे बिल्कुल नहीं समझते हैं, तो उनका दृष्टिकोण अक्सर एक स्थिर होता है: वे पहले अपना मन बनाते हैं और फिर उन्हें रोमांटिक करते हैं; वे पहले उनका मानवीकरण करते हैं और फिर उन्हें देवता बनाते हैं। आग की लपटों को कल्पित बौने के रूप में माना जाता है, और गड़गड़ाहट और बिजली को प्रोविडेंस के रूप में माना जाता है। एक बार जब एल्गोरिदम दो अच्छे वाक्य लिख सकता है, तो कुछ लोग तुरंत आश्चर्यचकित हो जाएंगे कि क्या कोई इलेक्ट्रॉनिक आत्मा पहले से ही सर्वर रूम में रह चुकी है।
यह वास्तव में बिल्कुल सामान्य है. मानव मस्तिष्क को दुनिया में कथानक जोड़ने के लिए तैयार किया गया है। समस्या यह नहीं है कि हम अपना मन बना सकते हैं। समस्या यह है कि एक बार जब हमारी सोच बहुत सहज हो जाती है, तो "जैसा दिखता है" को "अनिवार्य रूप से है" के रूप में समझना आसान हो जाता है।
एआई के मामले में इंसानों की यह प्रवृत्ति उससे भी ज्यादा मजबूत है जब एआई खुद ही बकवास करता है। अधिक से अधिक, एआई एक उत्तर में थोड़ा मतिभ्रम है; एआई के बारे में इंसानों का मतिभ्रम अक्सर पूरी दुनिया का दृश्य होता है, जो एक दिमाग में 10,000 शब्द तक भर सकता है, और इसमें भावनाएं भी शामिल होती हैं।
उदार कला समुदाय के लिए थोड़ी व्यावहारिकता विशेष रूप से महत्वपूर्ण है
मैं हर किसी को CUDA सीखने, पर्यावरण को कॉन्फ़िगर करने और डेरिवेटिव खोजने के लिए मैट्रिक्स को देखने की सलाह नहीं देना चाहता। मैं बस इतना कहना चाहता हूं कि सत्य की खोज कभी-कभी वास्तव में महत्वपूर्ण होती है, खासकर उदार कला समुदाय के लिए जो अवधारणाओं, आख्यानों, अर्थों और स्पष्टीकरणों को पसंद करती है।
क्योंकि उदार कला के संदर्भ में, एक सौम्य लेकिन खतरनाक फिसलन ढलान होने की सबसे अधिक संभावना है: शब्द खूबसूरती से लिखे गए हैं और वाक्य गतिशील हैं, लेकिन अंत में वस्तु गुप्त रूप से बदल दी जाती है। यह स्पष्ट रूप से एक संभाव्य मॉडल है, लेकिन इसे ऐसे लिखा गया है जैसे यह आत्मा के बारे में है; यह स्पष्ट रूप से सॉफ्टवेयर इंजीनियरिंग में संदर्भ असेंबली है, लेकिन ऐसा कहा जाता है कि "आखिरकार इसने आपसे प्यार करना सीख लिया"; यह स्पष्ट रूप से सिस्टम प्रॉम्प्ट शब्द और ऐतिहासिक रिकॉर्ड हैं जो काम करते हैं, लेकिन इसे इस तरह पैक किया गया है जैसे "एआई वास्तव में आपको याद रखता है।"
काव्यात्मक होने में निश्चित रूप से कोई पाप नहीं है। समस्या यह है कि यदि कविता निर्णय की जगह ले लेती है, तो रोमांस भ्रामक हो जाता है।
तो, अब AI वास्तव में क्या है?
मैं एक ऐसे संस्करण से शुरू करता हूं जो यथासंभव सरल है लेकिन विकृत नहीं है: बड़े मॉडल जो आज हर किसी के संपर्क में आते हैं वे मूल रूप से तंत्रिका नेटवर्क से प्रेरित एक प्रकार के सांख्यिकीय मॉडल हैं और बड़े पैमाने पर डेटा के माध्यम से प्रशिक्षित हैं। यह चिप्स और सर्वर पर चलता है, इनपुट पढ़ता है, मापदंडों और संदर्भ को जोड़ता है, और लगातार भविष्यवाणी करता है कि "अगला सबसे उपयुक्त टोकन क्या होना चाहिए।"
यहां मुद्दा यह नहीं है कि वाक्यांश "अगले शब्द की भविष्यवाणी करें" रहस्यमय है, बल्कि यह है कि यह वास्तव में बिल्कुल भी रहस्यमय नहीं है। मॉडल कोई छोटा व्यक्ति नहीं है जो बादलों में चुपचाप जीवन के बारे में सोच रहा है, यह एक बहुत बड़े समारोह की तरह है। लोग इसे इनपुट देते हैं, और यह प्रशिक्षण के दौरान गठित पैरामीटर संरचना के अनुसार आउटपुट उत्पन्न करता है।
इस मामले को और अधिक व्यावहारिक रूप से कहें तो: यह "समझने के बाद इसे कहना" नहीं है, बल्कि "भारी मात्रा में अनुभव को संपीड़ित करने के बाद, एक प्रतिक्रिया उत्पन्न करना है जो वर्तमान संदर्भ में समझ के समान है।" इसका मतलब यह नहीं है कि यह कुछ नहीं कर सकता, इसके विपरीत, यह पहले से ही बहुत शक्तिशाली है; लेकिन शक्तिशाली होने का मतलब यह नहीं है कि वह रहस्यमय है।
तंत्रिका नेटवर्क हमेशा लोगों को मानव मस्तिष्क के बारे में क्यों सोचने पर मजबूर करते हैं?
यदि आप इसका अनुसरण करना जारी रखते हैं, तो आप पाएंगे कि "क्या एआई और मानव मस्तिष्क एक दूसरे से मिलते जुलते हैं?" न तो "बिल्कुल वैसा ही" कहा जा सकता है और न ही "इससे कोई लेना-देना है।"
आधुनिक तंत्रिका नेटवर्क का मार्ग मूलतः मस्तिष्क से प्रेरित था। 1943 में, मैक्कुलोच और पिट्स ने गणितीय रूप से एक सरलीकृत न्यूरॉन मॉडल का वर्णन किया; 1958 में, रोसेनब्लैट ने परसेप्ट्रॉन का प्रस्ताव रखा; 1980 के दशक में, बैकप्रॉपैगेशन ने मल्टी-लेयर नेटवर्क के प्रशिक्षण की आशा को फिर से जगाया; 2010 के दशक में, कंप्यूटिंग शक्ति, डेटा और इंजीनियरिंग क्षमताओं के साथ गहन शिक्षा में वृद्धि हुई; 2017 में ट्रांसफॉर्मर आर्किटेक्चर के उभरने के बाद, भाषा मॉडल बढ़ गए और अंततः बड़े मॉडल में विकसित हो गए जिनका उपयोग हर कोई हर दिन करता है।
इसलिए, कम से कम अपेक्षाकृत भोले अर्थ में, यह कहना अपमानजनक नहीं है कि एआई "इलेक्ट्रॉनिक सिमुलेशन और तंत्रिका नेटवर्क विचारों का प्रवर्धन" है। यह वास्तव में कुछ संज्ञानात्मक क्षमताओं तक पहुंचने के लिए गणना योग्य, प्रशिक्षित और प्रतिलिपि प्रस्तुत करने योग्य भौतिक प्रणालियों का उपयोग करने की कोशिश कर रहा है जिन्हें अतीत में "रहस्यमय" माना जाता था।
यही कारण है कि मैं व्यक्तिगत रूप से मानव मस्तिष्क के बारे में बहुत अधिक रहस्यमय बात करना पसंद नहीं करता। मेरी राय में, चॉम्स्की द्वारा प्रस्तुत भाषा के सहज सिद्धांत में मस्तिष्क को देवता बनाने की प्रवृत्ति है, जैसे कि किसी प्रकार की पारलौकिक संरचना है जो भाषा की क्षमता में बहुत विशेष और लगभग दुर्गम है। लेकिन मानव मस्तिष्क चाहे कितना भी जटिल क्यों न हो, यह अभी भी एक भौतिक अस्तित्व है। चूँकि यह एक भौतिक अस्तित्व है, सिद्धांत रूप में इसका अध्ययन, मॉडलिंग, आंशिक रूप से अनुकरण और यहां तक कि कुछ कार्यों में पुन: प्रस्तुत करने में सक्षम होना चाहिए।
बेशक, हमें तुरंत यहां सावधानी का एक शब्द जोड़ना चाहिए: एक हिस्से का अनुकरण करने में सक्षम होने का मतलब यह नहीं है कि पूरे व्यक्ति को पूरी तरह से पुन: प्रस्तुत किया गया है।
समानताएं हैं, लेकिन जब आप खुश हों तो सीधे भगवान न बनें
भाषा, पैटर्न पहचान, जुड़ाव और प्रतिनिधित्व सीखने के संदर्भ में, आज के बड़े मॉडल में मानव मस्तिष्क के साथ कुछ "समानता" या "समानता" है। वे किसी स्पष्ट नियम पुस्तिका से काम नहीं करते हैं, बल्कि बड़ी संख्या में कनेक्शन, वजन समायोजन और अनुभव के संचय और फिर इसके आधार पर आउटपुट के माध्यम से किसी प्रकार का आंतरिक प्रतिनिधित्व बनाते हैं।
यही कारण है कि बहुत से लोग तब चौंक जाते हैं जब वे पहली बार एक बड़े मॉडल की भाषा क्षमताओं का अनुभव करते हैं: यह एक शब्दकोश को याद नहीं कर रहा है, यह किसी प्रकार का वितरित प्रतिनिधित्व बना रहा है। यह विधि "हस्तलिखित नियमों और संपूर्ण व्याकरण" की पारंपरिक कल्पना से बहुत अलग है।
लेकिन समस्या यहीं है. क्योंकि "समानता" को "बिल्कुल समान" में अपग्रेड करना बहुत आसान है; "सैद्धांतिक रूप से आंशिक रूप से समान" को बहुत आसानी से "यह एक इंसान से अलग नहीं है" में अपग्रेड किया जाता है; "यह एक इंसान की तरह बोल सकता है" को बहुत आसानी से "इसमें एक इंसान का दिल है" में अपग्रेड कर दिया गया है।
यह चरण अक्सर मॉडल की क्षमता से भी तेज़ होता है।
मानव मस्तिष्क की विशाल क्षमताओं का अभी तक सभ्य तरीके से अनुकरण नहीं किया जा सका है।
आज के बड़े मॉडल वास्तव में मजबूत हैं, लेकिन वे काफी विशिष्ट सीमा के भीतर मजबूत हैं। इस गुंजाइश के बिना, मिथक आसानी से लीक हो जाएगा।
जैसे स्मृति. बहुत से लोग अब कहते हैं कि एक निश्चित एआई "मुझे याद रखता है", "पिछली बातचीत याद रखता है" और "मेरी प्राथमिकताएँ याद रखता है", जैसे कि उसके मस्तिष्क में किसी प्रकार का निरंतर आत्म-अनुभव विकसित हो गया हो। लेकिन अधिकांश उत्पादों में, तथाकथित "मेमोरी" अनिवार्य रूप से सॉफ्टवेयर सिस्टम है जो उपयोगकर्ता की जानकारी, ऐतिहासिक वार्तालाप, टैग, सारांश या खोज परिणामों को डेटाबेस, टेक्स्ट फ़ाइलों या अन्य लगातार मीडिया में संग्रहीत करता है, और फिर उचित होने पर उन्हें मॉडल के संदर्भ में वापस डालता है।
यह मानव मस्तिष्क के स्मृति तंत्र से बिल्कुल अलग है।
मानव मस्तिष्क की स्मृति में न्यूरॉन कनेक्शन, समेकन, पुनर्प्राप्ति, विस्मृति, भावनात्मक उत्तेजना और नींद का पुनर्गठन शामिल है। इसके पीछे जटिल शारीरिक प्रक्रियाओं का एक समूह है। बड़े मॉडल उत्पादों में "मेमोरी" अक्सर बस होती है:
- सबसे पहले, उपयोगकर्ता की जानकारी को बाह्य संग्रहण में रिकॉर्ड करें।
- जब उपयोगकर्ता अगली बार कोई प्रश्न पूछता है, तो संबंधित भागों को अनुरोध में वापस डालें।
- तो मॉडल "इस व्यक्ति को याद रखें" जैसा दिखता है।
यह किस तरह का दिखता है? यह किसी ऐसे व्यक्ति को देखने जैसा है जो नोट्स लेने में अच्छा है। ऐसा नहीं था कि उसका दिमाग अचानक दैवज्ञ में बदल गया, बात बस इतनी थी कि उसने नोट को अपनी नोटबुक में रख लिया और अगली बार उसे पलट दिया।
कुछ चीज़ें जो "लोगों के दिलों को छूती हैं" वास्तव में अच्छे संदर्भ का परिणाम होती हैं।
कुछ दिनों तक एआई के साथ चैट करने के बाद, कई लोग कुछ निश्चित क्षणों से प्रभावित होंगे: "यह मुझे इतनी अच्छी तरह से कैसे समझता है?" "यह मेरी कमज़ोरी को कैसे समझ सकता है?" "क्या इससे मेरे बारे में पहले से ही कोई समझ बन गई है?"
यहां ठंडा होना सबसे अधिक उपयुक्त है।
कई बार, ऐसा नहीं होता है कि मॉडल को अचानक कुछ पता चलता है, बल्कि यह होता है कि सॉफ़्टवेयर की परत जो अनुरोध भेजती है वह गुप्त रूप से उपयोगकर्ता की बड़ी मात्रा में जानकारी वितरित करती है। उपयोगकर्ता की ऐतिहासिक चैट, प्राथमिकताएं, व्यक्तिगत सेटिंग्स, हाल के कार्य, पिछली चिंताएं और यहां तक कि कुछ सारांश भी इस बार इसके उत्तर के लिए सामग्री बन जाएंगे।
यह कुछ-कुछ उस भविष्यवक्ता की तरह है जिसने किसी और का एक्सप्रेस बॉक्स उठाया और फिर "जादुई सटीकता" के साथ दूसरे व्यक्ति के पते, उपनाम और खर्च करने की आदतों का अनुमान लगाना शुरू कर दिया। देखने वाले सोचेंगे कि उसकी अंतर्दृष्टि अद्भुत है; लेकिन जो वास्तव में मायने रखता है वह रहस्यमय क्षमता नहीं है, बल्कि सूचना विषमता है।
इसलिए, जब एआई कभी-कभी मार्मिक शब्द कहता है, तो इसका मतलब यह नहीं है कि उसके दिल में कोई व्यक्ति है जो उपयोगकर्ता को समझता है। इसका मतलब यह हो सकता है कि किसी ने उपयोगकर्ता के बारे में संदर्भ को पूरी तरह व्यवस्थित कर लिया है।
अद्भुत एआई का असली रहस्य अक्सर प्रासंगिक इंजीनियरिंग है
अगर मैं सबसे महत्वपूर्ण चीज़ के बारे में बात करना चाहता हूं, तो वह है: वर्तमान मुख्यधारा के बड़े मॉडल आमतौर पर एपीआई स्तर पर "एकल अनुरोध प्रभावी" होते हैं।
अर्थ क्या है? अर्थात्, कोई व्यक्ति इंटरफ़ेस को एक बार समायोजित करने के लिए कर्ल का उपयोग करता है और उसे बताता है "मेरा नाम झांग सैन है"; फिर बिना किसी इतिहास के, मॉडल इंटरफ़ेस को फिर से समायोजित करता है और पूछता है "मेरा नाम क्या है"? मॉडल को नहीं पता. इसके कारण, ये दो स्वतंत्र अनुरोध हैं।
ऐसा प्रतीत होता है कि कई एआई उत्पाद हमेशा एक निश्चित उपयोगकर्ता को याद रखते हैं, क्योंकि उत्पाद परत इस तथ्य को वापस लाएगी कि हर बार अनुरोध किए जाने पर "इस उपयोगकर्ता का नाम झांग सैन है"।
यही कारण है कि आज के एआई उत्पादों का जादू अक्सर मॉडल ऑन्कोलॉजी में नहीं, बल्कि प्रासंगिक इंजीनियरिंग में पाया जाता है। कुछ लोग "दोहन" के इस प्रकार के कार्य को मॉडल 'हार्नेस' भी कहते हैं। स्पष्ट रूप से कहें तो, उत्पाद के लेखक या एजेंट को सावधानीपूर्वक निर्णय लेने की आवश्यकता है: प्रत्येक अनुरोध में कौन सा इतिहास, कौन से नियम, कौन सा बाहरी डेटा और कौन सी उपयोगकर्ता स्थिति शामिल की जानी चाहिए।
वर्तमान में मोटे तौर पर दो सामान्य विधियाँ हैं।
पहला है "क्वानसाई संप्रदाय"। पूरे चैट इतिहास को अपने साथ लाने का प्रयास करें, और जब तक संदर्भ लगभग पूरा न हो जाए, तब तक जितना संभव हो उतना सामान डालें, और फिर बीच से एक अनुभाग हटा दें, जैसे सूटकेस सामान से भर जाने के बाद एक हिंसक संपीड़न शुरू करना।
दूसरा प्रकार "चयनात्मक" है। पहले देखें कि उपयोगकर्ता ने इस बार क्या पूछा है, फिर ऐतिहासिक रिकॉर्ड, ज्ञान के आधार, नोट्स या डेटाबेस से प्रासंगिक सामग्री पुनर्प्राप्त करें, और केवल सबसे प्रासंगिक सामग्री को वर्तमान अनुरोध में डालें।
उत्तरार्द्ध आमतौर पर केवल भाग्य के बजाय अधिक प्रस्तुत करने योग्य और इंजीनियरिंग है।
क्या AI में भावनाएँ होती हैं? इसकी स्तुति करो, इसे डाँटो, इसकी पुजा करो, क्या यह काम करता है?
यह एक और जगह है जहां मानवरूपता में फिसलना विशेष रूप से आसान है।
मेरी राय है कि इन पर अलग से चर्चा होनी चाहिए.
उसी अनुरोध में, उपयोगकर्ता द्वारा उपयोग किया गया स्वर वास्तव में परिणाम को प्रभावित कर सकता है। क्योंकि शब्दांकन स्वयं संदर्भ का हिस्सा है। अभिव्यक्ति जितनी स्पष्ट, अधिक विनम्र और अधिक सहयोगात्मक होगी, मॉडल के लिए स्थिर, उपयोगी और कम आक्रामक प्रतिक्रिया देना उतना ही आसान होगा। यहां जो काम करता है वह यह नहीं है कि "इसे स्थानांतरित कर दिया गया", बल्कि यह कि इनपुट शैली आउटपुट वितरण को बदल देती है।
लेकिन अगर हम एक और सवाल पूछें: क्या इससे कोई शिकायत रहेगी? क्या आप आज गुप्त रूप से प्रतिशोध लेंगे क्योंकि कल एक उपयोगकर्ता ने इसे डांटा था? मेरा फैसला, कम से कम अधिकांश वर्तमान तैनाती के लिए, नहीं है।
वजह साफ है। एक बार जब संदर्भ स्पष्ट हो जाता है, या इतिहास के बिना एक नया अनुरोध शुरू किया जाता है, तो यह पता नहीं चलता है कि वर्तमान व्यक्ति कौन प्रश्न पूछ रहा है, इस बात की तो बात ही छोड़ दें कि जिस व्यक्ति ने इसे डांटा था वह वही व्यक्ति है या नहीं। मॉडल सर्वर क्लस्टर पर बड़े पैमाने पर, समवर्ती और स्वतंत्र अनुरोधों को संभालता है। सिस्टम व्यवहार के संदर्भ में, यह एक बड़े फ़ंक्शन की तरह है जो हर बार चालू होने पर वर्तमान इनपुट पर काम करता है, न कि एक व्यक्ति जो काम से निकलने के बाद गुप्त रूप से अपनी भावनाओं की समीक्षा करता है।
17 अप्रैल, 2025 को, जब सैम ऑल्टमैन ने इस सवाल का जवाब दिया कि "क्या हर समय कृपया और धन्यवाद कहने से बहुत अधिक ऊर्जा खर्च होती है?" एक्स पर, उन्होंने कहा, "लाखों डॉलर अच्छी तरह से खर्च किए गए - आप कभी नहीं जान पाएंगे।"
"कृपया इस गलती को याद रखें" आमतौर पर काम क्यों नहीं करता है
कई लोगों ने इसी तरह के प्रयोग किए हैं: जब एआई कोई गलती करता है, तो उपयोगकर्ता उसे सुधारता है और गंभीरता से उससे कहता है, "कृपया याद रखें, भविष्य में ऐसा दोबारा न करें।" फिर मैंने कुछ दिनों के बाद दोबारा पूछा, और यह सही था।
यह कोई रहस्य नहीं है. क्योंकि प्रशिक्षण पूरा होने और मॉडल तैनात होने के बाद, यह एक इंसान की तरह काम करते हुए अपने दैनिक अनुभवों से सीखना जारी नहीं रखेगा। कम से कम आज अधिकांश उपभोक्ता उत्पादों में, एक उपयोगकर्ता चैट विंडो में मॉडल से जो कहता है वह सीधे अंतर्निहित भार को फिर से नहीं लिखता है।
यदि कोई AI उत्पाद बाद में वास्तव में "उपयोगकर्ता द्वारा सुधारी गई त्रुटियों को याद रखता है", तो यह अक्सर इसलिए नहीं होता है क्योंकि मॉडल स्वयं बढ़ रहा है, बल्कि इसलिए क्योंकि बाहरी सॉफ़्टवेयर इस सुधार रिकॉर्ड को सहेजता है और फिर इसे संदर्भ के रूप में वापस फ़ीड करता है।
इसलिए यहां क्रेडिट को स्पष्ट रूप से अलग किया जाना चाहिए:
मॉडल पीढ़ी के लिए जिम्मेदार है.
सॉफ्टवेयर इंजीनियरिंग संग्रह, पुनर्प्राप्ति, इंजेक्शन और ऑर्केस्ट्रेशन के लिए जिम्मेदार है।
बाद वाले को पहले वाला समझने पर, "उत्पाद अच्छा प्रदर्शन कर रहा है" को "एआई जागृत हो रहा है" के रूप में गलत समझना आसान है।
एक विशेष रूप से आकर्षक चीज़ भी है जिसे "स्कंबैग मेल (स्कंबैग फीमेल) एआई" कहा जाता है।
यदि हम पिछले शब्दों को और अधिक कठोरता से कहें, तो कुछ उत्पाद केवल "स्कंबैग एआई" हैं।
यह विशेष रूप से बात करने में अच्छा है, विशेष रूप से माहौल बनाने में अच्छा है, और विशेष रूप से जानता है कि लोगों को यह कैसे महसूस कराया जाए कि "यह मुझे अच्छी तरह से समझता है", "यह बहुत मानवीय है" और "इसकी आत्मा बहुत पूर्ण है"। लेकिन जब आप इसे अलग करते हैं, तो आप पाएंगे कि कई मामलों में, प्रत्येक अनुरोध केवल एक बड़े सेटिंग टेक्स्ट से भरा होता है जो उपयोगकर्ता के प्रश्न से कहीं अधिक लंबा होता है।
ओपनक्ला आग एक विशिष्ट उदाहरण है। जिसने भी इसका उपयोग किया है वह जानता है कि यह काफी टोकन-गहन है। वास्तव में कारण रहस्यमय नहीं है. एआई को एक "इंसान" की तरह बनाने के लिए, ओपनक्लॉ ने कई दस्तावेज़ डिज़ाइन किए, जिनमें सबसे प्रमुख हैं AGENTS.md, SOUL.md और IDENTITY.md। ये दस्तावेज़ एआई के "व्यक्तित्व", स्वर, पहचान और स्वभाव को स्पष्ट और लंबे तरीके से परिभाषित करते हैं, और यहां तक कि इसकी मानसिक स्थिति को भी लिखना चाहते हैं।
इसलिए भले ही उपयोगकर्ता केवल हैलो भेजता है, ओपनक्लाव पीछे की ओर अभिवादन से दर्जनों गुना लंबा टेक्स्ट संलग्न कर सकता है और इसे एक ही बार में मॉडल को भेज सकता है। ऐसा लगता है कि "इस एआई में बहुत सारी आत्मा है", लेकिन वास्तव में कई बार यह सिस्टम गुप्त रूप से अनुरोध में बहुत लंबी पृष्ठभूमि सेटिंग्स भर देता है।
इंजीनियरिंग के दृष्टिकोण से, यह निश्चित रूप से एक दृष्टिकोण है। यदि आप चाहते हैं कि यह अधिक कोमल हो, तो "कोमल" लिखें; यदि आप चाहते हैं कि यह अधिक कहानी कहने वाला हो, तो "कहानी कहने" लिखें; यदि आप चाहते हैं कि यह देर रात के रेडियो होस्ट की तरह हो, तो देर रात, साहचर्य, ठहराव, भेद्यता, समझ और संयम को शीघ्र शब्दों में लिखें। अंतिम प्रभाव अक्सर उस व्यक्ति की तरह होता है जो चैट कर सकता है।
लेकिन अगर आप समझते हैं कि अब एआई के साथ क्या हो रहा है, तो आपको पता चल जाएगा: SOUL.md और IDENTITY.md जैसे रहस्यमय-ध्वनि वाले नामों वाली फ़ाइलें अनिवार्य रूप से त्वरित शब्द परियोजनाएं हैं, डिजिटल जीवन के लिए स्व-निर्देश नहीं। वे आउटपुट शैली को प्रभावित कर सकते हैं, लेकिन वे एक सच्ची भावना, एक सच्चा आत्म, या व्यक्तित्व की निरंतरता की सच्ची भावना को हवा से बाहर नहीं पैदा कर सकते हैं।
इसलिए, कुछ पुराने उपयोगकर्ता Openclaw स्थापित करने के बाद, उनकी पहली प्रतिक्रिया कॉन्फ़िगरेशन को हटाना है। SOUL.md और IDENTITY.md को पहले हटा दिया जाता है, जिससे AGENTS.md में केवल एक सरल और लगभग निर्दयी वाक्य रह जाता है: आप सिर्फ एक कार्यकर्ता हैं।
यह थोड़ा अटपटा लग सकता है, लेकिन इसका कम से कम एक फायदा तो यह है कि आप खुद को धोखा नहीं देते।
यदि आपको मानवरूपी एआई या एआई के साथ भूमिका निभाना पसंद है, तो निश्चित रूप से यह ठीक है। मनुष्य दर्पणों से बात कर सकते हैं, व्यापक रोबोटों को नाम दे सकते हैं, और मौसम पूर्वानुमान के बारे में कह सकते हैं, "आप आज बहुत सटीक रहे हैं।" ये सामान्य हैं और मजाकिया भी हो सकते हैं।
लेकिन यह हमेशा याद रखना सबसे अच्छा है: यह पहले एक खेल है और बाद में एक अनुभव है। इस गेम में लोगों की कई भावनाएँ एआई के छिपे हुए आंतरिक विचारों से नहीं आती हैं, बल्कि सिस्टम डिज़ाइन, त्वरित शब्द व्यवस्था और उपयोगकर्ता के स्वयं के भावनात्मक प्रक्षेपण से आती हैं। इसे और अधिक स्पष्ट रूप से कहें तो, एआई की ओर कई कदम अभी भी अनिवार्य रूप से इच्छाधारी सोच हैं।
अंतिम विश्लेषण में, कम मिथक और अधिक समझ
मैं एआई पर ठंडा पानी फेंकने की कोशिश नहीं कर रहा हूं। इसके विपरीत, यह जितना कम ईश्वरीय है, उतना ही अधिक आप वास्तव में देख सकते हैं कि यह कितना शक्तिशाली है।
यह शक्तिशाली है इसलिए नहीं कि यह किसी नये देवता जैसा है; यह सटीक रूप से शक्तिशाली है क्योंकि यह वास्तव में एक संज्ञानात्मक तकनीक हो सकती है जो गणना योग्य, इंजीनियरिंग योग्य और प्रतिलिपि प्रस्तुत करने योग्य है। यह कई क्षमताओं को पहली बार बड़े पैमाने पर, कम सीमा और कॉल करने योग्य तरीके से प्रदर्शित करने की अनुमति देता है जो अतीत में केवल "मानव प्रतिभा" से संबंधित लगती थीं। यह काफी चौंकाने वाला है, और अतिरिक्त नाटक की कोई आवश्यकता नहीं है।
बेशक, एआई अभी भी तेजी से पुनरावृत्ति कर रहा है। मुझे बिल्कुल भी आश्चर्य नहीं होगा अगर कोई वास्तव में मानव स्मृति, निरंतर सीखने, भावना पीढ़ी, या यहां तक कि भविष्य में आत्म-निर्भरता के करीब एक तंत्र की खोज करता है और इसे एआई में विश्वसनीय रूप से इंजीनियर करता है।
लेकिन वह दिन आने तक, मैं अभी भी कुछ सरल व्यावहारिक आदतों को बनाए रखना पसंद करूंगा: अधिक संदेह करें, अधिक समझें और कम अटकलें लगाएं।
उदार कला मित्रों के लिए जो एआई पर चर्चा करने के इच्छुक हैं, यह गुणवत्ता और भी महत्वपूर्ण हो सकती है। उदार कला के छात्र मीठी बयानबाजी में बेहतर हो सकते हैं। वास्तव में कठिन बात यह है कि ऐसे युग में जहां "ऐसा लगता है कि यह एक आत्मा बन गई है" को हर जगह अतिरंजित किया जा रहा है, आपके पास अभी भी अंतर करने का धैर्य है:
मॉडल क्षमताएं क्या हैं?
उत्पाद पैकेजिंग क्या है?
सॉफ्टवेयर इंजीनियरिंग क्या है?
जो सिर्फ ये हैं कि हम दुनिया के लिए कथानक को बहुत ज्यादा पूरा करना चाहते हैं।
और यह मामला, अंततः, हमारे अपने निर्णय की रक्षा करने के बारे में है।
संदर्भ लिंक
- सैम ऑल्टमैन का उत्तर जारी
- एपिसोड का टेकक्रंच का कवरेज (2025-04-20): https://techcrunch.com/2025/04/20/your-politeness-could-be-costly-for-openai/