11 منٹ

اے آئی کے بارے میں انسانی فریب AI ہیلوسینیشن سے بھی بدتر ہیں۔

مثال: انسانی تخیل جو AI کو دیوتا بناتا ہے بمقابلہ AI اصل میں کیسے کام کرتا ہے۔

کبھی کبھی میں محسوس کرتا ہوں کہ AI کا سب سے بڑا "وہم" یہ نہیں ہے کہ یہ بکواس کو سنجیدگی سے بولتا ہے، بلکہ یہ کہ ہم نے اس کے ارد گرد ایک مکمل مابعد الطبیعیاتی کائنات کا تصور کیا ہے۔

جب انسانوں کو ان چیزوں کا سامنا کرنا پڑتا ہے جو وہ بالکل نہیں سمجھتے ہیں، تو وہ اکثر ایک مستحکم نقطہ نظر رکھتے ہیں: وہ پہلے اپنا ذہن بناتے ہیں اور پھر ان پر رومانوی کرتے ہیں۔ وہ پہلے ان کی شخصیت بناتے ہیں اور پھر ان کو معبود بناتے ہیں۔ شعلوں کو یلوس کے طور پر سمجھا جاتا ہے، اور گرج اور بجلی کو پروویڈنس سمجھا جاتا ہے۔ ایک بار جب الگورتھم دو مہذب جملے لکھ سکتا ہے، کچھ لوگ فوری طور پر حیران ہوں گے کہ آیا سرور روم میں ایک الیکٹرانک روح پہلے سے ہی رہ چکی ہے۔

یہ دراصل کافی نارمل ہے۔ انسانی دماغ کو دنیا میں پلاٹ شامل کرنے کے لیے وائرڈ کیا گیا ہے۔ مسئلہ یہ نہیں ہے کہ ہم اپنا ذہن بنا سکتے ہیں۔ مسئلہ یہ ہے کہ ایک بار جب ہماری سوچ بہت ہموار ہو جائے تو، "لازمی طور پر ہے" کے لیے "لگتا ہے" کو غلطی کرنا آسان ہے۔

AI کے معاملے میں انسانوں کا یہ رجحان اس سے بھی زیادہ مضبوط ہوتا ہے جب AI خود بکواس کرتا ہے۔ زیادہ سے زیادہ، AI ایک جواب میں ایک چھوٹا سا فریب ہے۔ AI کے بارے میں انسانوں کا فریب نظر اکثر پوری دنیا کا نظریہ ہوتا ہے، جو ایک ذہن میں 10,000 الفاظ تک بھر سکتا ہے اور اس میں جذبات بھی شامل ہیں۔

لبرل آرٹس کمیونٹی کے لیے تھوڑا سا عملیت پسندی خاص طور پر اہم ہے۔

میں ہر ایک کو CUDA سیکھنے، ماحول کو ترتیب دینے، اور مشتقات تلاش کرنے کے لیے میٹرکس کو دیکھنے کا مشورہ نہیں دینا چاہتا۔ میں صرف یہ کہنا چاہتا ہوں کہ سچائی کی تلاش بعض اوقات واقعی اہم ہوتی ہے، خاص طور پر لبرل آرٹس کمیونٹی کے لیے جو تصورات، بیانیہ، معانی اور وضاحت سے محبت کرتی ہے۔

کیونکہ لبرل آرٹس کے تناظر میں، ایک نرم لیکن خطرناک پھسلتی ڈھلوان سب سے زیادہ واقع ہوتی ہے: الفاظ خوبصورتی سے لکھے جاتے ہیں اور جملے حرکت پذیر ہوتے ہیں، لیکن آخر میں اعتراض کو خفیہ طور پر تبدیل کر دیا جاتا ہے۔ یہ ظاہر ہے کہ ایک امکانی نمونہ ہے، لیکن یہ اس طرح لکھا گیا ہے جیسے یہ روح کے بارے میں ہے۔ یہ واضح طور پر سافٹ ویئر انجینئرنگ میں سیاق و سباق کی اسمبلی ہے، لیکن یہ اس طرح کہا جاتا ہے کہ "اس نے آخرکار آپ سے محبت کرنا سیکھ لیا"؛ یہ واضح طور پر سسٹم پرامپٹ الفاظ اور تاریخی ریکارڈز ہیں جو کام کرتے ہیں، لیکن یہ اس طرح پیک کیا گیا ہے جیسے "AI واقعی آپ کو یاد کرتا ہے۔"

شاعری کرنے میں یقیناً کوئی گناہ نہیں۔ مسئلہ یہ ہے کہ اگر شاعری فیصلے کی جگہ لے لے تو رومانس گمراہ کن ہو جاتا ہے۔

تو، اب اصل میں AI کیا ہے؟

مجھے ایک ایسے ورژن کے ساتھ شروع کرنے دیں جو ممکن حد تک آسان ہو لیکن مسخ شدہ نہ ہو: بڑے ماڈلز جن سے آج ہر کوئی رابطہ میں آتا ہے بنیادی طور پر ایک قسم کا شماریاتی ماڈل ہے جو نیورل نیٹ ورکس سے متاثر ہوتا ہے اور بڑے ڈیٹا کے ذریعے تربیت یافتہ ہوتا ہے۔ یہ چپس اور سرورز پر چلتا ہے، ان پٹ پڑھتا ہے، پیرامیٹرز اور سیاق و سباق کو یکجا کرتا ہے، اور مسلسل پیش گوئی کرتا ہے کہ "اگلا سب سے مناسب ٹوکن کیا ہونا چاہیے۔"

یہاں بات یہ نہیں ہے کہ "اگلے لفظ کی پیشین گوئی کریں" کا جملہ پراسرار ہے، بلکہ یہ حقیقت میں بالکل بھی پراسرار نہیں ہے۔ ماڈل کوئی چھوٹا سا شخص نہیں ہے جو بادلوں میں چپکے چپکے زندگی کے بارے میں سوچتا ہے، یہ ایک بہت بڑے فنکشن کی طرح ہے۔ لوگ اسے ان پٹ دیتے ہیں، اور یہ تربیت کے دوران بنائے گئے پیرامیٹر ڈھانچے کے مطابق آؤٹ پٹ پیدا کرتا ہے۔

اس معاملے کو مزید نیچے رکھنے کے لیے: یہ "سمجھنے کے بعد اسے کہنا" نہیں ہے، بلکہ "بہت سارے تجربے کو کم کرنے کے بعد، ایسا ردعمل پیدا کریں جو موجودہ تناظر میں سمجھنے جیسا ہو۔" اس کا مطلب یہ نہیں ہے کہ وہ کچھ نہیں کر سکتا، اس کے برعکس، یہ پہلے ہی بہت طاقتور ہے۔ لیکن طاقتور ہونے کا مطلب یہ نہیں ہے کہ یہ پراسرار ہے۔

کیوں نیورل نیٹ ورک ہمیشہ لوگوں کو انسانی دماغ کے بارے میں سوچنے پر مجبور کرتے ہیں؟

مثال: نیورل نیٹ ورک کی ترقی کی ٹائم لائن

اگر آپ اس کا تعاقب جاری رکھیں گے تو آپ کو معلوم ہوگا کہ "کیا AI اور انسانی دماغ ایک دوسرے سے ملتے جلتے ہیں؟" نہ تو "بالکل ایک جیسا" کہا جا سکتا ہے اور نہ ہی "اس سے کوئی تعلق نہیں ہے۔"

جدید نیورل نیٹ ورکس کا راستہ اصل میں دماغ سے متاثر تھا۔ 1943 میں، McCulloch اور Pitts نے ریاضیاتی طور پر ایک آسان نیوران ماڈل بیان کیا۔ 1958 میں، روزنبلاٹ نے پرسیپٹرون تجویز کیا۔ 1980 کی دہائی میں، بیک پروپیگیشن نے ملٹی لیئر نیٹ ورکس کی تربیت کی امید کو پھر سے جگایا۔ 2010 کی دہائی میں، کمپیوٹنگ کی طاقت، ڈیٹا، اور انجینئرنگ کی صلاحیتوں کے ساتھ گہری سیکھنے میں اضافہ ہوا۔ 2017 میں ٹرانسفارمر فن تعمیر کے ابھرنے کے بعد، زبان کے ماڈلز میں اضافہ ہوا اور آخر کار بڑے ماڈلز میں اضافہ ہوا جسے ہر کوئی روزانہ استعمال کرتا ہے۔

لہذا، کم از کم ایک نسبتاً سادہ معنی میں، یہ کہنا کہ AI "الیکٹرانک تخروپن اور اعصابی نیٹ ورک کے خیالات کو بڑھانا" ہے۔ یہ درحقیقت کمپیوٹیبل، قابل تربیت، اور قابل تولید جسمانی نظام کو استعمال کرنے کی کوشش کر رہا ہے تاکہ بعض علمی صلاحیتوں تک رسائی حاصل کی جا سکے جنہیں ماضی میں "پراسرار" سمجھا جاتا تھا۔

یہی وجہ ہے کہ میں ذاتی طور پر انسانی دماغ کے بارے میں زیادہ پراسرار بات کرنا پسند نہیں کرتا۔ میری رائے میں، چومسکی کی طرف سے پیش کردہ زبان کا فطری نظریہ دماغ کو دیوتا بنانے کا رجحان رکھتا ہے، گویا کوئی ماورائی ساخت ہے جو زبان کی صلاحیت میں بہت خاص اور تقریباً ناقابل رسائی ہے۔ لیکن انسانی دماغ چاہے کتنا ہی پیچیدہ کیوں نہ ہو، یہ اب بھی ایک جسمانی وجود ہے۔ چونکہ یہ ایک طبعی وجود ہے، اصولی طور پر اس کا مطالعہ، ماڈلنگ، جزوی طور پر نقلی، اور یہاں تک کہ بعض افعال میں دوبارہ پیش کرنے کے قابل ہونا چاہیے۔

بلاشبہ، ہمیں فوری طور پر یہاں احتیاط کا ایک لفظ شامل کرنا چاہئے: کسی حصے کی نقل کرنے کے قابل ہونے کا مطلب یہ نہیں ہے کہ پورا شخص مکمل طور پر دوبارہ تیار کیا گیا ہے۔

مماثلتیں ہیں، لیکن جب آپ خوش ہوں تو براہ راست خدا نہ بنیں۔

زبان، پیٹرن کی شناخت، ایسوسی ایشن اور نمائندگی سیکھنے کے لحاظ سے، آج کے بڑے ماڈلز انسانی دماغ سے کچھ "مماثلت" یا "مماثلت" رکھتے ہیں۔ وہ کسی واضح اصول کی کتاب سے کام نہیں کرتے ہیں، لیکن بڑی تعداد میں رابطوں، وزن میں ایڈجسٹمنٹ اور تجربے کے جمع، اور پھر اس کی بنیاد پر آؤٹ پٹ کے ذریعے کسی قسم کی اندرونی نمائندگی کرتے ہیں۔

یہی وجہ ہے کہ بہت سے لوگ حیران ہوتے ہیں جب وہ پہلی بار کسی بڑے ماڈل کی زبان کی صلاحیتوں کا تجربہ کرتے ہیں: یہ لغت کو یاد نہیں کر رہا ہے، یہ کسی طرح کی تقسیم شدہ نمائندگی تشکیل دے رہا ہے۔ یہ طریقہ "ہاتھ سے لکھے گئے قواعد اور جامع گرامر" کے روایتی تخیل سے بہت مختلف ہے۔

لیکن مسئلہ بالکل یہاں ہے۔ کیونکہ "مماثلت" کو بہت آسانی سے "بالکل وہی" میں اپ گریڈ کیا جاتا ہے۔ "اصول میں جزوی طور پر مماثلت" کو بہت آسانی سے "یہ انسان سے مختلف نہیں ہے" میں اپ گریڈ کیا جاتا ہے۔ "یہ ایک انسان کی طرح بول سکتا ہے" بہت آسانی سے "اس کا انسانی دل ہے" میں اپ گریڈ کیا جاتا ہے۔

یہ قدم اکثر ماڈل کی صلاحیت سے زیادہ تیز ہوتا ہے۔

انسانی دماغ کی وسیع صلاحیتوں کو ابھی تک مہذب طریقے سے نقل کرنا باقی ہے۔

آج کے بڑے ماڈل واقعی مضبوط ہیں، لیکن وہ کافی حد تک مضبوط ہیں۔ اس گنجائش کے بغیر، افسانہ آسانی سے لیک ہو جائے گا.

جیسے یاداشت۔ بہت سے لوگ اب کہتے ہیں کہ ایک مخصوص AI "مجھے یاد رکھتا ہے"، "آخری بات چیت کو یاد رکھتا ہے" اور "میری ترجیحات کو یاد رکھتا ہے"، گویا اس کے دماغ نے کسی قسم کے جاری خود تجربہ کو بڑھایا ہے۔ لیکن زیادہ تر مصنوعات میں، نام نہاد "میموری" بنیادی طور پر سافٹ ویئر سسٹم ہے جو صارف کی معلومات، تاریخی گفتگو، ٹیگز، خلاصے یا تلاش کے نتائج کو ڈیٹا بیس، ٹیکسٹ فائلز یا دیگر مستقل میڈیا میں محفوظ کرتا ہے، اور پھر مناسب ہونے پر انہیں ماڈل کے سیاق و سباق میں واپس داخل کرتا ہے۔

یہ انسانی دماغ کے میموری میکانزم سے بالکل مختلف ہے۔

انسانی دماغ کی یادداشت میں نیوران کنکشن، استحکام، بازیافت، بھول جانا، جذباتی حوصلہ افزائی، اور نیند کی تنظیم نو شامل ہے۔ اس کے پیچھے پیچیدہ جسمانی عمل کا ایک مجموعہ ہے۔ بڑے ماڈل کی مصنوعات میں "میموری" اکثر صرف ہوتی ہے:

  1. سب سے پہلے، صارف کی معلومات کو بیرونی اسٹوریج میں ریکارڈ کریں۔
  2. جب صارف اگلی بار کوئی سوال پوچھے تو متعلقہ حصوں کو دوبارہ درخواست میں ڈال دیں۔
  3. تو ماڈل ایسا لگتا ہے کہ "اس شخص کو یاد رکھیں"۔

یہ کیسا لگتا ہے؟ یہ کسی ایسے شخص کو دیکھنے کی طرح ہے جو نوٹ لینے میں اچھا ہے۔ ایسا نہیں تھا کہ اس کا دماغ اچانک ایک اوریکل میں بدل گیا، بس یہ تھا کہ اس نے نوٹ کو اپنی نوٹ بک میں ڈالا اور اسے اگلی بار پلٹ دیا۔

کچھ چیزیں جو "لوگوں کے دلوں کو چھوتی ہیں" دراصل اچھے سیاق و سباق کا نتیجہ ہوتی ہیں۔

مثال: ہر درخواست دراصل خود مختار ہے، اور تسلسل کا احساس بنیادی طور پر سیاق و سباق کی انجینئرنگ سے آتا ہے۔

کچھ دنوں تک AI کے ساتھ چیٹ کرنے کے بعد، بہت سے لوگ بعض لمحات سے متاثر ہوں گے: "یہ مجھے اتنی اچھی طرح سے کیسے سمجھتا ہے؟" "یہ میری کمزوری کو کیسے سمجھ سکتا ہے؟" "کیا اس سے پہلے ہی میرے بارے میں کوئی سمجھ پیدا ہو گئی ہے؟"

یہ یہاں ٹھنڈا کرنے کے قابل ہے۔

کئی بار، ایسا نہیں ہے کہ ماڈل کو اچانک کسی چیز کا احساس ہو جاتا ہے، لیکن یہ کہ سافٹ ویئر کی پرت جو درخواست بھیجتی ہے خفیہ طور پر صارف کی معلومات کی ایک بڑی مقدار فراہم کرتی ہے۔ صارف کی تاریخی گفتگو، ترجیحات، ذاتی ترتیبات، حالیہ کام، پچھلی پریشانیاں، اور یہاں تک کہ کچھ خلاصے بھی اس بار اس کے جواب کے لیے مواد بن جائیں گے۔

یہ تھوڑا سا قسمت کہنے والے کی طرح ہے جس نے کسی اور کا ایکسپریس باکس اٹھایا اور پھر "جادو کی درستگی" کے ساتھ دوسرے شخص کے پتہ، کنیت اور خرچ کرنے کی عادات کا اندازہ لگانا شروع کیا۔ تماشائی سوچیں گے کہ اس کی بصیرت حیرت انگیز ہے۔ لیکن جو چیز واقعی اہمیت رکھتی ہے وہ پراسرار صلاحیت نہیں بلکہ معلومات کی مطابقت ہے۔

لہٰذا، جب AI کبھی کبھار دل کو چھونے والے الفاظ کہتا ہے، تو اس کا مطلب یہ نہیں ہوتا کہ اس کے دل میں کوئی ایسا شخص ہے جو صارف کو سمجھتا ہے۔ اس کا مطلب صرف یہ ہو سکتا ہے کہ کسی نے صارف کے بارے میں سیاق و سباق کو مکمل طور پر ترتیب دیا ہے۔

حیرت انگیز AI کا اصل راز اکثر متعلقہ انجینئرنگ ہے۔

اگر میں صرف سب سے اہم چیز کے بارے میں بات کرنا چاہتا ہوں، تو یہ ہے: موجودہ مرکزی دھارے کے بڑے ماڈل عام طور پر API کی سطح پر "سنگل درخواست موثر" ہوتے ہیں۔

کیا مطلب ہے؟ یعنی، کوئی ایک بار انٹرفیس کو ایڈجسٹ کرنے کے لیے curl کا استعمال کرتا ہے اور اسے کہتا ہے "My name is Zhang San"؛ پھر بغیر کسی تاریخ کے، ماڈل دوبارہ انٹرفیس کو ایڈجسٹ کرتا ہے اور پوچھتا ہے "میرا نام کیا ہے"؟ ماڈل کو نہیں معلوم۔ کیونکہ اس کے نزدیک یہ دو آزاد درخواستیں ہیں۔

بہت سے AI پروڈکٹس کے ایک مخصوص صارف کو ہمیشہ یاد رکھنے کی وجہ یہ ہے کہ پروڈکٹ کی پرت اس حقیقت کو واپس لائے گی کہ "اس صارف کا نام ژانگ سان ہے" جب بھی اس کی درخواست کی جائے گی۔

یہی وجہ ہے کہ آج کی AI پروڈکٹس کا جادو اکثر ماڈل آنٹولوجی میں نہیں بلکہ سیاق و سباق کی انجینئرنگ میں پایا جاتا ہے۔ کچھ لوگ اس قسم کے کام کو "ہارنسنگ" کا ماڈل بھی کہتے ہیں۔ اسے دو ٹوک الفاظ میں کہنے کے لیے، پروڈکٹ کے مصنف یا ایجنٹ کو احتیاط سے فیصلہ کرنے کی ضرورت ہے: ہر درخواست میں کون سی تاریخ، کون سے اصول، کون سا بیرونی ڈیٹا، اور صارف کی کون سی حیثیت شامل ہونی چاہیے۔

اس وقت تقریباً دو عام طریقے ہیں۔

پہلا "قونسائی فرقہ" ہے۔ اپنے ساتھ چیٹ کی پوری سرگزشت لانے کی کوشش کریں، اور سیاق و سباق کے تقریباً مکمل ہونے تک جتنا ہو سکے مواد رکھیں، اور پھر بیچ سے کسی حصے کو حذف کر دیں، بالکل اسی طرح جیسے ایک سوٹ کیس سامان سے بھر جانے کے بعد پرتشدد کمپریشن شروع کرنا۔

دوسری قسم "منتخب" ہے۔ پہلے دیکھیں کہ صارف نے اس بار کیا پوچھا، پھر تاریخی ریکارڈ، علمی بنیادوں، نوٹس یا ڈیٹا بیس سے متعلقہ مواد کو بازیافت کریں، اور موجودہ درخواست میں صرف انتہائی متعلقہ مواد ڈالیں۔

مؤخر الذکر عام طور پر صرف قسمت کے بجائے زیادہ پیش کرنے والا اور انجینئرنگ ہوتا ہے۔

کیا AI کو احساسات ہیں؟ اس کی تعریف کریں، اسے ڈانٹیں، اسے PUA کریں، کیا یہ کام کرتا ہے؟

یہ ایک اور جگہ ہے جہاں خاص طور پر انتھروپمورفزم میں پھسلنا آسان ہے۔

میری رائے یہ ہے کہ ان پر الگ سے بحث ہونی چاہیے۔

اسی درخواست میں، صارف کی طرف سے استعمال کردہ ٹون واقعی نتیجہ کو متاثر کر سکتا ہے۔ کیونکہ الفاظ خود سیاق و سباق کا حصہ ہیں۔ جتنا واضح، زیادہ شائستہ، اور زیادہ تعاون پر مبنی اظہار ہوگا، ماڈل کے لیے مستحکم، قابل استعمال، اور کم جارحانہ ردعمل دینا اتنا ہی آسان ہوگا۔ یہاں جو کام کرتا ہے وہ یہ نہیں ہے کہ "اسے منتقل کیا گیا تھا"، بلکہ یہ کہ ان پٹ اسٹائل آؤٹ پٹ کی تقسیم کو تبدیل کرتا ہے۔

لیکن اگر ہم ایک اور سوال پوچھیں: کیا اس میں کوئی رنجش ہوگی؟ کیا آپ آج چپکے سے جوابی کارروائی کریں گے کیونکہ کل ایک صارف نے اسے ڈانٹا تھا؟ میرا فیصلہ ہے، کم از کم زیادہ تر موجودہ تعیناتیوں کے لیے، نہیں۔

وجہ سادہ ہے۔ ایک بار جب سیاق و سباق صاف ہو جائے، یا تاریخ کے بغیر ایک نئی درخواست شروع ہو جائے، تو اسے کوئی اندازہ نہیں ہوتا کہ موجودہ شخص کون سوال کر رہا ہے، چھوڑ دو کہ جس شخص نے ابھی اسے ڈانٹا ہے وہ وہی شخص ہے۔ ماڈل سرور کلسٹر پر بڑے پیمانے پر، ہم آہنگی، اور آزاد درخواستوں کو ہینڈل کرتا ہے۔ سسٹم کے رویے کے لحاظ سے، یہ ایک بڑے فنکشن کی طرح ہے جو ہر وقت موجودہ ان پٹ پر کام کرتا ہے، بجائے اس کے کہ وہ شخص جو کام سے فارغ ہونے کے بعد چپکے سے اپنے جذبات کا جائزہ لیتا ہے۔

17 اپریل 2025 کو، جب سیم آلٹ مین نے اس سوال کا جواب دیا کہ "کیا ہر وقت مہربانی اور شکریہ کہنے میں بہت زیادہ توانائی خرچ ہوتی ہے؟" ایکس پر، اس نے کہا کہ "دسیوں ملین ڈالر اچھی طرح سے خرچ ہوئے -- آپ کو کبھی معلوم نہیں۔"

کیوں "براہ کرم اس غلطی کو یاد رکھیں" عام طور پر کام نہیں کرتا ہے۔

بہت سے لوگوں نے اسی طرح کے تجربات کیے ہیں: جب AI غلطی کرتا ہے، صارف اسے درست کرتا ہے اور سنجیدگی سے اسے کہتا ہے، "براہ کرم یاد رکھیں، مستقبل میں دوبارہ ایسا نہ کریں۔" پھر میں نے کچھ دنوں کے بعد دوبارہ پوچھا، اور یہ درست تھا۔

یہ کوئی معمہ نہیں ہے۔ کیونکہ تربیت مکمل ہونے کے بعد اور ماڈل کی تعیناتی کے بعد، یہ انسان کی طرح کام کرتے ہوئے اپنے روزمرہ کے تجربات سے سیکھنا جاری نہیں رکھے گا۔ کم از کم آج کل زیادہ تر صارفین کی مصنوعات میں، ایک صارف چیٹ ونڈو میں ماڈل کو جو کچھ کہتا ہے وہ براہ راست بنیادی وزن کو دوبارہ نہیں لکھتا ہے۔

اگر کوئی AI پروڈکٹ بعد میں واقعی "صارف کی طرف سے درست کی گئی غلطیوں کو یاد رکھتا ہے"، تو یہ اکثر اس لیے نہیں ہوتا کہ ماڈل خود بڑھ رہا ہے، بلکہ اس لیے کہ بیرونی سافٹ ویئر اس اصلاحی ریکارڈ کو محفوظ کرتا ہے اور پھر اسے سیاق و سباق کے طور پر فیڈ کرتا ہے۔

لہذا کریڈٹ کو یہاں واضح طور پر ممتاز کیا جانا چاہئے:

ماڈل نسل کے لیے ذمہ دار ہے۔

سافٹ ویئر انجینئرنگ آرکائیونگ، بازیافت، انجیکشن، اور آرکیسٹریشن کے لیے ذمہ دار ہے۔

پہلے کے لیے مؤخر الذکر کو غلط سمجھ کر، "مصنوعہ اچھی کارکردگی کا مظاہرہ کر رہی ہے" کے طور پر "AI بیدار ہو رہی ہے" کو غلط پڑھنا آسان ہے۔

ایک خاص طور پر دلچسپ چیز بھی ہے جسے "scumbag male (scumbag female) AI" کہا جاتا ہے۔

اگر ہم پچھلے الفاظ کو اور بھی سختی سے ڈالتے ہیں، تو کچھ پروڈکٹس صرف "scumbag AI" ہوتے ہیں۔

یہ بات کرنے میں خاص طور پر اچھا ہے، خاص طور پر ماحول بنانے میں اچھا ہے، اور خاص طور پر یہ جانتا ہے کہ کس طرح لوگوں کو یہ احساس دلانا ہے کہ "یہ مجھے اچھی طرح سمجھتا ہے"، "یہ بہت انسانی ہے" اور "اس کی روح بہت مکمل ہے"۔ لیکن جب آپ اسے الگ کرتے ہیں، تو آپ دیکھیں گے کہ بہت سے معاملات میں، ہر درخواست صرف ایک بڑی ترتیب والے متن سے بھری ہوتی ہے جو صارف کے سوال سے کہیں زیادہ لمبی ہوتی ہے۔

اوپن کلا فائر ایک عام مثال ہے۔ جس نے بھی اسے استعمال کیا ہے وہ جانتا ہے کہ یہ کافی ٹوکن-انٹینسیو ہے۔ وجہ دراصل پراسرار نہیں ہے۔ AI کو ایک "انسان" جیسا بنانے کے لیے، Openclaw نے کئی دستاویزات ڈیزائن کیں، جن میں سب سے نمایاں ہیں AGENTS.md، SOUL.md اور IDENTITY.md۔ یہ دستاویزات AI کی "شخصیت"، لہجے، شناخت اور مزاج کو فصیح اور لمبے انداز میں بیان کرتی ہیں، اور یہاں تک کہ اس کی ذہنی حالت کو بھی لکھنا چاہتی ہیں۔

لہذا یہاں تک کہ اگر صارف صرف 'ہیلو' بھیجتا ہے، Openclaw پیچھے سے سلام سے درجنوں گنا لمبا متن منسلک کر سکتا ہے اور اسے ایک ساتھ ماڈل کو بھیج سکتا ہے۔ ایسا لگتا ہے کہ "اس AI میں بہت زیادہ روح ہے"، لیکن درحقیقت کئی بار یہ صرف سسٹم ہے جو خفیہ طور پر بہت طویل پس منظر کی ترتیبات کو درخواست میں بھرتا ہے۔

انجینئرنگ کے نقطہ نظر سے، یہ یقینی طور پر ایک نقطہ نظر ہے. اگر آپ چاہتے ہیں کہ یہ زیادہ نرم ہو تو "نرم" لکھیں۔ اگر آپ چاہتے ہیں کہ یہ مزید کہانی سنانے والا ہو، تو "کہانی سنانے" لکھیں۔ اگر آپ چاہتے ہیں کہ یہ رات گئے ریڈیو کے میزبان کی طرح ہو، تو رات گئے، صحبت، توقف، کمزوری، سمجھ بوجھ، اور تحمل کو فوری الفاظ میں لکھیں۔ حتمی اثر اکثر اس شخص کی طرح ہوتا ہے جو چیٹ کر سکتا ہے۔

لیکن اگر آپ سمجھتے ہیں کہ اب AI کے ساتھ کیا ہو رہا ہے، تو آپ کو معلوم ہو جائے گا: پراسرار آواز والے ناموں والی فائلیں جیسے SOUL.md اور IDENTITY.md بنیادی طور پر فوری الفاظ کے منصوبے ہیں، نہ کہ ڈیجیٹل زندگی کے لیے خود ہدایات۔ وہ آؤٹ پٹ سٹائل کو متاثر کر سکتے ہیں، لیکن وہ ایک حقیقی احساس، ایک حقیقی خود، یا پتلی ہوا سے شخصیت کے تسلسل کا حقیقی احساس پیدا نہیں کر سکتے ہیں۔

لہذا، کچھ پرانے صارفین Openclaw کو انسٹال کرنے کے بعد، ان کا پہلا ردعمل کنفیگریشن کو حذف کرنا ہے۔ SOUL.md اور IDENTITY.md کو پہلے حذف کر دیا جاتا ہے، AGENTS.md میں صرف ایک سادہ اور تقریباً بے رحم جملہ چھوڑ دیا جاتا ہے: آپ صرف ایک کارکن ہیں۔

یہ تھوڑا سا بدتمیز لگ سکتا ہے، لیکن اس کا کم از کم ایک فائدہ ہے، وہ یہ ہے کہ آپ اپنے آپ کو دھوکہ نہیں دیتے۔

اگر آپ اینتھروپمورفک AI یا AI کے ساتھ کردار ادا کرنا پسند کرتے ہیں، تو یقیناً یہ ٹھیک ہے۔ انسان آئینے سے بات کر سکتا ہے، جھاڑو دینے والے روبوٹس کو نام دے سکتا ہے، اور موسم کی پیشین گوئی سے کہہ سکتا ہے، "آج آپ بہت درست رہے ہیں۔" یہ عام ہیں اور مضحکہ خیز بھی ہو سکتے ہیں۔

لیکن یہ ہمیشہ یاد رکھنا بہتر ہے: یہ پہلا کھیل ہے اور دوسرا تجربہ۔ اس گیم میں لوگوں کے بہت سے احساسات AI کے چھپے ہوئے اندرونی خیالات سے نہیں آتے بلکہ سسٹم کے ڈیزائن، فوری الفاظ کی ترتیب اور صارف کے اپنے جذباتی انداز سے آتے ہیں۔ مزید دو ٹوک الفاظ میں، AI کی طرف بہت سے اقدامات اب بھی بنیادی طور پر خواہش مند سوچ ہیں۔

آخری تجزیے میں خرافات کم اور فہم زیادہ

میں AI پر ٹھنڈا پانی پھینکنے کی کوشش نہیں کر رہا ہوں۔ اس کے برعکس، یہ جتنا کم معبود ہے، اتنا ہی زیادہ آپ دیکھ سکتے ہیں کہ یہ کتنا طاقتور ہے۔

یہ طاقتور نہیں ہے کیونکہ یہ کسی نئے خدا کی طرح ہے۔ یہ خاص طور پر طاقتور ہے کیونکہ یہ واقعی ایک علمی ٹکنالوجی ہو سکتی ہے جو کمپیوٹیبل، قابل انجینئر، اور دوبارہ پیدا کرنے کے قابل ہے۔ یہ بہت سی صلاحیتوں کو اجازت دیتا ہے جو ماضی میں صرف "انسانی ٹیلنٹ" سے تعلق رکھتی تھیں، انہیں پہلی بار بڑے پیمانے پر، کم حد تک، اور قابل قبول انداز میں ظاہر ہونے کی اجازت دیتا ہے۔ یہ کافی چونکا دینے والا ہے، اور اضافی ڈرامے کی ضرورت نہیں ہے۔

یقینا، AI اب بھی تیزی سے اعادہ کر رہا ہے۔ مجھے بالکل حیرانی نہیں ہوگی اگر کوئی حقیقت میں انسانی یادداشت، مسلسل سیکھنے، جذبات پیدا کرنے، یا مستقبل میں خود کفالت کے قریب ترین میکانزم کو دریافت کرتا ہے اور اسے AI میں قابل اعتماد طریقے سے انجینئر کرتا ہے۔

لیکن جب تک وہ دن نہیں آتا، میں اب بھی کچھ سادہ عملی عادات کو برقرار رکھنے کو ترجیح دیتا ہوں: زیادہ شک کرنا، زیادہ سمجھنا، اور کم قیاس کرنا۔

لبرل آرٹس کے دوستوں کے لیے جو AI پر بات کرنے کے خواہشمند ہیں، یہ معیار اور بھی اہم ہو سکتا ہے۔ لبرل آرٹس کے طالب علم میٹھی بیان بازی میں بہتر ہو سکتے ہیں۔ جو واقعی مشکل ہے وہ یہ ہے کہ اس دور میں جہاں "یہ روح بن گیا ہے" کو ہر جگہ بڑھا چڑھا کر پیش کیا جا رہا ہے، پھر بھی آپ میں تمیز کرنے کا صبر ہے:

ماڈل کی صلاحیتیں کیا ہیں؟

مصنوعات کی پیکیجنگ کیا ہے؟

سافٹ ویئر انجینئرنگ کیا ہے؟

کون سے صرف یہ ہیں کہ ہم دنیا کے لئے بہت زیادہ پلاٹ مکمل کرنا چاہتے ہیں۔

اور یہ معاملہ، بالآخر، ہمارے اپنے فیصلے کی حفاظت کے بارے میں ہے۔

حوالہ لنک