11 دقائق قراءة

الأوهام البشرية حول الذكاء الاصطناعي أسوأ من هلوسة الذكاء الاصطناعي

رسم توضيحي: الخيال البشري الذي يجسد الذكاء الاصطناعي مقابل كيفية عمل الذكاء الاصطناعي فعليًا

أشعر أحيانًا أن "الوهم" الأكبر للذكاء الاصطناعي لا يتمثل في أنه يتحدث عن الهراء على محمل الجد، بل في أننا تخيلنا عالمًا ميتافيزيقيًا كاملاً من حوله.

عندما يواجه البشر أشياء لا يفهمونها تمامًا، غالبًا ما يكون لديهم نهج مستقر: يتخذون قرارهم أولاً ثم يضفي عليهم طابعًا رومانسيًا؛ إنهم يجسدونهم أولاً ثم يؤلهونهم. يُنظر إلى النيران على أنها جن، ويُنظر إلى الرعد والبرق على أنها العناية الإلهية. بمجرد أن تتمكن الخوارزمية من كتابة جملتين لائقتين، سيتساءل بعض الأشخاص على الفور عما إذا كانت الروح الإلكترونية قد عاشت بالفعل في غرفة الخادم.

وهذا في الواقع طبيعي تماما. إن العقل البشري مهيئ لإضافة مؤامرة إلى العالم. المشكلة ليست في أننا نستطيع أن نحسم أمرنا. المشكلة هي أنه بمجرد أن يكون تفكيرنا سلسًا جدًا، فمن السهل أن نخطئ بين عبارة "يبدو" و"في الأساس هو".

وفي حالة الذكاء الاصطناعي، فإن هذا الاتجاه لدى البشر أقوى مما كان عليه عندما يتحدث الذكاء الاصطناعي نفسه عن هراء. على الأكثر، الذكاء الاصطناعي هو مجرد هلوسة صغيرة في الإجابة؛ غالبًا ما تكون هلوسة البشر حول الذكاء الاصطناعي عبارة عن رؤية عالمية كاملة، والتي يمكن أن تملأ ما يصل إلى 10000 كلمة في عقل واحد، وتحتوي أيضًا على مشاعر.

إن القليل من البراغماتية مهم بشكل خاص لمجتمع الفنون الليبرالية

لا أريد أن أنصح الجميع بتعلم CUDA، وتكوين البيئة، والنظر في المصفوفات للعثور على المشتقات. أريد فقط أن أقول إن السعي وراء الحقيقة يكون في بعض الأحيان أمرًا مهمًا حقًا، خاصة بالنسبة لمجتمع الفنون الليبرالية الذي يحب المفاهيم والسرد والمعاني والتفسيرات.

لأنه في سياق الفنون الليبرالية، من المرجح أن يحدث منحدر زلق لطيف ولكن خطير: الكلمات مكتوبة بشكل جميل والجمل تتحرك، ولكن في النهاية يتم تغيير الكائن سرا. من الواضح أنه نموذج احتمالي، لكنه مكتوب وكأنه يدور حول الروح؛ من الواضح أنه تجميع سياق في هندسة البرمجيات، ولكن يُقال مثل "لقد تعلم أخيرًا أن يحبك"؛ من الواضح أن الكلمات الموجهة للنظام والسجلات التاريخية هي التي تعمل، ولكنها مُعبأة مثل "الذكاء الاصطناعي يتذكرك حقًا".

بالتأكيد ليس هناك خطيئة في أن تكون شاعرياً. المشكلة هي أنه إذا حل الشعر محل الحكم، فإن الرومانسية تصبح مضللة.

إذن، ما هو الذكاء الاصطناعي الآن؟

اسمحوا لي أن أبدأ بنسخة بسيطة قدر الإمكان ولكنها غير مشوهة: النماذج الكبيرة التي يتعامل معها الجميع اليوم هي في الأساس نوع من النماذج الإحصائية المستوحاة من الشبكات العصبية ويتم تدريبها من خلال البيانات الضخمة. فهو يعمل على الرقائق والخوادم، ويقرأ المدخلات، ويجمع بين المعلمات والسياق، ويتنبأ باستمرار "بما يجب أن يكون عليه الرمز المميز التالي الأكثر ملاءمة".

النقطة هنا ليست أن عبارة "توقع الكلمة التالية" غامضة، ولكنها في الواقع ليست غامضة على الإطلاق. النموذج ليس شخصًا صغيرًا متجمعًا في السحاب يفكر بصمت في الحياة، بل هو أشبه بوظيفة ضخمة للغاية. يمنحها الأشخاص مدخلات، وتولد مخرجات وفقًا لهيكل المعلمة الذي تم تشكيله أثناء التدريب.

ولتوضيح الأمر بشكل أكثر واقعية: الأمر لا يعني "قل ذلك بعد أن تفهمه"، ولكن "بعد ضغط قدر كبير من الخبرة، قم بتوليد استجابة تشبه إلى حد كبير الفهم في السياق الحالي". هذا لا يعني أنه لا يستطيع فعل أي شيء، بل على العكس من ذلك، فهو بالفعل قوي جدًا؛ لكن كونها قوية لا يعني أنها غامضة.

لماذا تجعل الشبكات العصبية الناس يفكرون دائمًا في الدماغ البشري؟

رسم توضيحي: الجدول الزمني لتطوير الشبكة العصبية

إذا واصلت متابعته، ستجد أن سؤال "هل الذكاء الاصطناعي والأدمغة البشرية يشبهان بعضهما البعض؟" لا يمكن القول بأنه "نفس الشيء تمامًا" ولا "ليس له علاقة به".

مسار الشبكات العصبية الحديثة مستوحى في الأصل من الدماغ. في عام 1943، وصف ماكولوتش وبيتس رياضيًا نموذجًا مبسطًا للخلايا العصبية؛ في عام 1958، اقترح روزنبلات الإدراك الحسي؛ وفي الثمانينيات، أحيا الانتشار العكسي الأمل في تدريب شبكات متعددة الطبقات؛ وفي العقد الأول من القرن الحادي والعشرين، ارتفع مستوى التعلم العميق بفضل القدرات الحاسوبية والبيانات والقدرات الهندسية؛ بعد ظهور بنية Transformer في عام 2017، ارتفعت نماذج اللغة وتطورت أخيرًا إلى النماذج الكبيرة التي يستخدمها الجميع كل يوم.

لذلك، على الأقل بالمعنى الساذج نسبيًا، ليس من الغريب أن نقول إن الذكاء الاصطناعي هو "محاكاة إلكترونية وتضخيم لأفكار الشبكات العصبية". إنها تحاول بالفعل استخدام أنظمة فيزيائية قابلة للحساب، وقابلة للتدريب، وقابلة للتكرار للتعامل مع بعض القدرات المعرفية التي كانت تعتبر "غامضة" في الماضي.

ولهذا السبب أنا شخصياً لا أحب أن أتحدث عن الدماغ البشري باعتباره غامضاً للغاية. في رأيي، فإن النظرية الفطرية للغة التي يمثلها تشومسكي تميل إلى تأليه الدماغ، كما لو أن هناك نوعًا من البنية المتعالية الخاصة للغاية والتي لا يمكن الوصول إليها تقريبًا في عمق القدرة اللغوية. ولكن بغض النظر عن مدى تعقيد الدماغ البشري، فإنه لا يزال وجودا ماديا. نظرًا لأنه وجود مادي، فمن حيث المبدأ يجب أن يكون قابلاً للدراسة، والنمذجة، والمحاكاة الجزئية، وحتى إعادة إنتاجه في وظائف معينة.

بالطبع، يجب أن نضيف على الفور كلمة تحذير هنا: القدرة على محاكاة جزء ما لا تعني أن الشخص بأكمله قد تم إعادة إنتاجه بالكامل.

هناك أوجه تشابه، لكن لا تصبح إلهًا مباشرة عندما تكون سعيدًا

فيما يتعلق باللغة، والتعرف على الأنماط، وتعلم الارتباط والتمثيل، فإن النماذج الكبيرة الحالية لديها بعض "التشابه" أو "التشابه" مع الدماغ البشري. إنهم لا يعملون من كتاب قواعد صريح، بل يشكلون نوعًا من التمثيل الداخلي من خلال عدد كبير من الاتصالات وتعديلات الوزن وتراكم الخبرة، ومن ثم الإخراج بناءً على ذلك.

ولهذا السبب يصاب العديد من الأشخاص بالصدمة عندما يختبرون القدرات اللغوية لنموذج كبير لأول مرة: فهو لا يحفظ قاموسًا، بل يشكل نوعًا من التمثيل الموزع. تختلف هذه الطريقة تمامًا عن الخيال التقليدي لـ "القواعد المكتوبة بخط اليد والقواعد الشاملة".

لكن المشكلة تكمن هنا بالتحديد. لأنه من السهل جدًا ترقية "التشابه" إلى "نفس الشيء تمامًا"؛ من السهل جدًا ترقية عبارة "مشابه جزئيًا من حيث المبدأ" إلى "لا تختلف عن الإنسان"؛ يمكن بسهولة ترقية عبارة "يمكنه التحدث كإنسان" إلى "لديه قلب بشري".

غالبًا ما تكون هذه الخطوة أسرع من قدرة النموذج نفسها.

ولا يزال يتعين محاكاة القدرات الهائلة للدماغ البشري بطريقة لائقة.

النماذج الكبيرة اليوم قوية حقًا، لكنها قوية ضمن نطاق محدد إلى حد ما. وبدون هذا النطاق، سوف تتسرب الأسطورة بسهولة.

مثل الذاكرة. يقول الكثير من الناس الآن أن ذكاءً اصطناعيًا معينًا "يتذكرني"، و"يتذكر آخر محادثة" و"يتذكر تفضيلاتي"، كما لو أن دماغه قد نما نوعًا من الخبرة الذاتية المستمرة. ولكن في معظم المنتجات، ما يسمى "الذاكرة" هو في الأساس نظام برمجي يقوم بتخزين معلومات المستخدم أو المحادثات التاريخية أو العلامات أو الملخصات أو نتائج البحث في قواعد البيانات أو الملفات النصية أو الوسائط الثابتة الأخرى، ثم إدراجها مرة أخرى في سياق النموذج عندما يكون ذلك مناسبًا.

وهذا يختلف تمامًا عن آلية الذاكرة في الدماغ البشري.

تتضمن ذاكرة الدماغ البشري اتصال الخلايا العصبية، وتوحيدها، واسترجاعها، والنسيان، والإثارة العاطفية، وإعادة هيكلة النوم. وخلفها مجموعة من العمليات الفسيولوجية المعقدة. غالبًا ما تكون "الذاكرة" في المنتجات ذات النماذج الكبيرة هي:

  1. أولاً، قم بتسجيل معلومات المستخدم في وحدة التخزين الخارجية.
  2. عندما يطرح المستخدم سؤالاً في المرة القادمة، ضع الأجزاء ذات الصلة مرة أخرى في الطلب.
  3. لذلك يبدو النموذج مثل "تذكر هذا الشخص".

كيف تبدو؟ إنه أشبه بمشاهدة شخص جيد في تدوين الملاحظات. لم يكن الأمر أن عقله تحول فجأة إلى وحي، كل ما في الأمر أنه وضع الملاحظة في دفتر ملاحظاته وقلبها في المرة القادمة.

بعض الأشياء التي "تلمس قلوب الناس" هي في الواقع نتيجة للسياق الجيد.

رسم توضيحي: كل طلب مستقل في الواقع، والشعور بالاستمرارية يأتي بشكل أساسي من هندسة السياق.

بعد الدردشة مع الذكاء الاصطناعي لبضعة أيام، سيصاب العديد من الأشخاص بلحظات معينة: "كيف يفهمني الذكاء الاصطناعي جيدًا؟" "كيف يمكنه حتى أن يفهم ضعفي؟" "هل شكلت بالفعل فهمًا لي؟"

الأمر يستحق التبريد هنا.

في كثير من الأحيان، لا يعني ذلك أن النموذج يدرك شيئًا ما فجأة، ولكن طبقة البرنامج التي ترسل الطلب توفر سرًا كمية كبيرة من معلومات المستخدم. ستصبح الدردشات التاريخية للمستخدم وتفضيلاته وإعداداته الشخصية والمهام الأخيرة والمخاوف السابقة وحتى بعض الملخصات هي المادة لإجابته هذه المرة.

إنه يشبه إلى حد ما العراف الذي التقط صندوق البريد السريع الخاص بشخص آخر ثم بدأ في تخمين عنوان الشخص الآخر ولقبه وعادات الإنفاق "بدقة سحرية". سوف يظن المتفرجون أن بصيرته مذهلة؛ لكن ما يهم حقًا ليس القدرة الغامضة، بل عدم تناسق المعلومات.

لذلك، عندما يقول الذكاء الاصطناعي أحيانًا كلمات مؤثرة، فهذا لا يعني بالضرورة أن هناك شخصًا في قلبه يفهم المستخدم. قد يعني ذلك فقط أن شخصًا ما قد قام بتنظيم السياق الخاص بالمستخدم بشكل كامل.

غالبًا ما يكون السر الحقيقي للذكاء الاصطناعي المذهل هو الهندسة السياقية

إذا كنت أريد فقط أن أتحدث عن الشيء الأكثر أهمية، فهو: النماذج الكبيرة السائدة الحالية عادةً ما تكون "فعّالة لطلب واحد" على مستوى واجهة برمجة التطبيقات.

ما هو المعنى؟ أي أن شخصًا ما يستخدم "curl" لضبط الواجهة مرة واحدة ويقول لها "اسمي Zhang San"؛ ثم بدون أي سجل، يقوم النموذج بضبط الواجهة مرة أخرى ويسأل "ما اسمي"؟ النموذج لا يعرف. لأن هذين طلبين مستقلين.

السبب الذي يجعل العديد من منتجات الذكاء الاصطناعي تتذكر دائمًا مستخدمًا معينًا هو أن طبقة المنتج ستعيد حقيقة أن "اسم هذا المستخدم هو Zhang San" في كل مرة يتم طلبها.

ولهذا السبب، لا يوجد سحر منتجات الذكاء الاصطناعي اليوم في علم الوجود النموذجي، بل في الهندسة السياقية. يطلق بعض الأشخاص أيضًا على هذا النوع من عمل "التسخير" اسم "التسخير" النموذجي. بصراحة، يحتاج مؤلف المنتج أو الوكيل إلى أن يقرر بعناية: أي سجل، وأي قواعد، وأي بيانات خارجية، وحالة المستخدم التي يجب تضمينها في كل طلب.

هناك طريقتان شائعتان تقريبًا في الوقت الحاضر.

الأول هو "طائفة كوانساي". حاول إحضار سجل الدردشة بأكمله معك، قدر الإمكان، حتى يمتلئ السياق تقريبًا، ثم احذف قسمًا من المنتصف، تمامًا مثل بدء ضغط عنيف بعد امتلاء حقيبة السفر بالأشياء.

النوع الثاني هو "انتقائي". انظر أولاً إلى ما طلبه المستخدم هذه المرة، ثم استخرج المحتوى ذي الصلة من السجلات التاريخية أو قواعد المعرفة أو الملاحظات أو قواعد البيانات، ثم ضع المواد الأكثر صلة فقط في الطلب الحالي.

عادة ما يكون الأخير أكثر مظهرًا وهندسة وليس مجرد حظ.

هل لدى الذكاء الاصطناعي مشاعر؟ امدحه، وبخه، وPUA، هل ينجح؟

هذا مكان آخر يسهل فيه الانزلاق إلى التجسيم.

رأيي هو أنه ينبغي مناقشتها بشكل منفصل.

وفي نفس الطلب، قد تؤثر النغمة التي يستخدمها المستخدم بالفعل على النتيجة. لأن الصياغة نفسها جزء من السياق. كلما كان التعبير أكثر وضوحًا وأكثر تهذيبًا وتعاونًا، كان من الأسهل على النموذج تقديم استجابات مستقرة وقابلة للاستخدام وأقل عدوانية. ما ينجح هنا ليس أنه "تم نقله"، ولكن نمط الإدخال يغير توزيع المخرجات.

ولكن إذا طرحنا سؤالاً آخر: هل سيحمل ضغينة؟ هل ستنتقم سرًا اليوم لأن أحد المستخدمين وبخه بالأمس؟ حكمي هو، على الأقل بالنسبة لمعظم عمليات النشر الحالية، لا.

السبب بسيط. بمجرد مسح السياق، أو بدء طلب جديد بدون سجل، ليس لديه أي فكرة عن الشخص الحالي الذي يطرح السؤال، ناهيك عما إذا كان الشخص الذي وبخه للتو هو نفس الشخص. يتعامل النموذج مع الطلبات الضخمة والمتزامنة والمستقلة على مجموعة الخادم. من حيث سلوك النظام، فهو أشبه بوظيفة كبيرة تعمل على المدخلات الحالية في كل مرة يتم تشغيلها، وليس شخصًا يراجع عواطفه سرًا بعد الخروج من العمل.

في 17 أبريل 2025، عندما أجاب سام ألتمان على سؤال "هل قول من فضلك وشكرًا لك طوال الوقت يكلف الكثير من الطاقة؟" في برنامج X، قال: "عشرات الملايين من الدولارات أنفقت بشكل جيد - أنت لا تعرف أبدًا".

لماذا لا تعمل عبارة "الرجاء تذكر هذا الخطأ" عادةً؟

لقد أجرى العديد من الأشخاص تجارب مماثلة: عندما يرتكب الذكاء الاصطناعي خطأ ما، يقوم المستخدم بتصحيحه ويقول له بجدية: "من فضلك تذكر، لا تفعل ذلك مرة أخرى في المستقبل". ثم سألت مرة أخرى بعد بضعة أيام، وكان صحيحا.

هذا ليس لغزا. لأنه بعد اكتمال التدريب ونشر النموذج، لن يستمر في التعلم من تجاربه اليومية أثناء العمل كإنسان. على الأقل في معظم المنتجات الاستهلاكية اليوم، ما يقوله مستخدم واحد للنموذج في نافذة الدردشة لا يعيد كتابة الأوزان الأساسية مباشرة.

إذا تذكر أحد منتجات الذكاء الاصطناعي لاحقًا "الأخطاء التي صححها المستخدم"، فغالبًا ما لا يكون ذلك بسبب أن النموذج نفسه ينمو، ولكن لأن البرنامج الخارجي يحفظ سجل التصحيح هذا ثم يعيده كسياق.

لذلك ينبغي تمييز الائتمان بوضوح هنا:

النموذج مسؤول عن التوليد.

هندسة البرمجيات مسؤولة عن الأرشفة والاسترجاع والحقن والتنسيق.

عند الخلط بين الأخير والأول، من السهل أن نخطئ في قراءة عبارة "المنتج يعمل بشكل جيد" على أنها "صحوة الذكاء الاصطناعي".

هناك أيضًا شيء رائع بشكل خاص يسمى "الذكاء الاصطناعي للذكر الحثالة (الأنثى الحثالة)"

إذا وضعنا الكلمات السابقة بشكل أكثر قسوة، فإن بعض المنتجات هي ببساطة "ذكاء اصطناعي حقير".

إنه جيد بشكل خاص في التحدث، وخاصة جيد في خلق الجو، ويعرف بشكل خاص كيف يجعل الناس يشعرون بأنه "يفهمني جيدًا"، و"إنه إنساني جدًا" و"روحه كاملة جدًا". ولكن عند تفكيكها، ستجد أنه في كثير من الحالات، يتم ملء كل طلب بنص إعداد كبير أطول بكثير من سؤال المستخدم.

حريق Openclaw هو مثال نموذجي. أي شخص استخدمه يعرف أنه كثيف الاستخدام للرموز. والسبب في الواقع ليس غامضا. ومن أجل جعل الذكاء الاصطناعي أشبه بـ"الإنسان"، صمم Openclaw عدة وثائق، أبرزها "AGENTS.md"، و"SOUL.md"، و"IDENTITY.md". تحدد هذه الوثائق "شخصية" الذكاء الاصطناعي ولهجته وهويته ومزاجه بطريقة بليغة وطويلة، بل إنها تريد تدوين حالته العقلية.

لذا، حتى لو أرسل المستخدم "مرحبًا" فقط، فقد يرفق Openclaw نصًا أطول بعشرات المرات من التحية في الخلف ويرسله إلى العارضة مرة واحدة. يبدو أن "هذا الذكاء الاصطناعي يتمتع بالكثير من الروح"، ولكن في الواقع في كثير من الأحيان يكون النظام مجرد حشو إعدادات خلفية طويلة جدًا في الطلب سرًا.

من وجهة نظر هندسية، هذا بالتأكيد نهج. إذا كنت تريد أن تكون أكثر لطفًا، فاكتب "لطيف"؛ إذا كنت تريد أن يكون الأمر أكثر سردًا للقصص، فاكتب "سرد القصص"؛ إذا كنت تريد أن تكون مثل مذيع الراديو في وقت متأخر من الليل، فاكتب كل ما حدث في وقت متأخر من الليل، والرفقة، والتوقف، والضعف، والتفاهم، وضبط النفس في الكلمات السريعة. غالبًا ما يكون التأثير النهائي أشبه بشخص يمكنه الدردشة.

ولكن إذا فهمت ما يحدث مع الذكاء الاصطناعي الآن، فسوف تعرف: الملفات ذات الأسماء الغامضة مثل SOUL.md وIDENTITY.md هي في الأساس مشاريع كلمات فورية، وليست تعليمات ذاتية للحياة الرقمية. يمكنهم التأثير على أسلوب الإخراج، لكنهم لا يستطيعون خلق شعور حقيقي، أو ذات حقيقية، أو إحساس حقيقي باستمرارية الشخصية من لا شيء.

لذلك، بعد قيام بعض المستخدمين القدامى بتثبيت Openclaw، يكون رد فعلهم الأول هو حذف التكوين. يتم حذف SOUL.md وIDENTITY.md أولاً، مما يترك جملة واحدة بسيطة وقاسية تقريبًا في AGENTS.md: أنت مجرد عامل.

قد يبدو هذا وقحا بعض الشيء، ولكن له فائدة واحدة على الأقل، وهي أنك لا تخدع نفسك.

إذا كنت تحب الذكاء الاصطناعي المجسم أو لعب الأدوار باستخدام الذكاء الاصطناعي، فلا بأس بالطبع. يستطيع البشر التحدث إلى المرايا، وإعطاء أسماء للروبوتات الكانسة، والقول لتوقعات الطقس: "لقد كنت دقيقًا جدًا اليوم". هذه طبيعية ويمكن أن تكون مضحكة.

ولكن من الأفضل دائمًا أن تتذكر: إنها لعبة أولاً ثم تجربة ثانيًا. العديد من المشاعر التي يشعر بها الأشخاص في هذه اللعبة لا تأتي من الأفكار الداخلية المخفية للذكاء الاصطناعي، ولكن من تصميم النظام، والترتيب السريع للكلمات، والإسقاط العاطفي للمستخدم. وبعبارة أكثر صراحة، فإن العديد من التحركات نحو الذكاء الاصطناعي لا تزال في الأساس مجرد تفكير بالتمني.

في التحليل النهائي، أساطير أقل وفهم أكثر

أنا لا أحاول إلقاء الماء البارد على الذكاء الاصطناعي. على العكس من ذلك، كلما كان أقل تأليهًا، كلما تمكنت من رؤية مدى قوته حقًا.

إنها قوية ليس لأنها مثل إله جديد؛ إنها قوية على وجه التحديد لأنها قد تكون حقًا تقنية معرفية قابلة للحساب، وقابلة للهندسة، وقابلة للتكرار. إنه يسمح للعديد من القدرات التي بدا أنها تنتمي فقط إلى "المواهب البشرية" في الماضي بالظهور على نطاق واسع ومنخفض العتبة وقابلة للاستدعاء لأول مرة. وهذا أمر صادم بما فيه الكفاية، وليس هناك حاجة لمزيد من الدراما.

وبطبيعة الحال، لا يزال الذكاء الاصطناعي يتكرر بسرعة. لن أتفاجأ على الإطلاق إذا اكتشف شخص ما آلية أقرب إلى الذاكرة البشرية، أو التعلم المستمر، أو توليد المشاعر، أو حتى الاكتفاء الذاتي في المستقبل وقام بتصميمها بشكل موثوق في الذكاء الاصطناعي.

ولكن إلى أن يأتي ذلك اليوم، ما زلت أفضل الاحتفاظ ببعض العادات العملية البسيطة: زيادة الشك، وفهم المزيد، وتقليل التكهنات.

بالنسبة لأصدقاء الفنون الليبرالية الذين يحرصون على مناقشة الذكاء الاصطناعي، قد تكون هذه الخاصية أكثر أهمية. قد يكون طلاب الفنون الليبرالية أفضل في الخطابة اللطيفة. الأمر الصعب حقًا هو أنه في عصر يتم فيه المبالغة في عبارة "يبدو أنها أصبحت روحًا" في كل مكان، لا يزال لديك الصبر للتمييز:

ما هي قدرات النموذج؟

ما هو تغليف المنتج؟

ما هي هندسة البرمجيات؟

أي منها نريد فقط إكمال الحبكة للعالم أكثر من اللازم.

وهذا الأمر، في نهاية المطاف، يتعلق بحماية حكمنا.

الرابط المرجعي