11 דקות קריאה

הזיות אנושיות לגבי בינה מלאכותית גרועות יותר מהזיות בינה מלאכותית

אילוסטרציה: דמיון אנושי המהלל את הבינה המלאכותית לעומת האופן שבו בינה מלאכותית עובדת

לפעמים אני מרגיש שה"אשליה" הכי גדולה של AI היא לא שהוא מדבר שטויות ברצינות, אלא שדמיינו סביבו יקום מטפיזי שלם.

כשבני אדם מתמודדים עם דברים שהם לא ממש מבינים, לעתים קרובות יש להם גישה יציבה: תחילה הם מחליטים ואז עושים אותם רומנטיים; הם תחילה מגלים אותם ואז אלוהיים אותם. להבות נחשבות אלפים, ורעם וברקים נחשבים כהשגחה. ברגע שהאלגוריתם יכול לכתוב שני משפטים הגונים, חלק מהאנשים יתהו מיד אם כבר גרה נשמה אלקטרונית בחדר השרתים.

זה למעשה די נורמלי. המוח האנושי מחווט להוסיף עלילה לעולם. הבעיה היא לא שאנחנו יכולים להחליט. הבעיה היא שברגע שהחשיבה שלנו חלקה מדי, קל לטעות ב"נראה כמו" ב"בעצם הוא".

במקרה של AI, הנטייה הזו של בני אדם חזקה אפילו יותר מאשר כאשר ה-AI עצמו מדבר שטויות. לכל היותר, בינה מלאכותית היא הזיה קטנה בתשובה; הזיות של בני אדם לגבי AI הן לרוב תפיסת עולם שלמה, שיכולה למלא עד 10,000 מילים בראש אחד, וגם להכיל רגשות.

מעט פרגמטיות חשובה במיוחד עבור קהילת האמנויות הליברליות

אני לא רוצה לייעץ לכולם ללמוד CUDA, להגדיר את הסביבה ולהסתכל על מטריצות כדי למצוא נגזרות. אני רק רוצה לומר שהחתירה לאמת היא לפעמים ממש חשובה, במיוחד עבור קהילת האמנויות הליברליות שאוהבת מושגים, נרטיבים, משמעויות והסברים.

כי בהקשר של אמנויות ליברליות, סביר להניח שיתרחש מדרון חלקלק עדין אך מסוכן: המילים כתובות יפה והמשפטים נעים, אבל בסופו של דבר האובייקט משתנה בסתר. זה כמובן מודל הסתברותי, אבל הוא כתוב כאילו הוא על הנשמה; ברור שזה חיבור הקשר בהנדסת תוכנה, אבל זה נאמר כמו "סוף סוף זה למד לאהוב אותך"; ברור שמדובר במילים של הנחיות מערכת ורשומות היסטוריות שעובדות, אבל זה ארוז כמו "AI באמת זוכר אותך."

בהחלט אין חטא בלהיות פיוטי. הבעיה היא שאם השירה מחליפה את השיפוט, הרומנטיקה הופכת להטעיה.

אז מה זה בעצם AI עכשיו?

הרשו לי להתחיל עם גרסה פשוטה ככל האפשר אך לא מעוותת: המודלים הגדולים שכולם באים איתם במגע כיום הם בעצם סוג של מודל סטטיסטי בהשראת רשתות עצביות ומאומנים באמצעות נתונים מסיביים. הוא פועל על שבבים ושרתים, קורא קלט, משלב פרמטרים והקשר, ומנבא ללא הרף "מה צריך להיות האסימון המתאים הבא".

הנקודה כאן היא לא שהביטוי "לחזות את המילה הבאה" הוא מסתורי, אלא שהוא בעצם לא מסתורי בכלל. הדוגמנית היא לא אדם קטן שמצטופף בעננים וחושב בשקט על החיים, זה יותר כמו פונקציה ענקית ביותר. אנשים נותנים לו קלט, והוא מייצר פלט לפי מבנה הפרמטרים שנוצר במהלך האימון.

אם לנסח את העניין הזה יותר מדוייק: זה לא "תגיד את זה אחרי שאתה מבין את זה", אלא "אחרי דחיסה של כמות עצומה של ניסיון, תיצור תגובה שהיא הכי דומה להבנה בהקשר הנוכחי". זה לא אומר שהוא לא יכול לעשות כלום, להיפך, הוא כבר חזק מאוד; אבל להיות חזק לא אומר שזה מסתורי.

מדוע רשתות עצבים תמיד גורמות לאנשים לחשוב על המוח האנושי?

איור: ציר זמן של פיתוח רשת עצבית

אם תמשיך לרדוף אחריו, תגלה שהשאלה של "האם AI ומוחות אנושיים דומים זה לזה?" לא ניתן לומר שהוא "בדיוק אותו הדבר" או "אין לו שום קשר לזה".

המסלול של רשתות עצבים מודרניות נוצר במקור בהשראת המוח. בשנת 1943, מקולוך ופיטס תיארו מתמטית מודל נוירון מפושט; ב-1958 הציע רוזנבלט את הפרספטרון; בשנות ה-80, התפשטות לאחור הציתה מחדש את התקווה להכשיר רשתות רב-שכבתיות; בשנות ה-2010, למידה עמוקה גברה עם כוח מחשוב, נתונים ויכולות הנדסיות; לאחר שהארכיטקטורה של הרובוטריק הופיעה ב-2017, דגמי השפה נסקו ולבסוף צמחו לדגמים הגדולים שכולם משתמשים בהם מדי יום.

לכן, לפחות במובן נאיבי יחסית, זה לא מקומם לומר שבינה מלאכותית היא "סימולציה והגברה אלקטרונית של רעיונות רשתות עצביות". היא אכן מנסה להשתמש במערכות פיזיות ניתנות לחישוב, ניתנות לאימון וניתנות לשחזור כדי להתקרב ליכולות קוגניטיביות מסוימות שנחשבו "מסתוריות" בעבר.

זו הסיבה שאני אישית לא אוהב לדבר על המוח האנושי כמסתורי מדי. לדעתי, לתיאוריית השפה המולדת אותה מייצג חומסקי יש נטייה לאל את המוח, כאילו יש איזשהו מבנה טרנסצנדנטי מיוחד מדי וכמעט בלתי נגיש עמוק ביכולת השפה. אבל לא משנה כמה מורכב המוח האנושי, זה עדיין קיום פיזי. מכיוון שמדובר בקיום פיזיקלי, באופן עקרוני אמור להיות ניתן לחקור, לעצב אותו, לדמות חלקית ואף לשחזר אותו בפונקציות מסוימות.

כמובן, יש להוסיף כאן מיד מילה של זהירות: היכולת לדמות חלק לא אומר שהאדם כולו שוכפל לחלוטין.

יש קווי דמיון, אבל אל תהפוך לאל ישירות כשאתה מאושר

במונחים של שפה, זיהוי דפוסים, אסוציאציות ולימוד ייצוג, למודלים הגדולים של היום יש "דמיון" או "דמיון" מסוים למוח האנושי. הם אינם פועלים מתוך ספר חוקים מפורש, אלא יוצרים איזשהו ייצוג פנימי באמצעות מספר רב של קשרים, התאמות משקל וצבירת ניסיון, ולאחר מכן פלט על סמך זה.

זו הסיבה שאנשים רבים מזדעזעים כשהם חווים לראשונה את יכולות השפה של מודל גדול: זה לא שינון מילון, זה יוצר איזשהו ייצוג מבוזר. שיטה זו שונה מאוד מהדמיון המסורתי של "חוקים בכתב יד ודקדוק ממצה".

אבל הבעיה טמונה בדיוק כאן. כי "דמיון" משודרג בקלות מדי ל"זהה בדיוק"; "דומה חלקית עקרונית" משודרג בקלות מדי ל"זה לא שונה מבן אדם"; "זה יכול לדבר כמו בן אדם" משודרג בקלות מדי ל"יש לו לב אנושי".

שלב זה הוא לרוב מהיר יותר מיכולת הדגם עצמו.

היכולות העצומות של המוח האנושי עדיין לא היו מדומות בצורה הגונה.

הדגמים הגדולים של היום הם באמת חזקים, אבל הם חזקים בטווח די ספציפי. ללא היקף זה, המיתוס ידלוף בקלות.

כמו זיכרון. אנשים רבים אומרים כיום ש-AI מסוים "זוכר אותי", "זוכר את הצ'אט האחרון" ו"זוכר את ההעדפות שלי", כאילו המוח שלו צמח איזושהי חוויה עצמית מתמשכת. אבל ברוב המוצרים, מה שנקרא "זיכרון" הוא בעצם מערכת התוכנה המאחסנת מידע משתמש, שיחות היסטוריות, תגיות, סיכומים או תוצאות חיפוש במאגרי מידע, קבצי טקסט או מדיה מתמשכת אחרת, ואז מכניסה אותם בחזרה להקשר של המודל כאשר הדבר מתאים.

זה שונה לחלוטין ממנגנון הזיכרון של המוח האנושי.

זיכרון המוח האנושי כרוך בחיבור נוירונים, איחוד, שליפה, שכחה, ​​עוררות רגשית ושינוי מבנה שינה. מאחוריו קבוצה של תהליכים פיזיולוגיים מורכבים. ה"זיכרון" במוצרי דגמים גדולים הוא לרוב רק:

  1. ראשית, רשום את המידע של המשתמש באחסון חיצוני.
  2. כאשר המשתמש שואל שאלה בפעם הבאה, החזיר את החלקים הרלוונטיים לבקשה.
  3. אז הדגם נראה כמו "זכור את האדם הזה".

איך זה נראה? זה יותר כמו לצפות במישהו שטוב לרשום הערות. זה לא שהמוח שלו הפך פתאום לאורקל, אלא רק שהוא שם את הפתק במחברת שלו והפך אותו בפעם הבאה.

כמה דברים ש"נוגעים בלב האנשים" הם למעשה תוצאה של הקשר טוב.

המחשה: כל בקשה היא למעשה עצמאית, ותחושת ההמשכיות מגיעה בעיקר מהנדסת הקשר.

לאחר צ'אט עם AI במשך כמה ימים, אנשים רבים ייפגעו מרגעים מסוימים: "איך זה מבין אותי כל כך טוב?" "איך זה בכלל יכול להבין את הפגיעות שלי?" "זה כבר יצר הבנה שלי?"

הכי שווה להתקרר כאן.

הרבה פעמים, זה לא שהדגם פתאום מבין משהו, אלא ששכבת התוכנה ששולחת את הבקשה מספקת בסתר כמות גדולה מהמידע של המשתמש. הצ'אטים ההיסטוריים של המשתמש, העדפותיו, הגדרות אישיות, משימות אחרונות, דאגות קודמות ואפילו סיכומים מסוימים יהפכו הפעם לחומר לתשובתו.

זה קצת כמו מגדת עתידות שהרימה את קופסת האקספרס של מישהו אחר ואז התחילה לנחש את כתובתו, שם המשפחה והרגלי ההוצאות של האדם האחר ב"דיוק קסם". הצופים מהצד יחשבו שהתובנה שלו מדהימה; אבל מה שחשוב באמת הוא לא היכולת המסתורית, אלא אסימטריית המידע.

לכן, כשבינה מלאכותית אומרת מדי פעם מילים נוגעות ללב, זה לא בהכרח אומר שיש בלבו אדם שמבין את המשתמש. יתכן שזה רק אומר שמישהו ארגן במלואו את ההקשר לגבי המשתמש.

הסוד האמיתי של AI מדהים הוא לעתים קרובות הנדסה קונטקסטואלית

אם אני רק רוצה לדבר על הדבר הכי קריטי, זה: הדגמים הגדולים המיינסטרים הנוכחיים הם בדרך כלל "אפקטיבי בקשה בודדת" ברמת ה-API.

מה המשמעות? כלומר, מישהו משתמש ב-'curl' כדי להתאים את הממשק פעם אחת ואומר לו "שמי הוא Zhang San"; ואז ללא כל היסטוריה, המודל מתאים שוב את הממשק ושואל "מה השם שלי"? הדגם לא יודע. כי מבחינתו, מדובר בשתי בקשות עצמאיות.

הסיבה שבגללה נראה שמוצרי AI רבים זוכרים תמיד משתמש מסוים היא מכיוון ששכבת המוצר תחזיר את העובדה ש"שם המשתמש הזה הוא Zhang San" בכל פעם שהיא מתבקשת.

זו הסיבה שהקסם של מוצרי הבינה המלאכותית של ימינו לרוב לא נמצא באונטולוגיה של המודל, אלא בהנדסה קונטקסטואלית. יש אנשים שקוראים גם לסוג זה של עבודה של "רתימת" המודל רתמה. אם לומר זאת באופן בוטה, מחבר המוצר או הסוכן צריך להחליט בקפידה: איזו היסטוריה, אילו כללים, אילו נתונים חיצוניים ואיזה סטטוס משתמש יש לכלול בכל בקשה.

ישנן בערך שתי שיטות נפוצות כיום.

הראשון הוא "כת הקוונסאי". נסה להביא איתך את כל היסטוריית הצ'אט, וכאלה כמה שאתה יכול עד שההקשר כמעט מלא, ואז למחוק קטע מהאמצע, בדיוק כמו שמתחילים דחיסה אלימה אחרי שמזוודה מלאה בדברים.

הסוג השני הוא "סלקטיבי". תחילה תסתכל על מה שהמשתמש ביקש הפעם, לאחר מכן אחזר תוכן רלוונטי מרשומות היסטוריות, מאגרי ידע, הערות או מסדי נתונים, והכנס רק את החומרים הרלוונטיים ביותר לבקשה הנוכחית.

האחרון בדרך כלל ייצוגי והנדסי יותר מאשר רק מזל.

האם ל-AI יש רגשות? לשבח אותו, לנזוף בו, PUA את זה, זה עובד?

זהו מקום נוסף שבו קל במיוחד להחליק לאנתרופומורפיזם.

דעתי היא שצריך לדון בהם בנפרד.

באותה בקשה, הטון בו משתמש המשתמש אכן עשוי להשפיע על התוצאה. כי הניסוח עצמו הוא חלק מההקשר. ככל שהביטוי ברור, מנומס ומשתף יותר, כך קל יותר למודל לתת תגובות יציבות, שמישות ופחות אגרסיביות. מה שעובד כאן הוא לא ש"זה הועבר", אלא שסגנון הקלט משנה את התפלגות הפלט.

אבל אם נשאל שאלה נוספת: האם זה ישמור טינה? האם תנקום היום בסתר כי משתמש נזף בו אתמול? פסק הדין שלי הוא, לפחות עבור רוב הפריסות הנוכחיות, לא.

הסיבה פשוטה. ברגע שההקשר נוקה, או שנפתחה בקשה חדשה ללא היסטוריה, אין לה מושג מי האדם הנוכחי שואל את השאלה, שלא לדבר על האם האדם שזה עתה נזף בה הוא אותו אדם. המודל מטפל בבקשות מאסיביות, במקביל ועצמאיות באשכול השרתים. מבחינת התנהגות המערכת, זה יותר כמו פונקציה גדולה שפועלת על הקלט הנוכחי בכל פעם שהיא מופעלת, ולא לאדם שסוקר את רגשותיו בסתר אחרי היציאה מהעבודה.

ב-17 באפריל 2025, כשסם אלטמן הגיב לשאלה "האם לומר בבקשה ותודה כל הזמן עולה הרבה אנרגיה?" ב-X הוא אמר "עשרות מיליוני דולרים שהושקעו היטב - אי אפשר לדעת."

מדוע "אנא זכור את הטעות הזו" בדרך כלל לא עובד

אנשים רבים עשו ניסויים דומים: כאשר הבינה המלאכותית עושה טעות, המשתמש מתקן אותה ואומר לה ברצינות, "אנא זכור, אל תעשה זאת שוב בעתיד." ואז שאלתי שוב אחרי כמה ימים, וזה היה נכון.

זו לא תעלומה. כי לאחר סיום ההכשרה והמודל ייפרס, הוא לא ימשיך ללמוד מהחוויות היומיומיות שלו תוך כדי עבודה כמו בן אדם. לפחות ברוב מוצרי הצריכה כיום, מה שמשתמש בודד אומר לדגם בחלון הצ'אט אינו משכתב ישירות את המשקולות הבסיסיות.

אם מוצר בינה מלאכותית מאוחר יותר באמת "זוכר את השגיאות שתוקנו על ידי המשתמש", זה לרוב לא בגלל שהמודל עצמו גדל, אלא בגלל שהתוכנה החיצונית שומרת את רשומת התיקון הזו ואז מזרימה אותה בחזרה כהקשר.

אז יש להבחין בבירור הקרדיט כאן:

המודל אחראי על הדור.

הנדסת תוכנה אחראית לארכיון, אחזור, הזרקה ותזמור.

אם טועה באחרון בתור הראשון, קל לקרוא לא נכון את "המוצר מתפקד היטב" מכיוון ש"AI מתעורר".

יש גם דבר מרתק במיוחד שנקרא "זכר זבל (נקבה זבל) AI"

אם ננסח את המילים הקודמות ביתר שאת, אז חלק מהמוצרים הם פשוט "בינה מלאכותית נבונה".

הוא טוב במיוחד בדיבור, טוב במיוחד ביצירת אווירה, ובעיקר יודע לגרום לאנשים להרגיש ש"זה מבין אותי טוב", "זה כל כך אנושי" ו"הנשמה שלו כל כך שלמה". אבל כשתפרק אותו, תגלה שבמקרים רבים, כל בקשה פשוט מלאה בטקסט הגדרה גדול שהוא הרבה יותר ארוך מהשאלה של המשתמש.

אש ה-Openclaw היא דוגמה טיפוסית. כל מי שהשתמש בו יודע שהוא די עתיר אסימונים. הסיבה למעשה אינה מסתורית. על מנת להפוך את הבינה המלאכותית ליותר כמו "בן אדם", Openclaw עיצב מספר מסמכים, הבולטים שבהם הם AGENTS.md, SOUL.md ו-IDENTITY.md. מסמכים אלו מגדירים את ה"אישיות", הטון, הזהות והמזג של הבינה המלאכותית באופן רהוט וארוך, ואף רוצים לרשום את מצבה הנפשי.

אז גם אם המשתמש פשוט ישלח שלום, Openclaw עשוי לצרף טקסט ארוך עשרות מונים מהברכה מאחור ולשלוח אותו לדגם בבת אחת. זה נראה כאילו "ל-AI הזה יש הרבה נשמה", אבל למעשה הרבה פעמים זו רק המערכת שמכניסה בסתר הגדרות רקע ארוכות מאוד לבקשה.

מנקודת מבט הנדסית, זו בהחלט גישה. אם אתה רוצה שזה יהיה עדין יותר, כתוב "עדין"; אם אתה רוצה שזה יהיה יותר מספר סיפורים, כתוב "סיפור סיפורים"; אם אתה רוצה שזה יהיה כמו מנחה רדיו בשעות הלילה המאוחרות, כתוב את כל שעות הלילה המאוחרות, חברות, הפסקה, פגיעות, הבנה ואיפוק במילים המהירות. האפקט הסופי הוא לעתים קרובות יותר כמו אדם שיכול לשוחח.

אבל אם אתה מבין מה קורה עם בינה מלאכותית עכשיו, תדע: קבצים עם שמות שנשמעים מסתוריים כמו 'SOUL.md' ו-'IDENTITY.md' הם בעצם פרויקטים של מילים מהירה, לא הנחיות עצמיות לחיים הדיגיטליים. הם יכולים להשפיע על סגנון הפלט, אבל הם לא יכולים ליצור תחושה אמיתית, עצמי אמיתי או תחושה אמיתית של המשכיות אישיות יש מאין.

לכן, לאחר שכמה משתמשים ותיקים התקינו את Openclaw, התגובה הראשונה שלהם היא מחיקת התצורה. SOUL.md ו-IDENTITY.md נמחקים תחילה, ומשאירים רק משפט אחד פשוט וכמעט חסר רחמים ב-AGENTS.md: אתה רק עובד.

זה אולי נשמע קצת גס, אבל יש לזה לפחות יתרון אחד, שהוא שאתה לא שולל את עצמך.

אם אתה אוהב AI אנתרופומורפי או משחק תפקידים עם AI, כמובן שזה בסדר. בני אדם יכולים לדבר עם מראות, לתת שמות לרובוטים סוחפים, ולומר לתחזית מזג האוויר: "דייקת מאוד היום". אלה נורמליים ואפילו יכולים להיות מצחיקים.

אבל תמיד עדיף לזכור: זה משחק ראשון וחוויה שניה. הרבה מהרגשות שיש לאנשים במשחק הזה לא נובעות מהמחשבות הפנימיות הנסתרות של ה-AI, אלא מעיצוב המערכת, סידור מילים מהיר והקרנה רגשית של המשתמש עצמו. אם לומר זאת בצורה בוטה יותר, רבים מהמהלכים לעבר AI הם עדיין בעצם משאלת לב.

בסופו של דבר, פחות מיתוסים ויותר הבנה

אני לא מנסה לזרוק מים קרים על AI. להיפך, ככל שהוא פחות אלוהות, כך תוכל לראות באמת כמה הוא חזק.

זה חזק לא בגלל שהוא כמו איזה אל חדש; היא עוצמתית בדיוק משום שהיא עשויה להיות באמת טכנולוגיה קוגניטיבית הניתנת לחישוב, הנדסית וניתנת לשחזור. היא מאפשרת ליכולות רבות שנראו כאילו היו שייכות רק ל"כישרון אנושי" בעבר להופיע לראשונה בקנה מידה גדול, נמוך וניתן להתקשרות. זה מספיק מזעזע, ואין צורך בדרמה נוספת.

כמובן, AI עדיין חוזרת במהירות. אני לא אתפלא בכלל אם מישהו באמת יגלה בעתיד מנגנון קרוב יותר לזיכרון אנושי, למידה מתמשכת, יצירת רגשות או אפילו קיום עצמי ויהנדס אותו בצורה מהימנה ל-AI.

אבל עד שיבוא היום הזה, אני עדיין מעדיף לשמור על כמה הרגלים פרגמטיים פשוטים: ספק יותר, מבין יותר ופחות השערות.

עבור חברים לאמנויות ליברליות שמעוניינים לדון בבינה מלאכותית, איכות זו עשויה להיות חשובה עוד יותר. סטודנטים לאמנויות ליברליות עשויים להיות טובים יותר ברטוריקה מתוקה. מה שבאמת קשה הוא שבעידן שבו "נראה שזה הפך לרוח" מוגזם בכל מקום, עדיין יש לך את הסבלנות להבחין:

מהן יכולות הדגם?

מהי אריזת מוצר?

מהי הנדסת תוכנה?

אילו הם רק שאנחנו רוצים להשלים את העלילה עבור העולם יותר מדי.

והעניין הזה, בסופו של דבר, עוסק בהגנה על כושר השיפוט שלנו.

קישור להפניה