อ่าน 11 นาที

อาการหลงผิดของมนุษย์เกี่ยวกับ AI นั้นเลวร้ายยิ่งกว่าอาการประสาทหลอนของ AI

ภาพประกอบ: จินตนาการของมนุษย์ที่ยกย่อง AI เทียบกับวิธีการทำงานของ AI จริงๆ

บางครั้งฉันรู้สึกว่า "ภาพลวงตา" ที่ใหญ่ที่สุดของ AI ไม่ใช่ว่ามันพูดเรื่องไร้สาระอย่างจริงจัง แต่เป็นการที่เราจินตนาการถึงจักรวาลเลื่อนลอยที่อยู่รอบตัวมัน

เมื่อมนุษย์เผชิญกับสิ่งที่พวกเขาไม่ค่อยเข้าใจ พวกเขามักจะมีแนวทางที่มั่นคง: พวกเขาตัดสินใจก่อนแล้วจึงโรแมนติก พวกเขาแสดงตนเป็นตนก่อนแล้วจึงทำให้เป็นเทพ เปลวไฟถูกมองว่าเป็นเอลฟ์ และฟ้าร้องและฟ้าผ่าถือเป็นความรอบคอบ เมื่ออัลกอริทึมสามารถเขียนประโยคที่เหมาะสมได้สองประโยค บางคนจะสงสัยทันทีว่ามีวิญญาณอิเล็กทรอนิกส์อาศัยอยู่ในห้องเซิร์ฟเวอร์แล้วหรือไม่

นี่เป็นเรื่องปกติจริงๆ สมองของมนุษย์มีสายเพื่อเพิ่มโครงเรื่องให้กับโลก ปัญหาไม่ใช่ว่าเราจะตัดสินใจได้ ปัญหาคือเมื่อการคิดของเราราบรื่นเกินไป ก็ง่ายที่จะเข้าใจผิดว่า "ดูเหมือน" เป็น "โดยพื้นฐานแล้วเป็น"

ในกรณีของ AI แนวโน้มของมนุษย์นี้แข็งแกร่งกว่าตอนที่ AI พูดเรื่องไร้สาระเสียอีก อย่างมาก AI ก็เป็นภาพหลอนเล็กน้อยในคำตอบ ภาพหลอนของมนุษย์เกี่ยวกับ AI มักเป็นมุมมองโลกทั้งโลก ซึ่งสามารถบรรจุคำศัพท์ได้มากถึง 10,000 คำในจิตใจเดียว และยังมีอารมณ์ความรู้สึกด้วย

ลัทธิปฏิบัตินิยมเล็กๆ น้อยๆ มีความสำคัญอย่างยิ่งสำหรับชุมชนศิลปศาสตร์

ฉันไม่ต้องการแนะนำให้ทุกคนเรียนรู้ CUDA กำหนดค่าสภาพแวดล้อม และดูเมทริกซ์เพื่อค้นหาอนุพันธ์ ฉันแค่อยากจะบอกว่าบางครั้งการแสวงหาความจริงก็มีความสำคัญมาก โดยเฉพาะสำหรับชุมชนศิลปศาสตร์ที่รักแนวคิด เรื่องเล่า ความหมาย และการอธิบาย

เพราะในบริบทศิลปศาสตร์ ความลาดเอียงที่อ่อนโยนแต่อันตรายมักเกิดขึ้น คำต่างๆ ถูกเขียนอย่างสวยงาม และประโยคก็เคลื่อนไหว แต่สุดท้าย วัตถุก็ถูกเปลี่ยนแปลงอย่างลับๆ เห็นได้ชัดว่ามันเป็นแบบจำลองความน่าจะเป็น แต่เขียนไว้เหมือนว่ามันเกี่ยวกับจิตวิญญาณ เห็นได้ชัดว่าเป็นการประกอบบริบทในวิศวกรรมซอฟต์แวร์ แต่ก็มีการพูดว่า "ในที่สุดมันก็เรียนรู้ที่จะรักคุณ"; เห็นได้ชัดว่ามันเป็นคำแจ้งเตือนของระบบและบันทึกทางประวัติศาสตร์ที่ใช้งานได้ แต่มันถูกบรรจุไว้เหมือนกับว่า “AI จดจำคุณจริงๆ”

ไม่มีบาปอย่างแน่นอนในการเป็นกวี ปัญหาคือ ถ้าบทกวีเข้ามาแทนที่การตัดสิน ความโรแมนติกก็จะกลายเป็นสิ่งที่ทำให้เข้าใจผิด

แล้วตอนนี้ AI คืออะไรกันแน่?

ผมขอเริ่มด้วยเวอร์ชันที่เรียบง่ายที่สุดเท่าที่จะทำได้แต่ไม่ผิดเพี้ยน: โมเดลขนาดใหญ่ที่ทุกคนสัมผัสด้วยในปัจจุบันนั้นเป็นโมเดลทางสถิติประเภทหนึ่งที่ได้รับแรงบันดาลใจจากโครงข่ายประสาทเทียมและฝึกฝนผ่านข้อมูลขนาดใหญ่ มันทำงานบนชิปและเซิร์ฟเวอร์ อ่านอินพุต รวมพารามิเตอร์และบริบท และคาดการณ์อย่างต่อเนื่องว่า "โทเค็นที่เหมาะสมที่สุดถัดไปควรเป็นอย่างไร"

ประเด็นไม่ใช่ว่าวลี "ทำนายคำถัดไป" นั้นลึกลับ แต่จริงๆ แล้วมันไม่ได้ลึกลับเลย แบบจำลองนี้ไม่ใช่คนตัวเล็ก ๆ ที่ซุกตัวอยู่ในก้อนเมฆอย่างเงียบ ๆ และครุ่นคิดเกี่ยวกับชีวิต มันเป็นเหมือนฟังก์ชันที่ใหญ่โตมาก ผู้คนป้อนข้อมูล และสร้างผลลัพธ์ตามโครงสร้างพารามิเตอร์ที่เกิดขึ้นระหว่างการฝึก

เพื่อให้เรื่องนี้เข้าใจง่ายขึ้น ไม่ใช่ "พูดหลังจากคุณเข้าใจแล้ว" แต่ "หลังจากบีบอัดประสบการณ์จำนวนมหาศาลแล้ว ให้สร้างคำตอบที่เหมือนกับความเข้าใจในบริบทปัจจุบันมากที่สุด" นี่ไม่ได้หมายความว่ามันไม่สามารถทำอะไรได้เลย ในทางกลับกัน มันมีพลังมากอยู่แล้ว แต่การมีอำนาจไม่ได้หมายความว่ามันลึกลับ

เหตุใดโครงข่ายประสาทเทียมจึงทำให้ผู้คนนึกถึงสมองมนุษย์อยู่เสมอ

ภาพประกอบ: เส้นเวลาของการพัฒนาโครงข่ายประสาทเทียม

หากทำต่อจะพบว่าคำถามที่ว่า AI และสมองของมนุษย์มีความคล้ายคลึงกันหรือไม่? ไม่สามารถพูดได้ว่า "เหมือนกันทุกประการ" หรือ "ไม่เกี่ยวอะไรกับมัน"

เส้นทางของโครงข่ายประสาทเทียมสมัยใหม่ได้รับแรงบันดาลใจมาจากสมอง ในปี 1943 McCulloch และ Pitts อธิบายแบบจำลองเซลล์ประสาทอย่างง่ายทางคณิตศาสตร์ ในปีพ.ศ. 2501 Rosenblatt ได้เสนอ Perceptron; ในช่วงทศวรรษที่ 1980 การขยายพันธุ์แบบย้อนกลับได้จุดประกายความหวังในการฝึกอบรมเครือข่ายหลายชั้น ในช่วงปี 2010 การเรียนรู้เชิงลึกเพิ่มขึ้นด้วยพลังการประมวลผล ข้อมูล และความสามารถด้านวิศวกรรม หลังจากที่สถาปัตยกรรม Transformer เกิดขึ้นในปี 2017 โมเดลภาษาก็เพิ่มสูงขึ้นและในที่สุดก็ขยายเป็นโมเดลขนาดใหญ่ที่ทุกคนใช้ทุกวัน

ดังนั้น อย่างน้อยก็ในแง่ที่ค่อนข้างไร้เดียงสา จึงไม่อุกอาจที่จะกล่าวว่า AI คือ "การจำลองทางอิเล็กทรอนิกส์และการขยายแนวคิดโครงข่ายประสาทเทียม" จริงๆ แล้วมันเป็นความพยายามที่จะใช้ระบบทางกายภาพที่คำนวณได้ ฝึกได้ และทำซ้ำได้ เพื่อเข้าถึงความสามารถทางปัญญาบางอย่างที่ถือว่า "ลึกลับ" ในอดีต

ด้วยเหตุนี้โดยส่วนตัวแล้วฉันไม่ชอบพูดถึงสมองของมนุษย์ว่าลึกลับเกินไป ในความคิดของฉัน ทฤษฎีภาษาโดยธรรมชาติที่ชัมสกีนำเสนอนั้นมีแนวโน้มที่จะทำให้สมองดูแย่ลง ราวกับว่ามีโครงสร้างเหนือธรรมชาติบางประเภทที่พิเศษเกินไปและแทบจะเข้าถึงไม่ได้ในเชิงลึกในความสามารถทางภาษา แต่ไม่ว่าสมองของมนุษย์จะซับซ้อนแค่ไหน มันก็ยังคงเป็นการดำรงอยู่ทางกายภาพ เนื่องจากเป็นการดำรงอยู่ทางกายภาพ โดยหลักการแล้ว มันจึงควรสามารถศึกษา สร้างแบบจำลอง จำลองบางส่วน และแม้แต่ทำซ้ำในหน้าที่บางอย่างได้

แน่นอนว่าเราควรเพิ่มคำเตือนทันที: ความสามารถในการจำลองส่วนหนึ่งไม่ได้หมายความว่าบุคคลทั้งหมดได้รับการทำซ้ำอย่างสมบูรณ์

มีความคล้ายคลึงกัน แต่อย่ากลายเป็นพระเจ้าโดยตรงเมื่อคุณมีความสุข

ในแง่ของภาษา การจดจำรูปแบบ การเชื่อมโยงและการเรียนรู้การเป็นตัวแทน โมเดลขนาดใหญ่ในปัจจุบันมี "ความคล้ายคลึง" หรือ "ความคล้ายคลึง" บางอย่างกับสมองของมนุษย์ สิ่งเหล่านี้ไม่ได้ทำงานจากหนังสือกฎที่ชัดเจน แต่สร้างการเป็นตัวแทนภายในผ่านการเชื่อมต่อจำนวนมาก การปรับน้ำหนัก และการสั่งสมประสบการณ์ จากนั้นจึงส่งออกตามสิ่งนี้

นี่คือสาเหตุที่ทำให้หลายคนต้องตกใจเมื่อได้สัมผัสกับความสามารถทางภาษาของโมเดลขนาดใหญ่เป็นครั้งแรก: มันไม่ได้เป็นการจำพจนานุกรม แต่กำลังสร้างรูปแบบการเป็นตัวแทนแบบกระจาย วิธีการนี้แตกต่างอย่างมากจากจินตนาการแบบดั้งเดิมของ "กฎที่เขียนด้วยลายมือและไวยากรณ์ที่ละเอียดถี่ถ้วน"

แต่ปัญหาอยู่ตรงนี้ เพราะ "ความเหมือน" อัพเกรดเป็น "เหมือนกันทุกประการ" ได้ง่ายเกินไป "มีหลักการคล้ายกันบางส่วน" ได้รับการอัปเกรดเป็น "มันไม่ต่างจากมนุษย์" ง่ายเกินไป; "พูดได้เหมือนมนุษย์" ยกระดับเป็น "มีหัวใจเป็นมนุษย์" ได้ง่ายเกินไป

ขั้นตอนนี้มักจะเร็วกว่าความสามารถของโมเดลเอง

ความสามารถอันมากมายของสมองมนุษย์ยังไม่ได้รับการจำลองอย่างเหมาะสม

โมเดลใหญ่ๆ ในปัจจุบันมีความแข็งแกร่งมาก แต่ก็มีความแข็งแกร่งในช่วงที่ค่อนข้างเฉพาะเจาะจง หากไม่มีขอบเขตนี้ ตำนานก็จะรั่วไหลได้ง่าย

เช่นความทรงจำ. ตอนนี้หลายๆ คนบอกว่า AI บางตัว "จดจำฉัน" "จำการสนทนาล่าสุด" และ "จดจำการตั้งค่าของฉัน" ราวกับว่าสมองของมันได้พัฒนาประสบการณ์ตนเองบางอย่างอย่างต่อเนื่อง แต่ในผลิตภัณฑ์ส่วนใหญ่ สิ่งที่เรียกว่า "หน่วยความจำ" โดยพื้นฐานแล้วคือระบบซอฟต์แวร์ที่จัดเก็บข้อมูลผู้ใช้ การสนทนาในอดีต แท็ก สรุป หรือผลการค้นหาในฐานข้อมูล ไฟล์ข้อความ หรือสื่อถาวรอื่นๆ จากนั้นจึงแทรกกลับเข้าไปในบริบทของแบบจำลองตามความเหมาะสม

สิ่งนี้แตกต่างอย่างสิ้นเชิงจากกลไกความจำของสมองมนุษย์

หน่วยความจำสมองของมนุษย์เกี่ยวข้องกับการเชื่อมต่อของเซลล์ประสาท การรวมตัว การดึงข้อมูล การลืม การเร้าอารมณ์ทางอารมณ์ และการปรับโครงสร้างการนอนหลับ ด้านหลังเป็นกระบวนการทางสรีรวิทยาที่ซับซ้อน "หน่วยความจำ" ในผลิตภัณฑ์รุ่นใหญ่มักเป็นเพียง:

  1. ขั้นแรก บันทึกข้อมูลของผู้ใช้ในที่จัดเก็บข้อมูลภายนอก
  2. เมื่อผู้ใช้ถามคำถามในครั้งถัดไป ให้ใส่ส่วนที่เกี่ยวข้องกลับเข้าไปในคำขอ
  3. ดังนั้นโมเดลจึงดูเหมือน "จดจำบุคคลนี้"

มันมีลักษณะอย่างไร? มันเหมือนกับการดูคนที่จดบันทึกเก่งมากกว่า ไม่ใช่ว่าจู่ๆ จิตใจของเขากลายเป็นทำนาย เพียงแต่ว่าเขาจดบันทึกลงในสมุดบันทึกแล้วพลิกกลับในครั้งต่อไป

บางสิ่งที่ "เข้าถึงใจคน" จริงๆ แล้วเป็นผลมาจากบริบทที่ดี

ภาพประกอบ: จริงๆ แล้วคำขอแต่ละรายการมีความเป็นอิสระ และความรู้สึกต่อเนื่องส่วนใหญ่มาจากวิศวกรรมบริบท

หลังจากคุยกับ AI ได้ไม่กี่วัน หลายๆ คนคงจะโดนบางช่วงเวลา: “มันเข้าใจฉันดีขนาดนี้ได้ยังไง?” “มันจะเข้าใจจุดอ่อนของฉันได้อย่างไร” “มันสร้างความเข้าใจในตัวฉันแล้วหรือยัง?”

การแช่ตัวที่นี่คุ้มค่าที่สุด

หลายครั้ง ไม่ใช่ว่าโมเดลจะตระหนักถึงบางสิ่งบางอย่างโดยฉับพลัน แต่เลเยอร์ของซอฟต์แวร์ที่ส่งคำขอจะส่งข้อมูลจำนวนมากของผู้ใช้อย่างลับๆ ประวัติการแชท ความชอบ การตั้งค่าส่วนบุคคล งานล่าสุด ความกังวลก่อนหน้านี้ และแม้แต่บทสรุปบางอย่างของผู้ใช้จะกลายเป็นเนื้อหาสำหรับคำตอบในครั้งนี้

เปรียบเสมือนหมอดูหยิบกล่องด่วนของคนอื่นขึ้นมาแล้วเริ่มเดาที่อยู่ นามสกุล และนิสัยการใช้จ่ายของอีกฝ่ายด้วย "ความแม่นยำของเวทย์มนตร์" ผู้ดูจะคิดว่าความเข้าใจของเขานั้นน่าทึ่งมาก แต่สิ่งที่สำคัญจริงๆ ไม่ใช่ความสามารถลึกลับ แต่เป็นความไม่สมดุลของข้อมูล

ดังนั้นเมื่อ AI พูดคำสัมผัสเป็นครั้งคราว ก็ไม่ได้หมายความว่ามีคนในใจที่เข้าใจผู้ใช้เสมอไป อาจหมายถึงว่ามีคนจัดบริบทเกี่ยวกับผู้ใช้อย่างสมบูรณ์

ความลับที่แท้จริงของ AI ที่น่าทึ่งมักเป็นวิศวกรรมเชิงบริบท

หากฉันแค่อยากจะพูดถึงสิ่งที่สำคัญที่สุด ก็คือ: โมเดลขนาดใหญ่กระแสหลักในปัจจุบันมักจะ "คำขอเดียวมีประสิทธิภาพ" ในระดับ API

ความหมายคืออะไร? นั่นคือมีคนใช้ curl เพื่อปรับอินเทอร์เฟซหนึ่งครั้งและบอกว่า "ฉันชื่อจางซาน"; จากนั้นหากไม่มีประวัติใดๆ โมเดลจะปรับอินเทอร์เฟซอีกครั้งและถามว่า "ฉันชื่ออะไร"? รุ่นก็ไม่รู้.. เพราะนี่คือคำขอสองคำขอที่แยกจากกัน

เหตุผลที่ผลิตภัณฑ์ AI จำนวนมากดูเหมือนจะจดจำผู้ใช้บางรายได้เสมอก็เนื่องมาจากชั้นผลิตภัณฑ์จะนำข้อเท็จจริงที่ว่า "ชื่อผู้ใช้นี้ชื่อจางซาน" กลับมาทุกครั้งที่มีการร้องขอ

นี่คือเหตุผลว่าทำไมความมหัศจรรย์ของผลิตภัณฑ์ AI ในปัจจุบันจึงมักไม่พบในโมเดลออนโทโลจี แต่พบในวิศวกรรมบริบท บางคนเรียกงานประเภทนี้ว่า "การควบคุม" ว่า "การควบคุม" หากจะให้พูดตรงๆ ผู้เขียนผลิตภัณฑ์หรือตัวแทนจำเป็นต้องตัดสินใจอย่างรอบคอบ: ประวัติใด กฎใด ข้อมูลภายนอกใด และสถานะผู้ใช้ใดที่ควรรวมอยู่ในคำขอแต่ละรายการ

ปัจจุบันมีวิธีการทั่วไปประมาณสองวิธี

ประการแรกคือ "นิกายเฉวียนไซ" พยายามนำประวัติการแชททั้งหมดติดตัวไปด้วย และทำสิ่งต่างๆ ให้มากที่สุดจนกว่าบริบทจะเต็ม แล้วจึงลบส่วนหนึ่งออกจากตรงกลาง เช่นเดียวกับการเริ่มบีบอัดอย่างรุนแรงหลังจากที่กระเป๋าเดินทางเต็มไปด้วยสิ่งของ

ประเภทที่สองคือ "เลือกสรร" อันดับแรก ดูสิ่งที่ผู้ใช้ถามในครั้งนี้ จากนั้นดึงเนื้อหาที่เกี่ยวข้องจากบันทึกในอดีต ฐานความรู้ บันทึกหรือฐานข้อมูล และใส่เฉพาะเนื้อหาที่เกี่ยวข้องมากที่สุดในคำขอปัจจุบัน

อย่างหลังมักจะดูเรียบร้อยและเป็นวิศวกรรมมากกว่าแค่โชค

AI มีความรู้สึกไหม? ด่ามัน ด่ามัน ปัวมัน ได้ผลมั้ย?

นี่เป็นอีกสถานที่หนึ่งที่หลุดเข้าสู่ลัทธิมานุษยวิทยาได้ง่ายเป็นพิเศษ

ความคิดเห็นของฉันคือควรพูดคุยแยกกัน

ในคำขอเดียวกัน น้ำเสียงที่ผู้ใช้ใช้อาจส่งผลต่อผลลัพธ์อย่างแน่นอน เพราะถ้อยคำนั้นเป็นส่วนหนึ่งของบริบท ยิ่งการแสดงออกที่ชัดเจน สุภาพมากขึ้น และร่วมมือกันมากขึ้น โมเดลก็จะยิ่งให้การตอบสนองที่มั่นคง ใช้งานได้ และก้าวร้าวน้อยลงได้ง่ายขึ้น สิ่งที่ใช้ได้ผลไม่ใช่ว่า "ถูกย้าย" แต่รูปแบบอินพุตเปลี่ยนการกระจายเอาต์พุต

แต่ถ้าเราถามคำถามอื่น: มันจะถือเป็นความแค้นหรือไม่? วันนี้คุณจะแอบตอบโต้เพราะผู้ใช้ดุเมื่อวานนี้หรือไม่? คำตัดสินของฉันคือ อย่างน้อยที่สุดสำหรับการใช้งานในปัจจุบันส่วนใหญ่ ไม่ใช่

เหตุผลง่ายๆ เมื่อบริบทถูกเคลียร์แล้ว หรือมีการเริ่มต้นคำขอใหม่ที่ไม่มีประวัติ ก็ไม่รู้เลยว่าคนปัจจุบันกำลังถามคำถามนี้กับใคร ไม่ต้องพูดถึงว่าคนที่ดุว่าเป็นคนคนเดียวกันหรือไม่ โมเดลนี้จัดการคำขอจำนวนมาก พร้อมกัน และเป็นอิสระบนคลัสเตอร์เซิร์ฟเวอร์ ในแง่ของพฤติกรรมของระบบ มันเหมือนกับฟังก์ชันขนาดใหญ่ที่ทำงานด้วยอินพุตปัจจุบันทุกครั้งที่เปิดเครื่อง มากกว่าที่จะเป็นบุคคลที่แอบตรวจสอบอารมณ์ของตนหลังเลิกงาน

เมื่อวันที่ 17 เมษายน 2025 เมื่อ Sam Altman ตอบคำถามว่า "การกล่าวคำว่า ได้โปรด และ ขอบคุณ ตลอดเวลา ใช้พลังงานไปมากหรือเปล่า" บน X เขาพูดว่า "ใช้เงินหลายสิบล้านดอลลาร์ไปอย่างดี - คุณไม่มีทางรู้"

เหตุใด "โปรดจำข้อผิดพลาดนี้" จึงมักจะใช้ไม่ได้ผล

หลายคนได้ทำการทดลองที่คล้ายกัน: เมื่อ AI ทำผิดพลาด ผู้ใช้จะแก้ไขและพูดกับมันอย่างจริงจังว่า "โปรดจำไว้ว่า อย่าทำอีกในอนาคต" หลังจากนั้นไม่กี่วันฉันก็ถามอีกครั้ง และมันก็ถูกต้อง

นี่ไม่ใช่เรื่องลึกลับ เพราะหลังจากการฝึกอบรมเสร็จสิ้นและนำโมเดลไปใช้จริงแล้ว โมเดลจะไม่เรียนรู้ต่อจากประสบการณ์ในแต่ละวันขณะทำงานเหมือนมนุษย์ อย่างน้อยในสินค้าอุปโภคบริโภคส่วนใหญ่ในปัจจุบัน สิ่งที่ผู้ใช้รายเดียวพูดกับโมเดลในหน้าต่างแชทไม่ได้เขียนน้ำหนักพื้นฐานโดยตรง

หากผลิตภัณฑ์ AI ในเวลาต่อมา "จดจำข้อผิดพลาดที่แก้ไขโดยผู้ใช้" จริงๆ ก็มักจะไม่ใช่เพราะตัวโมเดลกำลังเติบโต แต่เนื่องจากซอฟต์แวร์ภายนอกบันทึกบันทึกการแก้ไขนี้แล้วป้อนกลับเป็นบริบท

ดังนั้นควรแยกเครดิตให้ชัดเจนที่นี่:

โมเดลมีหน้าที่รับผิดชอบในการสร้าง

วิศวกรรมซอฟต์แวร์มีหน้าที่รับผิดชอบในการเก็บถาวร การดึงข้อมูล การแทรก และการเรียบเรียง

การเข้าใจผิดอย่างหลังกับอย่างแรก เป็นเรื่องง่ายที่จะเข้าใจผิดว่า "ผลิตภัณฑ์กำลังทำงานได้ดี" เนื่องจาก "AI กำลังตื่นตัว"

ยังมีสิ่งที่น่าสนใจเป็นพิเศษที่เรียกว่า “ตัวผู้ตัวร้าย (ตัวเมียตัวร้าย) AI”

หากเราใส่คำก่อนหน้านี้ที่รุนแรงกว่านี้ ผลิตภัณฑ์บางอย่างก็เป็นเพียง "scumbag AI"

โดยเฉพาะการพูดเก่ง โดยเฉพาะการสร้างบรรยากาศ และรู้วิธีทำให้คนอื่นรู้สึกว่า "เข้าใจฉันดี" "มีมนุษยธรรมมาก" และ "จิตวิญญาณของมันสมบูรณ์มาก" แต่เมื่อคุณแยกออก คุณจะพบว่าในหลายกรณี แต่ละคำขอจะเต็มไปด้วยข้อความการตั้งค่าขนาดใหญ่ที่ยาวกว่าคำถามของผู้ใช้มาก

เหตุการณ์ไฟไหม้ Openclaw เป็นตัวอย่างทั่วไป ใครก็ตามที่เคยใช้จะรู้ดีว่ามันค่อนข้างต้องใช้โทเค็นมาก เหตุผลจริงๆ แล้วไม่ใช่เรื่องลึกลับ เพื่อทำให้ AI เป็นเหมือน "มนุษย์" มากขึ้น Openclaw ได้ออกแบบเอกสารหลายฉบับ เอกสารที่โดดเด่นที่สุดคือ AGENTS.md, SOUL.md และ IDENTITY.md เอกสารเหล่านี้กำหนด "บุคลิกภาพ" น้ำเสียง เอกลักษณ์ และอารมณ์ของ AI ในลักษณะที่มีคารมคมคายและยาว และต้องการจดบันทึกสภาพจิตใจด้วย

ดังนั้นแม้ว่าผู้ใช้เพียงแค่ส่งคำว่า 'สวัสดี' Openclaw อาจแนบข้อความที่ยาวกว่าคำทักทายหลายสิบเท่าไปทางด้านหลังและส่งไปที่โมเดลทั้งหมดในคราวเดียว ดูเหมือนว่า "AI นี้มีจิตวิญญาณมากมาย" แต่จริงๆ แล้วหลายครั้งมันเป็นเพียงระบบที่แอบยัดการตั้งค่าพื้นหลังที่ยาวมากเข้าไปในคำขอ

จากมุมมองทางวิศวกรรม นี่เป็นแนวทางที่แน่นอน หากคุณต้องการให้อ่อนโยนมากขึ้น ให้เขียนว่า "gentle"; หากคุณต้องการให้มีการเล่าเรื่องมากขึ้น ให้เขียนว่า "การเล่าเรื่อง" หากคุณต้องการให้เป็นเหมือนนักจัดรายการวิทยุตอนดึก ให้เขียนรายการดึกทั้งหมด ความเป็นเพื่อน การหยุด ความอ่อนแอ ความเข้าใจ และการยับยั้งชั่งใจด้วยคำพูดที่พร้อมท์ ผลสุดท้ายมักจะเป็นเหมือนคนที่สามารถพูดคุยได้มากกว่า

แต่ถ้าคุณเข้าใจสิ่งที่เกิดขึ้นกับ AI ในตอนนี้ คุณจะรู้ว่าไฟล์ที่มีชื่อที่ฟังดูลึกลับ เช่น SOUL.md และ IDENTITY.md นั้นเป็นโปรเจ็กต์คำศัพท์ที่รวดเร็ว ไม่ใช่คำแนะนำด้วยตนเองสำหรับชีวิตดิจิทัล สิ่งเหล่านี้สามารถมีอิทธิพลต่อสไตล์เอาท์พุตได้ แต่ไม่สามารถสร้างความรู้สึกที่แท้จริง ตัวตนที่แท้จริง หรือความรู้สึกที่แท้จริงของบุคลิกภาพที่ต่อเนื่องออกมาจากอากาศบางเบาได้

ดังนั้น หลังจากที่ผู้ใช้เก่าติดตั้ง Openclaw ปฏิกิริยาแรกของพวกเขาคือการลบการกำหนดค่า SOUL.md และ IDENTITY.md จะถูกลบออกก่อน เหลือเพียงประโยคที่เรียบง่ายและเกือบจะโหดเหี้ยมเพียงประโยคเดียวใน AGENTS.md: คุณเป็นเพียงคนงาน

นี่อาจฟังดูหยาบคายเล็กน้อย แต่ก็มีข้อดีอย่างน้อยหนึ่งประการ นั่นคือ คุณไม่หลอกลวงตัวเอง

หากคุณชอบ AI ที่เป็นมนุษย์หรือเล่นตามบทบาทกับ AI ก็ไม่เป็นไร มนุษย์สามารถพูดคุยกับกระจก ตั้งชื่อให้กับหุ่นยนต์กวาด และพูดกับพยากรณ์อากาศว่า "วันนี้คุณแม่นยำมาก" สิ่งเหล่านี้เป็นเรื่องปกติและอาจตลกได้ด้วย

แต่ควรจำไว้เสมอว่า มันเป็นเกมมาก่อนและเป็นประสบการณ์ที่สอง ความรู้สึกมากมายที่ผู้คนมีในเกมนี้ไม่ได้มาจากความคิดภายในที่ซ่อนอยู่ของ AI แต่มาจากการออกแบบระบบ การจัดเรียงคำที่รวดเร็ว และการฉายภาพทางอารมณ์ของผู้ใช้เอง พูดให้ตรงไปตรงมามากขึ้น การเคลื่อนไหวหลายอย่างสู่ AI ยังคงเป็นความคิดที่ปรารถนา

ในการวิเคราะห์ขั้นสุดท้าย ตำนานน้อยลง และความเข้าใจมากขึ้น

ฉันไม่ได้พยายามที่จะโยนน้ำเย็นใส่ AI ในทางตรงกันข้าม ยิ่งมีศรัทธาน้อยเท่าใด คุณก็จะยิ่งมองเห็นได้อย่างแท้จริงว่ามันทรงพลังเพียงใด

มันมีพลังไม่ใช่เพราะมันเป็นเหมือนเทพเจ้าองค์ใหม่ มันทรงพลังมากจริงๆ เพราะจริงๆ แล้วอาจเป็นเทคโนโลยีการรับรู้ที่สามารถคำนวณ สร้างทางวิศวกรรม และทำซ้ำได้ ช่วยให้ความสามารถหลายอย่างที่ดูเหมือนจะเป็นของ "พรสวรรค์ของมนุษย์" ในอดีตปรากฏในปริมาณมาก เกณฑ์ขั้นต่ำ และในลักษณะที่สามารถเรียกใช้ได้เป็นครั้งแรก เรื่องนี้น่าตกใจมากพอแล้ว และไม่จำเป็นต้องมีดราม่าอะไรเพิ่มเติมอีก

แน่นอนว่า AI ยังคงวนซ้ำอย่างรวดเร็ว ฉันจะไม่แปลกใจเลยถ้ามีคนค้นพบกลไกที่ใกล้เคียงกับความทรงจำของมนุษย์ การเรียนรู้อย่างต่อเนื่อง การสร้างอารมณ์ หรือแม้แต่การดำรงชีวิตในตนเองได้ในอนาคต และนำมันมาสร้างเป็น AI ได้อย่างน่าเชื่อถือ

แต่จนกว่าวันนั้นจะมาถึง ฉันยังคงชอบที่จะรักษานิสัยง่ายๆ ที่เป็นประโยชน์ไว้ เช่น สงสัยมากขึ้น เข้าใจมากขึ้น และคาดเดาน้อยลง

สำหรับเพื่อนศิลปศาสตร์ที่กระตือรือร้นที่จะพูดคุยเกี่ยวกับ AI คุณภาพนี้อาจมีความสำคัญมากยิ่งขึ้น นักศึกษาศิลปศาสตร์อาจจะเก่งวาทศิลป์ที่ไพเราะกว่า สิ่งที่ยากจริงๆ ก็คือ ในยุคที่ "ดูเหมือนกลายเป็นวิญญาณ" เกินจริงไปทุกที่ คุณยังมีความอดทนที่จะแยกแยะ:

ความสามารถของโมเดลคืออะไร?

บรรจุภัณฑ์ของผลิตภัณฑ์คืออะไร?

วิศวกรรมซอฟต์แวร์คืออะไร?

อันไหนที่เป็นเพียงเราอยากให้โครงเรื่องของโลกสมบูรณ์มากเกินไป

และท้ายที่สุดแล้วเรื่องนี้คือการปกป้องวิจารณญาณของเราเอง

ลิงค์อ้างอิง