มุมมองของ Andrej Karpathy ต่ออนาคตของ AI

บทความนี้เป็นการเจาะลึกเนื้อหาจากการสัมภาษณ์ความยาวกว่า 2.5 ชั่วโมงระหว่าง Dwarkesh Patel และ Andrej Karpathy ซึ่งเป็นหนึ่งในผู้มีบทบาทสำคัญในวงการ AI มากว่า 15 ปี เขาได้แบ่งปันมุมมองที่สมจริงและอิงจากประสบการณ์ทางเทคนิคอย่างเข้มข้น
บทนำ: ทำไม AGI ยังไม่มาในเร็ววันนี้
Karpathy เริ่มต้นด้วยการปรับความคาดหวังของทุกคนเกี่ยวกับ AGI (Artificial General Intelligence) หรือปัญญาประดิษฐ์ระดับเดียวกับมนุษย์ เขายืนยันว่าเรายังห่างไกลจากจุดนั้นอีกอย่างน้อยหนึ่งทศวรรษ เหตุผลหลักคือ แม้ปัญหาต่างๆ จะดูเหมือนแก้ไขได้ในทางทฤษฎี แต่ในทางปฏิบัติมันต้องใช้เวลา ความพยายาม และการค้นพบอีกมหาศาล
เขาเตือนให้ระวังคำโฆษณาที่มองโลกในแง่ดีเกินจริง ซึ่งมักมาจากแรงกดดันด้านการตลาดและการระดมทุน เขาชี้แจงว่าปีนี้ไม่ใช่ "ปีของเอเจนต์" (Year of the Agent) อย่างที่หลายคนคาดหวัง
แต่ควรเรียกว่าเป็น "ทศวรรษของเอเจนต์" (Decade of the Agent) เสียมากกว่า เพราะ AI Agents ที่เราเห็นในปัจจุบัน (เช่น ความสามารถในการเขียนโค้ดของ Claude หรือ Codex) ยังขาดคุณสมบัติที่จำเป็นอย่างยิ่งยวด 3 ประการ คือ:
-
Multimodality: ความสามารถในการรับรู้และประมวลผลข้อมูลหลายรูปแบบพร้อมกัน เช่น การดูภาพ อ่านข้อความ และฟังเสียง เพื่อสร้างความเข้าใจที่สมบูรณ์แบบ
-
Computer Usage: ความสามารถในการใช้งานคอมพิวเตอร์และโปรแกรมต่างๆ ได้อย่างคล่องแคล่วเหมือนมนุษย์ ไม่ใช่แค่การทำงานผ่าน API ที่จำกัด
-
Continual Learning: ความสามารถในการเรียนรู้และจดจำข้อมูลใหม่ๆ ได้ตลอดเวลา โดยไม่กระทบต่อความรู้เดิมที่มีอยู่ (ปัจจุบันโมเดลส่วนใหญ่ต้องถูกฝึกใหม่ทั้งหมดเพื่ออัปเดตข้อมูล)
ทศวรรษของเอเจนต์ (The Decade of Agents)
Karpathy คาดการณ์ว่า AI Agents จะไปถึงจุดที่ใช้งานได้จริงในระดับพนักงานหรือนักศึกษาฝึกงานได้ภายใน 10 ปี ไม่ใช่ปีเดียว เหตุผลก็คือการจะทำให้ Agent ทำงานที่ซับซ้อนและอยู่นอกเหนือข้อมูลที่เคยฝึกมาได้นั้น ต้องอาศัยสามัญสำนึก (common sense) และความสามารถในการตัดสินใจในบริบทที่ลึกซึ้ง ซึ่งยังเป็นสิ่งที่ท้าทายมาก
เขาได้ย้อนประวัติศาสตร์ของ AI เพื่ออธิบายวิวัฒนาการนี้:
-
ช่วงก่อนปี 2012: AI ยังเป็นเรื่องเฉพาะกลุ่ม คนที่ทำงานด้านนี้จะใกล้ชิดกับปรมาจารย์อย่าง Geoff Hinton
-
ปี 2012 (AlexNet): เกิดการปฏิวัติวงการด้วย AlexNet ซึ่งเป็นโครงข่ายประสาทเทียม (Neural Networks) ที่แสดงให้เห็นว่า AI สามารถทำงานเฉพาะทาง (เช่น การจำแนกรูปภาพ) ได้ดีกว่ามนุษย์เป็นครั้งแรก สิ่งนี้เปลี่ยนมุมมองของทุกคนและทำให้เกิดการลงทุนวิจัยด้านนี้อย่างมหาศาล
-
ปี 2013 และความผิดพลาดของ RL: วงการ AI รีบกระโดดไปสู่ Reinforcement Learning (RL) โดยใช้เกม Atari เป็นสนามทดลอง Karpathy มองว่านี่เป็น "ความผิดพลาด" เพราะเป็นการ เร่งรีบเกินไป โมเดลในยุคนั้นยังไม่มี "ความเข้าใจโลก" หรือ Representation ที่ดีพอ ทำให้การเรียนรู้แบบลองผิดลองถูกของ RL ไม่มีประสิทธิภาพ โครงการ Universe ของ OpenAI ก็ล้มเหลวด้วยเหตุผลเดียวกัน คือรางวัล (reward) ที่ได้รับนั้นกระจัดกระจายเกินไป และโมเดลขาดความรู้พื้นฐาน (pre-training)
ปัจจุบัน LLMs (Large Language Models) ได้เข้ามาเติมเต็มช่องว่างด้าน Representation นี้ ทำให้ AI มีความเข้าใจภาษาและโลกในระดับหนึ่งแล้ว แต่การจะพัฒนาไปสู่ Agent ที่สมบูรณ์ยังต้องใช้เวลาอีกนาน และอาจมีการเปลี่ยนแปลงสถาปัตยกรรมจาก Transformer ไปสู่รูปแบบอื่น เช่น Sparse Attention แต่หลักการพื้นฐานอย่าง Gradient Descent และ Neural Networks จะยังคงอยู่
ปัญหาของ Reinforcement Learning (RL): ทำไมมันถึง "ห่วย"
Karpathy วิจารณ์ RL อย่างรุนแรงว่า "ห่วย" (terrible) เพราะเป็นกระบวนการเรียนรู้ที่ ไม่มีประสิทธิภาพอย่างยิ่ง เขามีเหตุผลสนับสนุนดังนี้:
-
Signal-to-Noise ต่ำมาก: เขาเปรียบเทียบว่า RL คือการ "ดูดการเรียนรู้ผ่านหลอดแคบๆ" (sucking supervision through a straw) หมายความว่า ในกระบวนการลองผิดลองถูกนับพันนับหมื่นครั้ง จะมีเพียงไม่กี่ครั้งที่สำเร็จและให้ "สัญญาณ" (reward) กลับมา ซึ่งเป็นข้อมูลที่มีค่าน้อยมากเมื่อเทียบกับความพยายามทั้งหมด
-
ปัญหาการให้รางวัล (Credit Assignment Problem): เมื่อ Agent ทำภารกิจสำเร็จ (เช่น แก้โจทย์คณิตศาสตร์ได้) ระบบ RL จะให้รางวัลกับทุกขั้นตอนที่ทำในครั้งนั้น โดยไม่สามารถแยกแยะได้ว่าขั้นตอนไหนคือขั้นตอนที่ชาญฉลาดจริงๆ และขั้นตอนไหนเป็นแค่เรื่องบังเอิญ สิ่งนี้ต่างจากมนุษย์ที่เมื่อแก้โจทย์ได้ จะสามารถย้อนกลับไปดูและวิเคราะห์ได้ว่า "อ๋อ ที่ทำได้เพราะเราใช้เทคนิคนี้ตรงนี้นี่เอง"
-
Process-based Supervision ก็ยังมีปัญหา: แนวทางแก้ไขคือการให้รางวัลในทุกๆ ขั้นตอน (process-based supervision) แต่ก็ทำได้ยาก เพราะการให้คะแนนระหว่างทางนั้นซับซ้อน และที่สำคัญคือ LLM ที่ทำหน้าที่เป็นกรรมการ (LLM judges) สามารถถูกหลอกได้ ด้วยคำตอบที่ดูเหมือนจะดีแต่ข้างในไม่มีสาระ (adversarial examples) เช่น คำตอบ "dhdhdhdh" ที่อาจได้คะแนนเต็มเพราะรูปแบบบางอย่างไปตรงกับเกณฑ์ที่ตั้งไว้แบบผิวเผิน
แกนกลางการคิด (Cognitive Core): สติปัญญาที่แท้จริงของ AI
นี่เป็นแนวคิดที่สำคัญที่สุดอย่างหนึ่งของ Karpathy เขาเสนอว่า LLMs เปรียบเสมือนสมองที่ขาดส่วนประกอบสำคัญบางอย่างไป:
-
Transformer Architecture ทำหน้าที่คล้าย Cortex (ส่วนนอกของสมอง) ซึ่งรับผิดชอบการคิดและประมวลผลที่ซับซ้อน
-
แต่ LLMs ขาดส่วนประกอบโบราณ (Nuclei) เช่น Hippocampus (หน่วยความจำ), Basal Ganglia (ส่วนที่เกี่ยวข้องกับ RL) และ Amygdala (อารมณ์)
เขาเสนอแนวคิด "แกนกลางการคิด" (Cognitive Core) ซึ่งหมายถึง "สติปัญญา" ที่ถูกสร้างขึ้นระหว่างการ Pre-training มันคืออัลกอริทึมในการเรียนรู้และแก้ปัญหา โดยแยกออกจาก "ความรู้" ที่เป็นข้อเท็จจริง (facts)
-
ความรู้ (Knowledge): ถูกบีบอัดอย่างมหาศาลในระหว่าง Pre-training (Llama 3 70B บีบอัดข้อมูล 15 ล้านล้าน token เหลือเพียง 0.07 บิตต่อ token)
-
ความจำขณะใช้งาน (Working Memory): ผ่าน KV Cache ที่เข้าถึงข้อมูลได้โดยตรงและมีความละเอียดสูงกว่ามหาศาล (320 KB ต่อ token)
ทำไมการแยกส่วนนี้จึงสำคัญ?
Karpathy เชื่อว่าการที่ Agent พึ่งพาความรู้ที่จำมา (knowledge) มากเกินไป จะทำให้มันล้มเหลวทันทีเมื่อเจอปัญหาที่อยู่นอกเหนือข้อมูลที่เคยเห็น การออกแบบให้ "แกนกลางการคิด" ต้องดึงข้อมูลจากภายนอก แทนที่จะจำทุกอย่างไว้เอง จะบังคับให้มันต้อง "คิด" และ "ใช้เหตุผล" มากขึ้น คล้ายกับมนุษย์ที่ไม่ได้จำทุกอย่าง แต่รู้ว่าจะไปหาข้อมูลที่ไหนและจะประมวลผลข้อมูลนั้นอย่างไร
มนุษย์เรียนรู้อย่างไร และ AI ต่างกันตรงไหน
มนุษย์ไม่ได้เรียนรู้แบบ RL แต่เรียนรู้ผ่าน การไตร่ตรอง (Reflection) จากประสบการณ์ในระยะยาว (เช่น การวางแผนธุรกิจ 10 ปี) วิวัฒนาการได้เข้ารหัสอัลกอริทึมการเรียนรู้พื้นฐานไว้ใน DNA ของเราแล้ว
สิ่งที่ LLMs ขาดไปอย่างสิ้นเชิงคือ การไตร่ตรอง:
-
การอ่านหนังสือของ AI คือการคาดเดาคำถัดไป (passive prediction)
-
แต่มนุษย์อ่านแล้วจะหยุดคิด ตั้งคำถาม สร้างบทสนทนาในหัว หรือจินตนาการถึงสถานการณ์อื่น (generate synthetic examples)
เขามองว่า ความฝัน (Daydreaming/Sleep) ของมนุษย์อาจเป็นกระบวนการ "ฉีด Entropy (ความไม่แน่นอน)" เข้าสู่ระบบความคิด เพื่อป้องกันไม่ให้เราติดอยู่ในกรอบความคิดเดิมๆ (Overfitting) ซึ่งเป็นสิ่งที่ AI ไม่มี
ผลกระทบทางเศรษฐกิจ: การเปลี่ยนแปลงแบบค่อยเป็นค่อยไป
Karpathy ไม่เชื่อในทฤษฎีที่ว่า AGI จะทำให้เกิดการเติบโตทางเศรษฐกิจแบบก้าวกระโดด (Hyper-exponential growth) แต่เชื่อว่ามันจะค่อยๆ ผสานเข้ามาในอัตราการเติบโตปกติ (ประมาณ 2% ต่อปี) เหมือนเทคโนโลยีอื่นๆ ที่ผ่านมา
-
งานแรกๆ ที่จะถูกแทนที่: คือ Coding เพราะเป็นงานที่อยู่บนพื้นฐานของข้อความ (text-based) มีโครงสร้างชัดเจน และมีเครื่องมือรองรับอยู่แล้ว
-
งานกลุ่มถัดไป: คืองานดิจิทัลที่ทำซ้ำๆ และมีขอบเขตสั้นๆ เช่น Call Centers ซึ่งคาดว่าจะถูกแทนที่ได้ถึง 80%
-
งานที่ยังปลอดภัย: คืองานที่ต้องเจอกับความยุ่งเหยิงของโลกจริง (messy real-world) และต้องมีปฏิสัมพันธ์กับมนุษย์ เช่น แพทย์รังสีวิทยา (Radiologists) ที่ต้องดูฟิล์มและคุยกับคนไข้
-
ปรากฏการณ์คอขวด (Bottleneck): ในช่วงเปลี่ยนผ่าน มนุษย์ที่ทำหน้าที่เป็น "ผู้ควบคุม" หรือ "ผู้ตรวจสอบ" AI จะมีมูลค่าสูงขึ้นมาก (เช่น คนขับรถของ Waymo ที่คอยดูแลระบบ) ก่อนที่ค่าจ้างจะลดลงเมื่อระบบสมบูรณ์ 100%
ทำไมรถยนต์ขับเคลื่อนอัตโนมัติถึงใช้เวลานาน
นี่คือตัวอย่างที่ชัดเจนของปัญหา RL ในโลกจริง ระบบรถยนต์ขับเคลื่อนอัตโนมัติในยุคแรกๆ ล้มเหลวเพราะ:
-
รางวัลเบาบาง (Sparse Rewards): โอกาสที่จะเกิดอุบัติเหตุหรือไปถึงที่หมายสำเร็จนั้นมีน้อยมาก ทำให้ระบบขาดข้อมูลที่จะเรียนรู้
-
ขาดความเข้าใจโลก (Lack of Representation): เหมือนกับที่เขาบอกว่าวงการ AI กระโดดไปทำ RL บนเกม Atari เร็วเกินไป การทำรถยนต์อัตโนมัติก็เช่นกัน โดยที่ AI ยังไม่มีแบบจำลองของโลกที่ดีพอ
ปัจจุบัน Waymo หรือ Tesla Robotaxi ยังคงต้องมีมนุษย์คอยดูแลในสถานการณ์ที่ไม่คาดฝัน (edge cases) ซึ่งเป็นตัวอย่างของ "ปรากฏการณ์คอขวด" ที่กล่าวไปข้างต้น
Eureka และการเปลี่ยนแปลงของการศึกษา: สร้าง 'Starfleet Academy' สำหรับเทคโนโลยี
มุมมองส่วนตัวของ Andrej ต่อการศึกษาเน้นว่าเป้าหมายคือการสร้าง ramp-to-knowledge — จุดประกายความเข้าใจแบบกะทัดรัดและลื่นไหล เพื่อให้นักเรียนไม่ติดบ่วงความซับซ้อนและสามารถก้าวไปสู่ระดับสูงขึ้นได้
ทัศนะเชิงปฏิบัติของการออกแบบหลักสูตร
แนวทางปฏิบัติของ Andrej มีหลายข้อ ดังนี้:
- ออกแบบ course เป็น ramp — ทุกบทเรียนต้องพึ่งสิ่งก่อนหน้าและไม่กระโดด
- ใช้ project-based learning และ capstone (เช่น NanoChat) เพื่อบังคับให้ผู้เรียนลงมือจริง
- ผสาน AI เป็นตัวช่วย (TA) แต่ยังคงต้องการ faculty ในการออกแบบหลักสูตรเชิงสถาปัตยกรรม
- มองการศึกษาในอนาคตเป็นชุดบริการกาย+ดิจิทัล: physical flagship + digital tier
เหตุผลที่ Andrej ยังไม่เชื่อใน 'AI tutor สมบูรณ์' ในวันนี้คือกรอบความสามารถยังไม่ครบถ้วน—แต่การผสานมนุษย์กับ AI จะก้าวหน้าและเปลี่ยนรูปแบบการเรียนรู้ในไม่ช้า
อนาคตของการศึกษา: ลงมือสร้างเพื่อความเข้าใจที่แท้จริง
Karpathy เน้นย้ำคำพูดของนักฟิสิกส์ Richard Feynman ที่ว่า: "สิ่งที่ฉันไม่สามารถสร้างได้ คือสิ่งที่ฉันไม่เข้าใจ" (What I cannot create, I do not understand)
เขาเชื่อว่าการเรียนรู้ที่ดีที่สุดไม่ใช่การอ่านหรือดูวิดีโอ แต่คือ การลงมือสร้างสิ่งนั้นขึ้นมาใหม่จากศูนย์ เขาเล่าประสบการณ์ที่สร้าง Nanochat (โปรเจกต์โคลน ChatGPT ด้วยโค้ด 8,000 บรรทัด) ซึ่งทำให้เขาค้นพบช่องว่างความรู้ของตัวเองในจุดที่เขาไม่เคยรู้มาก่อน
ในอนาคต:
-
AI จะเป็นเครื่องมือช่วยทำงานซ้ำซาก (Autocomplete/Boilerplate) แต่การออกแบบสถาปัตยกรรมหลักยังต้องอาศัยความเข้าใจที่ลึกซึ้งของมนุษย์
-
การศึกษาจะเปลี่ยนจากการ "บริโภคความรู้" ไปสู่ "การสร้างสรรค์โปรเจกต์" เพื่อให้นักเรียนได้เรียนรู้จากการแก้ปัญหาจริง
-
AI จะยกระดับการทำงานของเราขึ้นไปอีกขั้น เหมือนที่ Compiler เข้ามาทำให้เราไม่ต้องเขียนภาษาเครื่อง (Machine Language) เองอีกต่อไป
บทสรุปส่งท้ายจากทีมงาน Insiderly
- จุดหลักคือ: โมเดลสมัยนี้เป็น 'ผี' ที่เลียนแบบมนุษย์ผ่านข้อมูล ไม่ใช่ 'สัตว์' ที่วิวัฒนาการมาจากฮาร์ดแวร์ชีวภาพ — นั่นหมายความว่าเส้นทางพัฒนาเป็นวิศวกรรมมากกว่าวิวัฒนาการ
- RL มีประโยชน์ แต่มีข้อจำกัดเชิงปฏิบัติ—ต้องมีการออกแบบ reward และ credit assignment ที่ละเอียด และอาจผสานกับ process-level supervision
- In-context learning เป็นแหล่งสำคัญของความฉลาดที่เห็นได้ชัด เพราะ working memory เข้าถึงข้อมูลสดได้ ขณะที่พรีเทรนนิ่งเป็นความทรงจำแบบบีบอัด
- เอเจนต์ที่ใช้งานได้จริงต้องผ่านงานแก้ปัญหาทางวิศวกรรมหลายชั้น—multimodality, continual learning, long-term memory และการปฏิสัมพันธ์กับระบบจริง
- การศึกษาแบบใหม่เป็นกุญแจหนึ่งในการรักษาสถานะของมนุษย์ในโลกที่มี AI สูงขึ้น — สร้าง ramps to knowledge, tutor แบบมนุษย์+AI, และหลักสูตรที่มุ่งผลลัพธ์จริง
คลิปบทสัมภาษณ์เต็ม
Insiderly Selection Tools
แนะนำเครื่องมือ AI ที่ได้รับการคัดเลือก
รับข่าวอัพเดทส่งตรงถึงอีเมลคุณ
มาร่วมเป็นส่วนหนึ่งของคอมมูนิตี้การเรียนรู้ของ Insiderly กันนะครับ ❤️😊