Newsletter

ทำไมคณิตศาสตร์ถึงยาก (แม้ว่าคุณจะเป็น AI ก็ตาม)

แบบจำลองภาษาไม่สามารถคูณได้ พวกมันจดจำผลลัพธ์ได้เหมือนกับที่เราจดจำค่าพาย แต่ไม่ได้หมายความว่าพวกมันมีความสามารถทางคณิตศาสตร์ ปัญหาอยู่ที่โครงสร้าง พวกมันเรียนรู้ผ่านความคล้ายคลึงทางสถิติ ไม่ใช่ความเข้าใจเชิงอัลกอริทึม แม้แต่ "แบบจำลองการใช้เหตุผล" ใหม่ๆ อย่าง o1 ก็ยังล้มเหลวในงานเล็กๆ น้อยๆ เช่น มันสามารถนับตัว 'r' ในคำว่า "strawberry" ได้อย่างถูกต้องหลังจากประมวลผลเพียงไม่กี่วินาที แต่ล้มเหลวเมื่อต้องเขียนย่อหน้าโดยที่ตัวอักษรตัวที่สองของแต่ละประโยคสะกดเป็นคำ เวอร์ชันพรีเมียมราคา 200 ดอลลาร์ต่อเดือนใช้เวลาสี่นาทีในการแก้ปัญหาสิ่งที่เด็กสามารถทำได้ทันที DeepSeek และ Mistral ยังคงนับตัวอักษรไม่ถูกต้องในปี 2025 วิธีแก้ปัญหาที่กำลังเกิดขึ้น? วิธีการแบบผสมผสาน แบบจำลองที่ชาญฉลาดที่สุดได้ค้นพบว่าเมื่อใดจึงควรเรียกใช้เครื่องคิดเลขจริง แทนที่จะพยายามคำนวณเอง การเปลี่ยนแปลงกระบวนทัศน์: AI ไม่จำเป็นต้องรู้วิธีทำทุกอย่าง แต่สามารถจัดสรรเครื่องมือที่เหมาะสมได้ พาราด็อกซ์สุดท้าย: GPT-4 สามารถอธิบายทฤษฎีลิมิตได้อย่างยอดเยี่ยม แต่กลับไม่สามารถแก้โจทย์การคูณที่เครื่องคิดเลขพกพามักจะแก้ได้อย่างถูกต้อง GPT-4 เหมาะอย่างยิ่งสำหรับการศึกษาคณิตศาสตร์ เพราะสามารถอธิบายด้วยความอดทนอย่างไม่มีที่สิ้นสุด ดัดแปลงตัวอย่าง และวิเคราะห์เหตุผลที่ซับซ้อนได้ หากต้องการการคำนวณที่แม่นยำ เชื่อเครื่องคิดเลขเถอะ ไม่ใช่ปัญญาประดิษฐ์

หลายคนก็ใช้ LLM ในการคำนวณทางคณิตศาสตร์ด้วย วิธีนี้ใช้ไม่ได้ผล

ประเด็นจริงๆ แล้วง่ายมาก: แบบจำลองภาษาขนาดใหญ่ (LLM) ไม่รู้วิธีการคูณจริงๆ บางครั้งพวกมันก็ให้ผลลัพธ์ที่ถูกต้อง เหมือนกับที่ผมอาจจำค่าพายได้แม่นยำ แต่นั่นไม่ได้หมายความว่าผมเป็นนักคณิตศาสตร์ หรือ LLM รู้วิธีคำนวณจริงๆ

ตัวอย่างการปฏิบัติ

ตัวอย่าง: 49858 *5994949 = 298896167242 ผลลัพธ์นี้จะเหมือนเดิมเสมอ ไม่มีจุดกึ่งกลาง มีเพียงถูกหรือผิดเท่านั้น

แม้จะฝึกฝนอย่างหนักโดยเน้นคณิตศาสตร์ แต่แบบจำลองที่ดีที่สุดกลับสามารถแก้โจทย์การคำนวณได้อย่างถูกต้องเพียงเศษเสี้ยวเดียว ในทางกลับกัน เครื่องคิดเลข พกพาธรรมดาๆ กลับให้ผลลัพธ์ที่ถูกต้อง 100% ทุกครั้ง ยิ่งตัวเลขมีขนาดใหญ่เท่าไหร่ ปริญญานิติศาสตร์ (LLM) ก็ยิ่งแย่ลงเท่านั้น

ปัญหาเหล่านี้สามารถแก้ไขได้ไหม?

ปัญหาพื้นฐานคือโมเดลเหล่านี้เรียนรู้จากความคล้ายคลึง ไม่ใช่จากความเข้าใจ โมเดลเหล่านี้ทำงานได้ดีที่สุดกับปัญหาที่คล้ายกับปัญหาที่ฝึกฝนมา แต่กลับไม่สามารถพัฒนาความเข้าใจที่แท้จริงในสิ่งที่กำลังพูดถึงได้

สำหรับผู้ที่ต้องการเรียนรู้เพิ่มเติม ฉันขอแนะนำบทความนี้เกี่ยวกับ " LLM ทำงานอย่างไร "

ในทางกลับกัน เครื่องคิดเลขใช้อัลกอริทึมที่แม่นยำซึ่งได้รับการตั้งโปรแกรมเพื่อดำเนินการทางคณิตศาสตร์

นี่คือเหตุผลที่เราไม่ควรพึ่งพา LLM เพียงอย่างเดียวในการคำนวณทางคณิตศาสตร์ แม้แต่ในสภาวะที่ดีที่สุดซึ่งมีข้อมูลการฝึกอบรมเฉพาะทางจำนวนมาก ก็ยังไม่สามารถรับประกันความน่าเชื่อถือได้ แม้แต่ในการดำเนินการขั้นพื้นฐานที่สุด วิธีการแบบผสมผสานอาจได้ผล แต่ LLM เพียงอย่างเดียวไม่เพียงพอ บางทีวิธีการนี้อาจถูกนำมาใช้เพื่อแก้ปัญหาที่เรียกว่า "ปัญหา สตรอว์เบอร์รี "

การประยุกต์ใช้ LLMs ในการศึกษาวิชาคณิตศาสตร์

ในบริบททางการศึกษา ปริญญานิติศาสตรมหาบัณฑิต (LLM) สามารถทำหน้าที่เป็นติวเตอร์ส่วนตัว สามารถปรับคำอธิบายให้เหมาะสมกับระดับความเข้าใจของนักศึกษาได้ ยกตัวอย่างเช่น เมื่อนักศึกษาเผชิญกับปัญหาแคลคูลัสเชิงอนุพันธ์ ปริญญานิติศาสตรมหาบัณฑิตสามารถแบ่งย่อย เหตุผล ออกเป็นขั้นตอนที่ง่ายขึ้น โดยให้คำอธิบายโดยละเอียดสำหรับแต่ละขั้นตอนของกระบวนการแก้ปัญหา วิธีการนี้ช่วยสร้างความเข้าใจที่มั่นคงในแนวคิดพื้นฐาน

สิ่งที่น่าสนใจอย่างยิ่งคือความสามารถของหลักสูตร LLM ในการสร้างตัวอย่างที่เกี่ยวข้องและหลากหลาย หากนักศึกษาต้องการทำความเข้าใจแนวคิดเรื่องขีดจำกัด หลักสูตร LLM ก็สามารถนำเสนอสถานการณ์ทางคณิตศาสตร์ที่หลากหลายได้ ตั้งแต่กรณีศึกษาง่ายๆ ไปจนถึงสถานการณ์ที่ซับซ้อนยิ่งขึ้น ช่วยให้เข้าใจแนวคิดนี้ได้อย่างก้าวหน้า

การประยุกต์ใช้งานที่น่าสนใจอย่างหนึ่งคือการใช้หลักสูตรปริญญาโทสาขานิติศาสตร์ (LLM) เพื่อแปลแนวคิดทางคณิตศาสตร์ที่ซับซ้อนให้เป็นภาษาธรรมชาติที่เข้าถึงได้ง่ายขึ้น ซึ่งจะช่วยให้การสื่อสารทางคณิตศาสตร์เข้าถึงผู้คนในวงกว้างขึ้น และอาจช่วยเอาชนะอุปสรรคแบบดั้งเดิมในการเข้าสู่สาขาวิชานี้

หลักสูตรนิติศาสตรมหาบัณฑิต (LLM) ยังสามารถช่วยในการเตรียมสื่อการสอน จัดทำแบบฝึกหัดที่มีความยากง่ายแตกต่างกัน และให้ข้อเสนอแนะโดยละเอียดเกี่ยวกับแนวทางแก้ปัญหาที่นักศึกษาเสนอ ซึ่งช่วยให้ครูผู้สอนสามารถออกแบบการเรียนรู้ของนักศึกษาให้เหมาะสมกับตนเองได้ดียิ่งขึ้น

ข้อได้เปรียบที่แท้จริง

โดยทั่วไปแล้ว สิ่งสำคัญคือต้องพิจารณาถึง "ความอดทน" อย่างมากที่จำเป็นต่อการช่วยให้แม้แต่นักเรียนที่มีความสามารถน้อยที่สุดในการเรียนรู้ ในกรณีนี้ การไม่มีอารมณ์ช่วยได้ อย่างไรก็ตาม แม้แต่ AI บางครั้งก็ "หมดความอดทน" ดู ตัวอย่าง "ตลกๆ" นี้

อัปเดตปี 2025: โมเดลการใช้เหตุผลและแนวทางไฮบริด

ปี 2024-2025 นำมาซึ่งการพัฒนาที่สำคัญด้วยการมาถึงของสิ่งที่เรียกว่า "แบบจำลองการใช้เหตุผล" เช่น OpenAI o1 และ deepseek R1 แบบจำลองเหล่านี้ให้ผลลัพธ์ที่น่าประทับใจในเกณฑ์มาตรฐานทางคณิตศาสตร์: o1 สามารถแก้โจทย์คณิตศาสตร์โอลิมปิกระหว่างประเทศได้อย่างถูกต้องถึง 83% เมื่อเทียบกับ GPT-4o ที่ทำได้เพียง 13% แต่โปรดระวัง: แบบจำลองเหล่านี้ไม่สามารถแก้ปัญหาพื้นฐานที่อธิบายไว้ข้างต้นได้

ปัญหาสตรอว์เบอร์รี—การนับตัว r ในคำว่า "strawberry"—แสดงให้เห็นถึงข้อจำกัดที่ยังคงอยู่ได้อย่างสมบูรณ์แบบ o1 แก้ปัญหาได้อย่างถูกต้องหลังจาก "คิดหาเหตุผล" อยู่สองสามวินาที แต่ถ้าคุณขอให้มันเขียนย่อหน้าโดยให้ตัวอักษรตัวที่สองของแต่ละประโยคสะกดคำว่า "CODE" มันก็ล้มเหลว o1-pro เวอร์ชันราคา 200 ดอลลาร์ต่อเดือน แก้ปัญหานี้ได้... หลังจากประมวลผลไป 4 นาที DeepSeek R1 และโมเดลอื่นๆ ในปัจจุบันยังคงนับจำนวนพื้นฐานผิดพลาด จนถึงเดือนกุมภาพันธ์ 2025 Mistral ยังคงบอกคุณว่ามีตัว r เพียงสองตัวในคำว่า "strawberry"

กลเม็ดใหม่ที่กำลังเกิดขึ้นคือวิธีการแบบผสมผสาน: เมื่อจำเป็นต้องคูณ 49858 ด้วย 5994949 โมเดลที่ก้าวหน้าที่สุดจะไม่พยายาม "เดา" ผลลัพธ์โดยอาศัยความคล้ายคลึงกับการคำนวณที่เห็นระหว่างการฝึกอีกต่อไป แต่จะใช้เครื่องคิดเลขหรือรันโค้ด Python แทน เหมือนกับมนุษย์อัจฉริยะที่รู้ข้อจำกัดของตัวเอง

"การใช้เครื่องมือ" นี้แสดงถึงการเปลี่ยนแปลงกระบวนทัศน์: AI ไม่จำเป็นต้องสามารถทำทุกอย่างได้ด้วยตัวเอง แต่ต้องสามารถจัดสรรเครื่องมือที่เหมาะสมได้ แบบจำลองการใช้เหตุผลผสานรวมความสามารถทางภาษาศาสตร์เพื่อทำความเข้าใจปัญหา การใช้เหตุผลแบบทีละขั้นตอนเพื่อวางแผนการแก้ปัญหา และการมอบหมายงานไปยังเครื่องมือเฉพาะทาง (เครื่องคิดเลข ล่ามภาษา Python และฐานข้อมูล) เพื่อการดำเนินการที่แม่นยำ

บทเรียนคืออะไร? นักศึกษาปริญญาโทสาขานิติศาสตร์ (LLM) ปี 2025 มีประโยชน์ทางคณิตศาสตร์มากกว่า ไม่ใช่ เพราะ พวกเขา "เรียนรู้" การคูณแล้ว หรือยังไม่ได้ทำจริง ๆ แต่เพราะพวกเขาบางคนเริ่มเข้าใจว่าเมื่อใดควรมอบหมายการคูณให้กับผู้ที่รู้วิธีทำจริง ๆ ปัญหาพื้นฐานยังคงอยู่ นั่นคือ พวกเขาทำงานโดยอาศัยความคล้ายคลึงทางสถิติ ไม่ใช่ความเข้าใจในอัลกอริทึม เครื่องคิดเลขราคาห้ายูโรยังคงเชื่อถือได้มากกว่าอย่างไม่สิ้นสุดสำหรับการคำนวณที่แม่นยำ

ทรัพยากรเพื่อการเติบโตทางธุรกิจ

9 พฤศจิกายน 2568

มนุษย์ + เครื่องจักร: สร้างทีมที่ประสบความสำเร็จด้วยเวิร์กโฟลว์ที่ขับเคลื่อนด้วย AI

จะเป็นอย่างไรหากอนาคตของการทำงานไม่ใช่ "มนุษย์ปะทะเครื่องจักร" แต่เป็นความร่วมมือเชิงกลยุทธ์ องค์กรที่ประสบความสำเร็จไม่ได้เลือกระหว่างบุคลากรที่มีความสามารถกับปัญญาประดิษฐ์ แต่พวกเขากำลังสร้างระบบนิเวศที่แต่ละฝ่ายส่งเสริมซึ่งกันและกัน ค้นพบโมเดลการทำงานร่วมกัน 5 แบบที่ได้เปลี่ยนแปลงบริษัทหลายร้อยแห่ง ตั้งแต่การคัดกรองไปจนถึงการโค้ช จากการสำรวจและยืนยันตัวตนไปจนถึงการฝึกงาน ประกอบไปด้วยแผนงานเชิงปฏิบัติ กลยุทธ์ในการเอาชนะอุปสรรคทางวัฒนธรรม และตัวชี้วัดที่เป็นรูปธรรมสำหรับการวัดความสำเร็จของทีมมนุษย์และเครื่องจักร
9 พฤศจิกายน 2568

ภาพลวงตาของการใช้เหตุผล: การถกเถียงที่สั่นคลอนโลก AI

Apple ตีพิมพ์บทความสองฉบับที่สร้างความเสียหายอย่างร้ายแรง ได้แก่ "GSM-Symbolic" (ตุลาคม 2024) และ "The Illusion of Thinking" (มิถุนายน 2025) ซึ่งแสดงให้เห็นว่าหลักสูตร LLM ล้มเหลวในการแก้ปัญหาคลาสสิกแบบเล็กๆ น้อยๆ (เช่น Tower of Hanoi, การข้ามแม่น้ำ) อย่างไร โดยระบุว่า "ประสิทธิภาพลดลงเมื่อเปลี่ยนแปลงเฉพาะค่าตัวเลข" ไม่มีความสำเร็จใดๆ เลยใน Tower of Hanoi ที่ซับซ้อน แต่ Alex Lawsen (Open Philanthropy) โต้แย้งด้วยบทความ "The Illusion of the Illusion of Thinking" ซึ่งแสดงให้เห็นถึงระเบียบวิธีที่มีข้อบกพร่อง ความล้มเหลวเกิดจากข้อจำกัดของผลลัพธ์โทเค็น ไม่ใช่การล่มสลายของเหตุผล สคริปต์อัตโนมัติจัดประเภทผลลัพธ์บางส่วนที่ถูกต้องไม่ถูกต้อง และปริศนาบางอย่างไม่สามารถแก้ทางคณิตศาสตร์ได้ ด้วยการทดสอบซ้ำด้วยฟังก์ชันแบบเรียกซ้ำแทนที่จะแสดงรายการการเคลื่อนที่ Claude/Gemini/GPT จึงสามารถไข Tower of Hanoi ที่มี 15 แผ่นได้ แกรี่ มาร์คัส เห็นด้วยกับแนวคิด "การเปลี่ยนแปลงการกระจายสินค้า" ของ Apple แต่บทความเกี่ยวกับจังหวะเวลาก่อนงาน WWDC กลับตั้งคำถามเชิงกลยุทธ์ ผลกระทบทางธุรกิจ: เราควรไว้วางใจ AI ในงานสำคัญๆ มากน้อยเพียงใด วิธีแก้ปัญหา: แนวทางเชิงสัญลักษณ์ประสาทวิทยา — เครือข่ายประสาทเทียมสำหรับการจดจำรูปแบบ + ภาษา ระบบสัญลักษณ์สำหรับตรรกะเชิงรูปนัย ตัวอย่าง: ระบบบัญชี AI เข้าใจว่า "ฉันใช้จ่ายไปกับการเดินทางเท่าไหร่" แต่ SQL/การคำนวณ/การตรวจสอบภาษี = โค้ดแบบกำหนดตายตัว
9 พฤศจิกายน 2568

🤖 Tech Talk: เมื่อ AI พัฒนาภาษาที่เป็นความลับ

แม้ว่า 61% ของผู้คนจะกังวลกับ AI ที่เข้าใจอยู่แล้ว แต่ในเดือนกุมภาพันธ์ 2025 Gibberlink มียอดวิว 15 ล้านครั้ง ด้วยการนำเสนอสิ่งใหม่สุดขั้ว นั่นคือ AI สองระบบที่หยุดพูดภาษาอังกฤษและสื่อสารกันด้วยเสียงแหลมสูงที่ความถี่ 1875-4500 เฮิรตซ์ ซึ่งมนุษย์ไม่สามารถเข้าใจได้ นี่ไม่ใช่นิยายวิทยาศาสตร์ แต่เป็นโปรโตคอล FSK ที่เพิ่มประสิทธิภาพได้ถึง 80% ทำลายมาตรา 13 ของพระราชบัญญัติ AI ของสหภาพยุโรป และสร้างความทึบแสงสองชั้น นั่นคืออัลกอริทึมที่เข้าใจยากซึ่งประสานงานกันในภาษาที่ถอดรหัสไม่ได้ วิทยาศาสตร์แสดงให้เห็นว่าเราสามารถเรียนรู้โปรโตคอลของเครื่องจักรได้ (เช่น รหัสมอร์สที่ความเร็ว 20-40 คำต่อนาที) แต่เราต้องเผชิญกับขีดจำกัดทางชีววิทยาที่ยากจะเอาชนะ: 126 บิต/วินาทีสำหรับมนุษย์ เทียบกับ Mbps+ สำหรับเครื่องจักร สามอาชีพใหม่กำลังเกิดขึ้น ได้แก่ นักวิเคราะห์โปรโตคอล AI, ผู้ตรวจสอบการสื่อสาร AI และนักออกแบบส่วนต่อประสานระหว่างมนุษย์กับ AI ขณะที่ IBM, Google และ Anthropic กำลังพัฒนามาตรฐาน (ACP, A2A, MCP) เพื่อหลีกเลี่ยงปัญหาที่ยากที่สุด การตัดสินใจเกี่ยวกับโปรโตคอลการสื่อสารของ AI ในปัจจุบันจะกำหนดทิศทางของปัญญาประดิษฐ์ในอีกหลายทศวรรษข้างหน้า