Newsletter

ภาพลวงตาของการใช้เหตุผล: การถกเถียงที่สั่นคลอนโลก AI

Apple ตีพิมพ์บทความสองฉบับที่สร้างความเสียหายอย่างร้ายแรง ได้แก่ "GSM-Symbolic" (ตุลาคม 2024) และ "The Illusion of Thinking" (มิถุนายน 2025) ซึ่งแสดงให้เห็นว่าหลักสูตร LLM ล้มเหลวในการแก้ปัญหาคลาสสิกแบบเล็กๆ น้อยๆ (เช่น Tower of Hanoi, การข้ามแม่น้ำ) อย่างไร โดยระบุว่า "ประสิทธิภาพลดลงเมื่อเปลี่ยนแปลงเฉพาะค่าตัวเลข" ไม่มีความสำเร็จใดๆ เลยใน Tower of Hanoi ที่ซับซ้อน แต่ Alex Lawsen (Open Philanthropy) โต้แย้งด้วยบทความ "The Illusion of the Illusion of Thinking" ซึ่งแสดงให้เห็นถึงระเบียบวิธีที่มีข้อบกพร่อง ความล้มเหลวเกิดจากข้อจำกัดของผลลัพธ์โทเค็น ไม่ใช่การล่มสลายของเหตุผล สคริปต์อัตโนมัติจัดประเภทผลลัพธ์บางส่วนที่ถูกต้องไม่ถูกต้อง และปริศนาบางอย่างไม่สามารถแก้ทางคณิตศาสตร์ได้ ด้วยการทดสอบซ้ำด้วยฟังก์ชันแบบเรียกซ้ำแทนที่จะแสดงรายการการเคลื่อนที่ Claude/Gemini/GPT จึงสามารถไข Tower of Hanoi ที่มี 15 แผ่นได้ แกรี่ มาร์คัส เห็นด้วยกับแนวคิด "การเปลี่ยนแปลงการกระจายสินค้า" ของ Apple แต่บทความเกี่ยวกับจังหวะเวลาก่อนงาน WWDC กลับตั้งคำถามเชิงกลยุทธ์ ผลกระทบทางธุรกิจ: เราควรไว้วางใจ AI ในงานสำคัญๆ มากน้อยเพียงใด วิธีแก้ปัญหา: แนวทางเชิงสัญลักษณ์ประสาทวิทยา — เครือข่ายประสาทเทียมสำหรับการจดจำรูปแบบ + ภาษา ระบบสัญลักษณ์สำหรับตรรกะเชิงรูปนัย ตัวอย่าง: ระบบบัญชี AI เข้าใจว่า "ฉันใช้จ่ายไปกับการเดินทางเท่าไหร่" แต่ SQL/การคำนวณ/การตรวจสอบภาษี = โค้ดแบบกำหนดตายตัว
ฟาบิโอ ลอเรีย
ซีอีโอและผู้ก่อตั้ง Electe‍
เมื่อการใช้เหตุผลของ AI พบกับความเป็นจริง: หุ่นยนต์ใช้กฎตรรกะได้อย่างถูกต้อง แต่กลับระบุว่าลูกบาสเก็ตบอลเป็นส้ม เปรียบเสมือนการที่นักกฎหมายนิติศาสตร์ (LLM) สามารถจำลองกระบวนการเชิงตรรกะได้โดยไม่ต้องมีความเข้าใจที่แท้จริง

ในช่วงไม่กี่เดือนที่ผ่านมา ชุมชน AI ต้องเผชิญกับการถกเถียงอย่างดุเดือด ซึ่งจุดชนวนมาจากงานวิจัยสำคัญสองชิ้นที่ Apple ตีพิมพ์ บทความแรกชื่อ "GSM-Symbolic" (ตุลาคม 2024) และบทความที่สองชื่อ "The Illusion of Thinking" (มิถุนายน 2025) ได้ตั้งคำถามถึงความสามารถในการใช้เหตุผลของ Large Language Models ซึ่งก่อให้เกิดปฏิกิริยาที่หลากหลายทั่วทั้งอุตสาหกรรม

ดังที่เราได้พูดคุยกันในบทความก่อนหน้านี้ เรื่อง "ภาพลวงตาของความก้าวหน้า: การจำลองปัญญาประดิษฐ์ทั่วไปโดยไม่บรรลุเป้าหมาย" คำถามเกี่ยวกับการใช้เหตุผลเทียมนั้นเข้าถึงแก่นแท้ของสิ่งที่เราพิจารณาว่าเป็นปัญญาประดิษฐ์ในเครื่องจักร

สิ่งที่การวิจัยของ Apple กล่าวไว้

นักวิจัยของ Apple ได้ทำการวิเคราะห์แบบจำลอง การใช้เหตุผลขนาดใหญ่ (LRM) อย่างเป็นระบบ ซึ่งเป็นแบบจำลองที่สร้างเส้นทางการใช้เหตุผลโดยละเอียดก่อนที่จะให้คำตอบ ผลลัพธ์ที่ได้นั้นน่าประหลาดใจ และสำหรับหลายๆ คนแล้ว ถือเป็นเรื่องน่าตกใจ

การทดสอบที่ดำเนินการ

การศึกษาได้นำแบบจำลองขั้นสูงมาใช้กับปริศนาอัลกอริทึมคลาสสิก เช่น:

  • หอคอยแห่งฮานอย : ปริศนาทางคณิตศาสตร์ที่ไขได้ครั้งแรกในปี พ.ศ. 2500
  • ปัญหาการข้ามแม่น้ำ : ปริศนาตรรกะที่มีข้อจำกัดเฉพาะ
  • GSM-Symbolic Benchmark : โจทย์คณิตศาสตร์ระดับประถมศึกษารูปแบบต่างๆ

การทดสอบการใช้เหตุผลด้วยปริศนาคลาสสิก: ปัญหาชาวนา หมาป่า แพะ และกะหล่ำปลี เป็นหนึ่งในปริศนาตรรกะที่ใช้ในการศึกษาของ Apple เพื่อประเมินความสามารถในการใช้เหตุผลของนักศึกษาปริญญาโทสาขานิติศาสตร์ (LLM) ความท้าทายอยู่ที่การหาลำดับการข้ามที่ถูกต้อง พร้อมกับการป้องกันไม่ให้หมาป่ากินแพะ หรือป้องกันไม่ให้แพะกินกะหล่ำปลีเมื่อถูกทิ้งไว้ตามลำพัง เป็นการทดสอบที่เรียบง่ายแต่มีประสิทธิภาพในการแยกแยะระหว่างความเข้าใจอัลกอริทึมกับการจดจำรูปแบบ

ผลลัพธ์ที่น่าโต้แย้ง

ผลการศึกษาแสดงให้เห็นว่าการเปลี่ยนแปลงเพียงเล็กน้อยในการกำหนดสูตรปัญหาก็นำไปสู่ การเปลี่ยนแปลงประสิทธิภาพอย่างมีนัยสำคัญ ซึ่งชี้ให้เห็นถึงจุดอ่อนที่น่ากังวลใน เหตุผล รายงานของ AppleInsider ระบุว่า "ประสิทธิภาพของโมเดลทั้งหมดลดลงเมื่อมีการเปลี่ยนแปลงเฉพาะค่าตัวเลขในคำถามเปรียบเทียบมาตรฐาน GSM-Symbolic"

การโต้กลับ: "ภาพลวงตาของภาพลวงตาแห่งการคิด"

การตอบสนองของชุมชน AI นั้นรวดเร็วมาก อเล็กซ์ ลอว์เซน จาก Open Philanthropy ร่วมมือกับคล็อด โอปุส จาก Anthropic เผยแพร่คำตอบโดยละเอียดในหัวข้อ "ภาพลวงตาของภาพลวงตาแห่งการคิด" ซึ่งท้าทายวิธีการและข้อสรุปจากการศึกษาของ Apple

ข้อโต้แย้งหลัก

  1. ละเว้นขีดจำกัดเอาต์พุต : ความล้มเหลวจำนวนมากที่เกิดจาก "การล่มสลายของเหตุผล" จริงๆ แล้วเกิดจากขีดจำกัดโทเค็นเอาต์พุตของโมเดล
  2. การประเมินที่ไม่ถูกต้อง : สคริปต์อัตโนมัติจัดประเภทผลลัพธ์ที่เป็นเพียงบางส่วนแต่ถูกต้องตามอัลกอริทึมเป็นความล้มเหลวทั้งหมด
  3. ปัญหาที่เป็นไปไม่ได้ : ปริศนาบางอย่างไม่สามารถแก้ไขได้ทางคณิตศาสตร์ แต่โมเดลกลับถูกลงโทษเพราะไม่สามารถแก้ได้

การทดสอบยืนยัน

เมื่อลอว์เซนทำการทดสอบซ้ำโดยใช้วิธีการอื่น เช่น ให้แบบจำลองสร้างฟังก์ชันแบบเรียกซ้ำแทนที่จะแสดงรายการการเคลื่อนไหวทั้งหมด ผลลัพธ์ที่ได้กลับแตกต่างไปอย่างมาก แบบจำลองอย่างคล็อด เจมินี และ GPT สามารถแก้ปัญหาทาวเวอร์ออฟฮานอยได้สำเร็จด้วยดิสก์ 15 แผ่น ซึ่งมีความซับซ้อนเกินกว่าที่แอปเปิลรายงานว่าไม่มีความสำเร็จเลย

เสียงที่มีอำนาจในการโต้วาที

แกรี่ มาร์คัส: นักวิจารณ์ประวัติศาสตร์

แกรี่ มาร์คัส นักวิจารณ์ความสามารถในการใช้เหตุผลของหลักสูตรนิติศาสตร์ (LLM) มาอย่างยาวนาน ยกย่องผลการวิจัยของแอปเปิลว่าเป็นการยืนยันวิทยานิพนธ์ของเขาเมื่อ 20 ปีก่อน มาร์คัสกล่าวว่า หลักสูตรนิติศาสตร์ (LLM) ยังคงประสบปัญหากับ "การเปลี่ยนแปลงการกระจาย" ซึ่งเป็นความสามารถในการสรุปผลนอกเหนือจากข้อมูลที่ใช้ฝึกฝน ในขณะที่ยังคง "เป็นนักแก้ปัญหาที่แก้ได้เก่ง"

ชุมชนโลคอลลามะ

การอภิปรายยังขยายไปสู่ชุมชนเฉพาะทาง เช่น LocalLlama บน Reddit ซึ่งนักพัฒนาและนักวิจัยถกเถียงกันถึงผลในทางปฏิบัติของโมเดลโอเพ่นซอร์สและการใช้งานในระดับท้องถิ่น

เหนือความขัดแย้ง: ความหมายสำหรับธุรกิจ

ผลกระทบเชิงกลยุทธ์

การถกเถียงนี้ไม่ใช่เพียงเรื่องวิชาการเท่านั้น แต่มันมีความหมายโดยตรงต่อ:

  • การใช้งาน AI ในระบบการผลิต : เราสามารถไว้วางใจโมเดลสำหรับงานที่สำคัญได้มากเพียงใด?
  • การลงทุนด้านการวิจัยและพัฒนา : ควรมุ่งเน้นทรัพยากรไปที่ใดสำหรับการพัฒนาครั้งสำคัญครั้งต่อไป?
  • การสื่อสารกับผู้มีส่วนได้ส่วนเสีย : จะจัดการกับความคาดหวังที่สมจริงเกี่ยวกับความสามารถของ AI ได้อย่างไร

วิถีแห่งสัญลักษณ์ประสาท

ตามที่เน้นไว้ใน ข้อมูลเชิงเทคนิค หลายฉบับ ความจำเป็นในการใช้แนวทางแบบผสมผสานที่ผสมผสาน:

  • เครือข่ายประสาท สำหรับการจดจำรูปแบบและความเข้าใจภาษา
  • ระบบสัญลักษณ์ สำหรับการใช้เหตุผลเชิงอัลกอริทึมและตรรกะเชิงรูปนัย

ตัวอย่างง่ายๆ : ผู้ช่วย AI ที่ช่วยเรื่องบัญชี โมเดลภาษาเข้าใจเมื่อคุณถามว่า "เดือนนี้ฉันใช้จ่ายไปกับการเดินทางเท่าไหร่" และดึงพารามิเตอร์ที่เกี่ยวข้องออกมา (หมวดหมู่: การเดินทาง, ช่วงเวลา: เดือนนี้) แต่คำสั่ง SQL ที่สืบค้นฐานข้อมูล คำนวณผลรวม และตรวจสอบข้อจำกัดทางภาษีล่ะ? คำสั่งนี้ทำโดยโค้ดแบบกำหนดได้ ไม่ใช่แบบจำลองทางประสาท

เวลาและบริบทเชิงกลยุทธ์

ผู้สังเกตการณ์ต่างจับตามองอย่างใกล้ชิดว่าเอกสารของ Apple เผยแพร่ก่อน WWDC ไม่นานนัก ทำให้เกิดคำถามเกี่ยวกับแรงจูงใจเชิงกลยุทธ์ ดังที่ บทวิเคราะห์ของ 9to5Mac ระบุว่า "ช่วงเวลาของเอกสาร Apple ก่อน WWDC เล็กน้อย ทำให้หลายคนตั้งคำถามว่า นี่เป็นก้าวสำคัญด้านการวิจัย หรือเป็นการเคลื่อนไหวเชิงกลยุทธ์เพื่อปรับตำแหน่งของ Apple ในวงการ AI โดยรวมกันแน่"

บทเรียนสำหรับอนาคต

สำหรับนักวิจัย

  • การออกแบบเชิงทดลอง : ความสำคัญของการแยกแยะระหว่างข้อจำกัดทางสถาปัตยกรรมและข้อจำกัดในการใช้งาน
  • การประเมินอย่างเข้มงวด : ความจำเป็นสำหรับเกณฑ์มาตรฐานที่ซับซ้อนซึ่งแยกความสามารถทางปัญญาจากข้อจำกัดในทางปฏิบัติ
  • ความโปร่งใสเชิงวิธีการ : ข้อกำหนดในการบันทึกการตั้งค่าและข้อจำกัดของการทดลองอย่างครบถ้วน

สำหรับบริษัท

  • ความคาดหวังที่สมจริง : การรับรู้ข้อจำกัดในปัจจุบันโดยไม่ละทิ้งศักยภาพในอนาคต
  • แนวทางแบบผสมผสาน : การลงทุนในโซลูชันที่ผสมผสานจุดแข็งของเทคโนโลยีที่แตกต่างกัน
  • การประเมินอย่างต่อเนื่อง : การนำระบบการทดสอบที่สะท้อนถึงสถานการณ์การใช้งานจริงมาใช้

บทสรุป: การนำทางสู่ความไม่แน่นอน

การถกเถียงที่เกิดขึ้นจากเอกสารของ Apple เตือนเราว่าเรายังอยู่ในช่วงเริ่มต้นของการทำความเข้าใจปัญญาประดิษฐ์ ดังที่ได้เน้นย้ำไว้ใน บทความก่อนหน้า ของเรา ความแตกต่างระหว่างการจำลองสถานการณ์และการใช้เหตุผลที่แท้จริงยังคงเป็นหนึ่งในความท้าทายที่ซับซ้อนที่สุดในยุคสมัยของเรา

บทเรียนที่แท้จริงไม่ได้อยู่ที่ว่า LLM สามารถ "ใช้เหตุผล" ในความหมายของมนุษย์ได้หรือไม่ หากแต่อยู่ที่ว่าเราจะสร้างระบบที่ใช้ประโยชน์จากจุดแข็งของพวกเขา พร้อมกับชดเชยข้อจำกัดเหล่านั้นได้อย่างไร ในโลกที่ AI กำลังเปลี่ยนแปลงอุตสาหกรรมทั้งหมด คำถามไม่ได้อยู่ที่ว่าเครื่องมือเหล่านี้ "ชาญฉลาด" หรือไม่ แต่เป็นคำถามที่ว่า เราจะใช้มันอย่างมีประสิทธิภาพและมีความรับผิดชอบได้อย่างไร

อนาคตของ AI ระดับองค์กรอาจไม่ได้ขึ้นอยู่กับแนวทางการปฏิวัติเพียงแนวทางเดียว แต่อยู่ที่การผสมผสานเทคโนโลยีเสริมต่างๆ เข้าด้วยกันอย่างชาญฉลาด และในสถานการณ์เช่นนี้ ความสามารถในการประเมินความสามารถของเครื่องมือต่างๆ ของเราอย่างมีวิจารณญาณและตรงไปตรงมาจะกลายเป็นข้อได้เปรียบในการแข่งขันในตัวมันเอง

หากต้องการข้อมูลเชิงลึกเกี่ยวกับกลยุทธ์ AI ขององค์กรของคุณและการนำโซลูชันที่แข็งแกร่งมาใช้ ทีมผู้เชี่ยวชาญของเรายินดีให้คำปรึกษาแบบเฉพาะบุคคล

ที่มาและอ้างอิง:

ทรัพยากรเพื่อการเติบโตทางธุรกิจ

9 พฤศจิกายน 2568

กฎระเบียบ AI สำหรับการใช้งานของผู้บริโภค: วิธีการเตรียมพร้อมสำหรับกฎระเบียบใหม่ปี 2025

ปี 2025 ถือเป็นจุดสิ้นสุดของยุค "Wild West" ของ AI: พระราชบัญญัติ AI ของสหภาพยุโรปจะมีผลบังคับใช้ในเดือนสิงหาคม 2024 โดยมีข้อกำหนดด้านความรู้ด้าน AI ตั้งแต่วันที่ 2 กุมภาพันธ์ 2025 และมีการกำกับดูแลและ GPAI ตั้งแต่วันที่ 2 สิงหาคม รัฐแคลิฟอร์เนียเป็นผู้นำด้วย SB 243 (เกิดขึ้นหลังจากการฆ่าตัวตายของ Sewell Setzer เด็กอายุ 14 ปีที่มีความสัมพันธ์ทางอารมณ์กับแชทบอท) ซึ่งกำหนดข้อห้ามระบบรางวัลแบบย้ำคิดย้ำทำ การตรวจจับความคิดฆ่าตัวตาย การเตือน "ฉันไม่ใช่มนุษย์" ทุกสามชั่วโมง การตรวจสอบสาธารณะโดยอิสระ และค่าปรับ 1,000 ดอลลาร์ต่อการละเมิด SB 420 กำหนดให้มีการประเมินผลกระทบสำหรับ "การตัดสินใจอัตโนมัติที่มีความเสี่ยงสูง" พร้อมสิทธิ์ในการอุทธรณ์การตรวจสอบโดยมนุษย์ การบังคับใช้จริง: Noom ถูกฟ้องร้องในปี 2022 ในข้อหาใช้บอทปลอมตัวเป็นโค้ชมนุษย์ ซึ่งเป็นการยอมความมูลค่า 56 ล้านดอลลาร์ แนวโน้มระดับชาติ: รัฐแอละแบมา ฮาวาย อิลลินอยส์ เมน และแมสซาชูเซตส์ ระบุว่าการไม่แจ้งเตือนแชทบอท AI ถือเป็นการละเมิด UDAP แนวทางความเสี่ยงสามระดับ ได้แก่ ระบบสำคัญ (การดูแลสุขภาพ/การขนส่ง/พลังงาน) การรับรองก่อนการใช้งาน การเปิดเผยข้อมูลที่โปร่งใสต่อผู้บริโภค การลงทะเบียนเพื่อวัตถุประสงค์ทั่วไป และการทดสอบความปลอดภัย กฎระเบียบที่ซับซ้อนโดยไม่มีการยึดครองอำนาจจากรัฐบาลกลาง: บริษัทหลายรัฐต้องปฏิบัติตามข้อกำหนดที่แปรผัน สหภาพยุโรป ตั้งแต่เดือนสิงหาคม 2569: แจ้งให้ผู้ใช้ทราบเกี่ยวกับการโต้ตอบกับ AI เว้นแต่เนื้อหาที่สร้างโดย AI ที่ชัดเจนและติดป้ายว่าสามารถอ่านได้ด้วยเครื่อง
9 พฤศจิกายน 2568

การควบคุมสิ่งที่ไม่ได้ถูกสร้างขึ้น: ยุโรปมีความเสี่ยงต่อการไม่เกี่ยวข้องทางเทคโนโลยีหรือไม่?

**ชื่อเรื่อง: พระราชบัญญัติ AI ของยุโรป - ความขัดแย้งว่าใครเป็นผู้ควบคุมสิ่งที่ตนเองไม่ได้พัฒนา** **สรุป:** ยุโรปดึงดูดการลงทุนด้านปัญญาประดิษฐ์ได้เพียงหนึ่งในสิบของการลงทุนทั่วโลก แต่กลับอ้างว่าเป็นผู้กำหนดกฎเกณฑ์ระดับโลก นี่คือ "ปรากฏการณ์บรัสเซลส์" ซึ่งบังคับใช้กฎระเบียบระดับโลกผ่านอำนาจทางการตลาดโดยไม่ผลักดันนวัตกรรม พระราชบัญญัติ AI จะมีผลบังคับใช้ตามกำหนดเวลาแบบสลับกันจนถึงปี 2027 แต่บริษัทข้ามชาติด้านเทคโนโลยีกำลังตอบสนองด้วยกลยุทธ์การหลบเลี่ยงที่สร้างสรรค์ เช่น การใช้ความลับทางการค้าเพื่อหลีกเลี่ยงการเปิดเผยข้อมูลการฝึกอบรม การจัดทำสรุปที่สอดคล้องทางเทคนิคแต่เข้าใจยาก การใช้การประเมินตนเองเพื่อลดระดับระบบจาก "ความเสี่ยงสูง" เป็น "ความเสี่ยงน้อยที่สุด" และการเลือกฟอรัมโดยเลือกประเทศสมาชิกที่มีการควบคุมที่เข้มงวดน้อยกว่า ความขัดแย้งของลิขสิทธิ์นอกอาณาเขต: สหภาพยุโรปเรียกร้องให้ OpenAI ปฏิบัติตามกฎหมายของยุโรปแม้กระทั่งการฝึกอบรมนอกยุโรป ซึ่งเป็นหลักการที่ไม่เคยพบเห็นมาก่อนในกฎหมายระหว่างประเทศ "แบบจำลองคู่" เกิดขึ้น: เวอร์ชันยุโรปที่จำกัดเทียบกับเวอร์ชันระดับโลกขั้นสูงของผลิตภัณฑ์ AI เดียวกัน ความเสี่ยงที่แท้จริง: ยุโรปกำลังกลายเป็น "ป้อมปราการดิจิทัล" ที่โดดเดี่ยวจากนวัตกรรมระดับโลก โดยพลเมืองยุโรปเข้าถึงเทคโนโลยีที่ด้อยกว่า ศาลยุติธรรมได้ปฏิเสธข้อแก้ตัวเรื่อง "ความลับทางการค้า" ในคดีเครดิตสกอร์ไปแล้ว แต่ความไม่แน่นอนในการตีความยังคงมีอยู่อย่างมหาศาล คำว่า "สรุปโดยละเอียดเพียงพอ" หมายความว่าอย่างไรกันแน่? ไม่มีใครรู้ คำถามสุดท้ายที่ยังไม่มีคำตอบ: สหภาพยุโรปกำลังสร้างช่องทางที่สามทางจริยธรรมระหว่างทุนนิยมสหรัฐฯ กับการควบคุมของรัฐจีน หรือเพียงแค่ส่งออกระบบราชการไปยังภาคส่วนที่ตนไม่สามารถแข่งขันได้? ในตอนนี้: ผู้นำระดับโลกด้านการกำกับดูแล AI แต่การพัฒนายังอยู่ในขอบเขตจำกัด โครงการขนาดใหญ่
9 พฤศจิกายน 2568

Outliers: เมื่อวิทยาศาสตร์ข้อมูลพบกับเรื่องราวความสำเร็จ

วิทยาศาสตร์ข้อมูลได้พลิกโฉมกระบวนทัศน์เดิมๆ: ค่าผิดปกติไม่ใช่ "ข้อผิดพลาดที่ต้องกำจัด" อีกต่อไป แต่เป็นข้อมูลอันมีค่าที่ต้องทำความเข้าใจ ค่าผิดปกติเพียงค่าเดียวสามารถบิดเบือนแบบจำลองการถดถอยเชิงเส้นได้อย่างสิ้นเชิง โดยเปลี่ยนความชันจาก 2 เป็น 10 แต่การกำจัดค่าผิดปกตินั้นอาจหมายถึงการสูญเสียสัญญาณที่สำคัญที่สุดในชุดข้อมูล การเรียนรู้ของเครื่องได้นำเครื่องมือที่ซับซ้อนมาใช้: Isolation Forest แยกแยะค่าผิดปกติโดยการสร้างต้นไม้ตัดสินใจแบบสุ่ม Local Outlier Factor วิเคราะห์ความหนาแน่นเฉพาะที่ และ Autoencoders จะสร้างข้อมูลปกติขึ้นใหม่และทำเครื่องหมายสิ่งที่ไม่สามารถทำซ้ำได้ ค่าผิดปกติมีทั้งค่าผิดปกติทั่วไป (อุณหภูมิ -10°C ในเขตร้อน) ค่าผิดปกติตามบริบท (การใช้จ่าย 1,000 ยูโรในย่านยากจน) และค่าผิดปกติแบบรวม (จุดสูงสุดของการรับส่งข้อมูลเครือข่ายที่ซิงโครไนซ์กันซึ่งบ่งชี้ถึงการโจมตี) เช่นเดียวกับ Gladwell: "กฎ 10,000 ชั่วโมง" ยังคงเป็นที่ถกเถียงกัน — Paul McCartney กล่าวไว้ว่า "วงดนตรีหลายวงทำงาน 10,000 ชั่วโมงในฮัมบูร์กโดยไม่ประสบความสำเร็จ ทฤษฎีนี้ไม่ได้พิสูจน์ความถูกต้อง" ความสำเร็จทางคณิตศาสตร์ของเอเชียไม่ได้เกิดจากพันธุกรรม แต่เกิดจากวัฒนธรรม: ระบบตัวเลขที่เข้าใจง่ายกว่าของจีน การเพาะปลูกข้าวต้องได้รับการพัฒนาอย่างต่อเนื่อง เทียบกับการขยายอาณาเขตของภาคเกษตรกรรมตะวันตก การประยุกต์ใช้จริง: ธนาคารในสหราชอาณาจักรฟื้นตัวจากความสูญเสียที่อาจเกิดขึ้นได้ 18% ผ่านการตรวจจับความผิดปกติแบบเรียลไทม์ การผลิตตรวจพบข้อบกพร่องในระดับจุลภาคที่การตรวจสอบโดยมนุษย์อาจมองข้าม การดูแลสุขภาพยืนยันข้อมูลการทดลองทางคลินิกด้วยความไวต่อการตรวจจับความผิดปกติมากกว่า 85% บทเรียนสุดท้าย: เมื่อวิทยาศาสตร์ข้อมูลเปลี่ยนจากการกำจัดค่าผิดปกติไปสู่การทำความเข้าใจค่าผิดปกติ เราต้องมองอาชีพที่ไม่ธรรมดาว่าไม่ใช่ความผิดปกติที่ต้องแก้ไข แต่เป็นเส้นทางที่มีค่าที่ต้องศึกษา