ธุรกิจ

ความขัดแย้งของความโปร่งใส

ความโปร่งใสที่มากขึ้นอาจนำไปสู่ความไว้วางใจที่น้อยลง เช่น ผู้โดยสารรู้สึกวิตกกังวลเมื่อเห็นห้องนักบิน นี่คือความขัดแย้งของ AI ในการตัดสินใจ ระบบที่ทรงพลังที่สุดกลับอธิบายได้น้อยที่สุด โดยเฉพาะเมื่อจำเป็นต้องตัดสินใจที่มีผลกระทบสูง ทางออกไม่ใช่ความโปร่งใสอย่างสมบูรณ์ แต่เป็นความโปร่งใสเชิงกลยุทธ์: Capital One อธิบาย "อะไร" พร้อมกับปกป้อง "อย่างไร" Salesforce ได้เปลี่ยน AI ที่มีความรับผิดชอบให้กลายเป็นข้อได้เปรียบในการแข่งขัน ความโปร่งใสไม่ใช่สวิตช์แบบไบนารี แต่เป็นเครื่องมือที่ผู้มีส่วนได้ส่วนเสียแต่ละฝ่ายต้องปรับเทียบ

การแนะนำ

ในขณะที่บริษัทต่างๆ เริ่มหันมาใช้ปัญญาประดิษฐ์เพื่อการตัดสินใจ (Decision-Making Intelligence) มากขึ้น ปรากฏการณ์ที่ขัดกับสามัญสำนึก (counter-intuitive) กำลังเกิดขึ้นและควรค่าแก่การให้ความสนใจเป็นพิเศษ นั่นคือ ความขัดแย้งเรื่องความโปร่งใส (transparadox) ปรากฏการณ์นี้ถือเป็นปัญหาสำคัญ แม้ว่าความโปร่งใสที่มากขึ้นในระบบ AI จะสามารถสร้างประโยชน์มหาศาลได้ แต่ในขณะเดียวกันก็อาจก่อให้เกิดความเสี่ยงและความท้าทายใหม่ๆ ที่ไม่คาดคิด

ความขัดแย้งเรื่องความโปร่งใสคืออะไร?

ความขัดแย้งของความโปร่งใสใน Decision Intelligence หมายถึงความตึงเครียดระหว่างสองพลังที่ดูเหมือนจะขัดแย้งกัน ในด้านหนึ่งคือ ความจำเป็นของความเปิดเผยและความสามารถในการอธิบายเพื่อให้แน่ใจถึงความไว้วางใจและความรับผิดชอบ ในอีกด้านหนึ่งคือ ความเสี่ยงและข้อจำกัดที่ความเปิดเผยเดียวกันนี้อาจนำมาด้วย

ดังที่แอนดรูว์ เบิร์ต ได้กล่าวไว้ในบทความที่ตีพิมพ์ใน Harvard Business Review ว่า "แม้ว่าการสร้างข้อมูล AI มากขึ้นอาจสร้างประโยชน์ที่แท้จริง แต่ก็อาจนำไปสู่ข้อเสียใหม่ๆ ได้เช่นกัน" ( เบิร์ต, 2019 ) คำจำกัดความนี้สะท้อนถึงแก่นแท้ของความขัดแย้ง นั่นคือ ความโปร่งใสแม้จะเป็นสิ่งที่พึงปรารถนา แต่ก็อาจก่อให้เกิดผลลัพธ์ที่ไม่พึงประสงค์ได้

ความขัดแย้งในการปฏิบัติ: ความหมายสำหรับธุรกิจ

กับดักความซับซ้อน

ความเป็นจริงทางธุรกิจ: ระบบ Decision Intelligence ที่ทรงพลังที่สุด (ระบบที่สร้างมูลค่าทางธุรกิจสูงสุด) มักมีความซับซ้อนและอธิบายได้ยากที่สุด สิ่งนี้ก่อให้เกิดความขัดแย้ง: ในยามที่คุณต้องการความโปร่งใสสูงสุด (สำหรับการตัดสินใจที่มีผลกระทบสูง) เครื่องมือ AI ของคุณกลับอยู่ในจุดที่อธิบายได้ยากที่สุด

คำแนะนำในทางปฏิบัติ: อย่าพยายามแสวงหาความโปร่งใสแบบเบ็ดเสร็จ แต่ควรพัฒนา "แดชบอร์ดความน่าเชื่อถือ" ที่แสดงตัวชี้วัดประสิทธิภาพหลักและตัวชี้วัดความน่าเชื่อถือ ผู้มีส่วนได้ส่วนเสียของคุณไม่จำเป็นต้องเข้าใจทุกนิวรอนในเครือข่ายนิวรอน แต่พวกเขาจำเป็นต้องรู้ว่าเมื่อใดที่ระบบมีความน่าเชื่อถือและเมื่อใดที่ไม่น่าเชื่อถือ

กรณีศึกษา: Netflix นำระบบคำแนะนำที่ซับซ้อนพร้อมตัวบ่งชี้ความเชื่อมั่นที่เรียบง่ายมาใช้งานสำหรับผู้จัดการ ช่วยให้ตัดสินใจได้อย่างรอบรู้โดยไม่ต้องมีความเชี่ยวชาญด้านวิทยาศาสตร์ข้อมูล

ปัญหาการเปิดเผยข้อมูล

ความเป็นจริงของธุรกิจ: ข้อมูลใดๆ ที่คุณแบ่งปันเกี่ยวกับการทำงานของระบบ AI ของคุณอาจถูกนำไปใช้โดยคู่แข่งหรือผู้ไม่หวังดี แต่หากขาดความเปิดเผยในระดับหนึ่ง คุณอาจเสี่ยงต่อการสูญเสียความไว้วางใจจากลูกค้า พนักงาน และหน่วยงานกำกับดูแล

คำแนะนำในทางปฏิบัติ: แยก "อะไร" ออกจาก "อย่างไร" แบ่งปันอย่างอิสระว่าปัจจัยใดมีอิทธิพลต่อการตัดสินใจ แต่เก็บรายละเอียดทางเทคนิคเกี่ยวกับวิธีการประมวลผลปัจจัยเหล่านี้ไว้เป็นความลับ แนวทางนี้สร้างสมดุลระหว่างความโปร่งใสและการปกป้องการแข่งขัน

กรณีศึกษา: Capital One อธิบายให้ลูกค้าทราบอย่างชัดเจนว่าปัจจัยใดบ้างที่มีอิทธิพลต่อการตัดสินใจด้านสินเชื่อของพวกเขา (ซึ่งก็คือ “อะไร”) แต่ยังคงปกป้องอัลกอริทึมที่เป็นกรรมสิทธิ์ของตน (ซึ่งก็คือ “อย่างไร”)

ความขัดแย้งของข้อมูลล้นเกิน

ความเป็นจริงทางธุรกิจ: การให้ข้อมูลมากเกินไปอาจส่งผลเสียได้พอๆ กับการให้ข้อมูลน้อยเกินไป ข้อมูลที่มากเกินไปทำให้กระบวนการตัดสินใจหยุดชะงัก และอาจถึงขั้นทำลายความไว้วางใจแทนที่จะเสริมสร้างความไว้วางใจ

เคล็ดลับปฏิบัติ: ใช้ระบบความโปร่งใสแบบ "หลายชั้น" ซึ่งมีคำอธิบายง่ายๆ มาให้เป็นค่าเริ่มต้น พร้อมตัวเลือกเจาะลึกสำหรับผู้ที่ต้องการรายละเอียดเพิ่มเติม เช่นเดียวกับแดชบอร์ดองค์กรที่ดี เริ่มต้นด้วยภาพรวม และเปิดโอกาสให้สำรวจรายละเอียดต่างๆ ได้ตามต้องการ

กรณีศึกษา: BlackRock พัฒนาระบบรายงาน AI แบบหลายชั้นสำหรับผู้จัดการสินทรัพย์ โดยมีคำอธิบายระดับสูงสำหรับการตัดสินใจในแต่ละวัน และการวิเคราะห์เชิงลึกสำหรับการตรวจสอบความครบถ้วน

ความตึงเครียดระหว่างความโปร่งใสและความได้เปรียบในการแข่งขัน

ความเป็นจริงทางธุรกิจ: ระบบ Decision Intelligence ของคุณน่าจะเป็นการลงทุนที่สำคัญและสร้างความได้เปรียบในการแข่งขัน อย่างไรก็ตาม ตลาดและหน่วยงานกำกับดูแลต่างเรียกร้องความโปร่งใสที่มากขึ้นเรื่อยๆ

คำแนะนำเชิงปฏิบัติ: สร้างกลยุทธ์ความโปร่งใสของคุณให้เป็นทรัพย์สินทางธุรกิจ ไม่ใช่ข้อกำหนดทางกฎหมาย บริษัทที่เปลี่ยนความโปร่งใสให้เป็นข้อได้เปรียบทางการตลาด (เช่น การทำให้ "AI ที่มีความรับผิดชอบ" เป็นจุดแตกต่าง) จะได้รับสิ่งที่ดีที่สุดจากทั้งสองปัจจัย

กรณีศึกษา: Salesforce เปลี่ยนกลยุทธ์ความโปร่งใสของ AI ให้กลายเป็นข้อได้เปรียบในการแข่งขันโดยพัฒนา Einstein Trust Layer ที่ช่วยให้ลูกค้าเข้าใจถึงวิธีการตัดสินใจโดยไม่กระทบต่อทรัพย์สินทางปัญญาหลัก

ผลกระทบที่ขัดแย้งต่อความไว้วางใจ

ความเป็นจริงทางธุรกิจ: ความโปร่งใสที่มากขึ้นไม่ได้หมายถึงความไว้วางใจที่มากขึ้นเสมอไป ในบางบริบท ความโปร่งใสที่มากขึ้นอาจทำให้เกิดความวิตกกังวลและความกังวลอย่างที่ไม่เคยมีมาก่อน (เช่น เมื่อผู้โดยสารเครื่องบินรู้สึกวิตกกังวลเมื่อเห็นห้องนักบิน)

คำแนะนำเชิงปฏิบัติ: ความโปร่งใสต้องใช้งานได้จริงและสอดคล้องกับบริบท แทนที่จะใช้แนวทางแบบเดียวกันทั้งหมด ควรพัฒนากลยุทธ์การสื่อสารเฉพาะสำหรับผู้มีส่วนได้ส่วนเสียแต่ละราย โดยเน้นย้ำถึงแง่มุมต่าง ๆ ของ AI ที่เกี่ยวข้องกับข้อกังวลเฉพาะของพวกเขา

กรณีศึกษา: LinkedIn ไม่เปิดเผยทุกแง่มุมของอัลกอริทึมการแนะนำ แต่เน้นความโปร่งใสในสิ่งที่ผู้ใช้ใส่ใจมากที่สุด: วิธีใช้ข้อมูลของพวกเขา และส่งผลต่อผลลัพธ์อย่างไร

กลยุทธ์ผู้บริหาร: การแก้ไขความขัดแย้ง

ผู้นำธุรกิจที่มีประสิทธิผลสูงสุดจะเอาชนะความขัดแย้งเรื่องความโปร่งใสได้โดยการนำกลยุทธ์ที่เป็นรูปธรรมเหล่านี้มาใช้:

  1. ออกแบบอย่างโปร่งใสด้วยความตั้งใจ เลิกใช้วิธีการตอบสนองแบบรับมือ ("เราควรให้ความโปร่งใสมากแค่ไหน") แล้วหันมาใช้วิธีเชิงกลยุทธ์ ("ความโปร่งใสแบบไหนที่จะสร้างมูลค่าได้")
  2. สร้าง "งบประมาณความโปร่งใส" ตระหนักว่าความสนใจของผู้ถือผลประโยชน์นั้นมีจำกัด และลงทุนอย่างมีกลยุทธ์ในจุดที่ความโปร่งใสสร้างมูลค่าสูงสุด
  3. พัฒนาความโปร่งใสที่แตกต่าง นำความโปร่งใสประเภทต่างๆ มาใช้กับกลุ่มเป้าหมายที่แตกต่างกัน: ความโปร่งใสทางเทคนิคสำหรับวิศวกร ความโปร่งใสในการปฏิบัติงานสำหรับผู้จัดการ และความโปร่งใสที่เรียบง่ายสำหรับลูกค้า
  4. สร้างความโปร่งใสโดยอัตโนมัติ ใช้แดชบอร์ด รายงานอัตโนมัติ และอินเทอร์เฟซที่ใช้งานง่าย ซึ่งช่วยให้เข้าถึงข้อมูลได้โดยไม่ต้องมีทักษะเฉพาะทาง
  5. ปลูกฝังวัฒนธรรมแห่งความโปร่งใสและมีความรับผิดชอบ ฝึกอบรมพนักงานไม่เพียงแต่ในเรื่องสิ่งที่สามารถแบ่งปันได้เท่านั้น แต่ยังรวมถึงวิธีการสื่อสารอย่างมีประสิทธิภาพเพื่อสร้างความไว้วางใจโดยไม่สร้างความสับสน

จากความขัดแย้งสู่ความได้เปรียบในการแข่งขัน

ความขัดแย้งเรื่องความโปร่งใสใน Decision Intelligence ไม่ใช่แค่ปัญหาทางเทคนิคหรือกฎระเบียบเท่านั้น แต่เป็นโอกาสเชิงกลยุทธ์ บริษัทที่บริหารจัดการปัญหานี้ได้อย่างเชี่ยวชาญกำลังเปลี่ยนสถานการณ์ที่ดูเหมือนจะกลืนไม่เข้าคายไม่ออกนี้ให้กลายเป็นข้อได้เปรียบทางการแข่งขันที่ทรงพลัง

ความจำเป็นเชิงหมวดหมู่ใหม่นี้ ชัดเจน: ความโปร่งใสของ AI ไม่ใช่เรื่องของการปฏิบัติตามกฎระเบียบอีกต่อไป แต่เป็นเรื่องของความเป็นผู้นำตลาด ในยุคที่ความไว้วางใจกลายเป็นสิ่งสำคัญขององค์กร องค์กรที่สร้างระบบการตัดสินใจที่สมดุลระหว่างอำนาจและความเข้าใจ จะได้รับผลตอบแทนที่สำคัญทั้งในด้านคะแนนของลูกค้าและความภักดีของลูกค้า

ผู้นำที่สามารถเอาชนะคู่แข่งได้ในอีกห้าปีข้างหน้าคือผู้ที่เข้าใจว่า:

  • ความโปร่งใสไม่ใช่สวิตช์ไบนารี แต่เป็นคันโยกเชิงกลยุทธ์ที่ต้องปรับเทียบด้วยความแม่นยำ
  • การลงทุนในความสามารถในการอธิบายของ AI มีความสำคัญเท่ากับการลงทุนในความแม่นยำของ AI
  • การสื่อสารที่มีประสิทธิภาพของกระบวนการตัดสินใจด้าน AI สร้างความสัมพันธ์ที่ลึกซึ้งยิ่งขึ้นกับลูกค้าและพนักงาน

ท้ายที่สุด ความขัดแย้งเรื่องความโปร่งใสเตือนเราว่าการนำ Decision Intelligence ไปใช้อย่างประสบความสำเร็จนั้นไม่ได้เกี่ยวกับความเป็นเลิศทางเทคโนโลยีเพียงอย่างเดียว แต่ยังเกี่ยวกับสติปัญญาทางอารมณ์ขององค์กรด้วย นั่นคือ ความสามารถในการเข้าใจสิ่งที่ผู้มีส่วนได้ส่วนเสียของคุณจำเป็นต้องรู้จริงๆ และสื่อสารสิ่งนั้นในลักษณะที่สร้างความไว้วางใจแทนที่จะทำลายความไว้วางใจ

การวิเคราะห์เชิงลึก

  1. เบิร์ต, เอ. (2019). ความขัดแย้งเรื่องความโปร่งใสของ AI. ฮาร์วาร์ด บิสซิเนส รีวิว. https://hbr.org/2019/12/the-ai-transparency-paradox

ทรัพยากรเพื่อการเติบโตทางธุรกิจ

9 พฤศจิกายน 2568

คู่มือซอฟต์แวร์ Business Intelligence ฉบับสมบูรณ์สำหรับ SMB

SMEs อิตาลี 60% ยอมรับว่ายังมีช่องว่างสำคัญในการฝึกอบรมด้านข้อมูล ขณะที่ 29% ไม่มีแม้แต่ตัวเลขเฉพาะเจาะจง ขณะที่ตลาด BI ของอิตาลีกำลังเติบโตอย่างรวดเร็วจาก 36.79 พันล้านดอลลาร์สหรัฐ เป็น 69.45 พันล้านดอลลาร์สหรัฐ ภายในปี 2034 (อัตราการเติบโตเฉลี่ยต่อปีอยู่ที่ 8.56%) ปัญหาไม่ได้อยู่ที่เทคโนโลยี แต่อยู่ที่วิธีการ SMEs กำลังจมอยู่กับข้อมูลที่กระจัดกระจายอยู่ใน CRM, ERP และสเปรดชีต Excel โดยไม่ได้นำข้อมูลเหล่านั้นมาประกอบการตัดสินใจ ซึ่งใช้ได้กับทั้งผู้ที่เริ่มต้นตั้งแต่ต้นและผู้ที่กำลังมองหาการปรับปรุงประสิทธิภาพ เกณฑ์การคัดเลือกที่สำคัญ ได้แก่ ความสามารถในการใช้งานแบบลากและวางโดยไม่ต้องฝึกอบรมหลายเดือน ความสามารถในการปรับขนาดที่เติบโตไปพร้อมกับคุณ การผสานรวมกับระบบเดิมที่มีอยู่ ต้นทุนการเป็นเจ้าของ (TCO) ที่สมบูรณ์ (การติดตั้ง + การฝึกอบรม + การบำรุงรักษา) เทียบกับราคาใบอนุญาตเพียงอย่างเดียว แผนงานสี่ระยะประกอบด้วยวัตถุประสงค์ SMART ที่วัดผลได้ (ลดอัตราการยกเลิกบริการลง 15% ภายใน 6 เดือน) การจัดทำแผนผังแหล่งข้อมูลที่สะอาด (ข้อมูลขยะเข้า = ข้อมูลขยะออก) การฝึกอบรมทีมเกี่ยวกับวัฒนธรรมข้อมูล และโครงการนำร่องที่มีวงจรป้อนกลับอย่างต่อเนื่อง AI เปลี่ยนแปลงทุกสิ่งทุกอย่าง ตั้งแต่ BI เชิงบรรยาย (สิ่งที่เกิดขึ้น) ไปจนถึงการวิเคราะห์เสริมที่เปิดเผยรูปแบบที่ซ่อนอยู่ การวิเคราะห์เชิงทำนายที่ประเมินความต้องการในอนาคต และการวิเคราะห์เชิงกำหนดที่แนะนำการดำเนินการที่เป็นรูปธรรม Electe กระจายอำนาจนี้ให้กับ SMEs
9 พฤศจิกายน 2568

ระบบระบายความร้อน AI ของ Google DeepMind: ปัญญาประดิษฐ์ปฏิวัติประสิทธิภาพการใช้พลังงานของศูนย์ข้อมูลอย่างไร

Google DeepMind ประหยัดพลังงานระบบทำความเย็นในศูนย์ข้อมูลได้ -40% (แต่ใช้พลังงานรวมเพียง -4% เนื่องจากระบบทำความเย็นคิดเป็น 10% ของพลังงานรวมทั้งหมด) โดยมีความแม่นยำ 99.6% และความผิดพลาด 0.4% บน PUE 1.1 โดยใช้การเรียนรู้เชิงลึก 5 ชั้น โหนด 50 โหนด ตัวแปรอินพุต 19 ตัว จากตัวอย่างการฝึกอบรม 184,435 ตัวอย่าง (ข้อมูล 2 ปี) ได้รับการยืนยันใน 3 สถานที่: สิงคโปร์ (ใช้งานครั้งแรกในปี 2016), Eemshaven, Council Bluffs (ลงทุน 5 พันล้านดอลลาร์) ค่า PUE ทั่วทั้งกลุ่มผลิตภัณฑ์ของ Google อยู่ที่ 1.09 เทียบกับค่าเฉลี่ยของอุตสาหกรรมที่ 1.56-1.58 ระบบควบคุมเชิงคาดการณ์ (Model Predictive Control) คาดการณ์อุณหภูมิ/แรงดันในชั่วโมงถัดไป พร้อมกับจัดการภาระงานด้านไอที สภาพอากาศ และสถานะของอุปกรณ์ไปพร้อมๆ กัน ความปลอดภัยที่รับประกัน: การตรวจสอบสองระดับ ผู้ปฏิบัติงานสามารถปิดใช้งาน AI ได้ตลอดเวลา ข้อจำกัดสำคัญ: ไม่มีการตรวจสอบอิสระจากบริษัทตรวจสอบบัญชี/ห้องปฏิบัติการระดับชาติ แต่ละศูนย์ข้อมูลต้องใช้แบบจำลองที่กำหนดเอง (8 ปี ไม่เคยนำไปใช้ในเชิงพาณิชย์) ระยะเวลาดำเนินการ: 6-18 เดือน ต้องใช้ทีมสหสาขาวิชาชีพ (วิทยาศาสตร์ข้อมูล, ระบบปรับอากาศ (HVAC), การจัดการสิ่งอำนวยความสะดวก) ครอบคลุมพื้นที่นอกเหนือจากศูนย์ข้อมูล: โรงงานอุตสาหกรรม โรงพยาบาล ศูนย์การค้า และสำนักงานต่างๆ ปี 2024-2025: Google เปลี่ยนไปใช้ระบบระบายความร้อนด้วยของเหลวโดยตรงสำหรับ TPU v5p ซึ่งบ่งชี้ถึงข้อจำกัดในทางปฏิบัติของการเพิ่มประสิทธิภาพ AI
9 พฤศจิกายน 2568

แซม อัลท์แมน และ AI Paradox: "ฟองสบู่เพื่อคนอื่น ล้านล้านเพื่อเรา"

"เราอยู่ในฟองสบู่ AI รึเปล่า? ใช่!" — แซม อัลท์แมน ประกาศการลงทุนมูลค่าล้านล้านดอลลาร์ใน OpenAI เขาพูดคำว่า "ฟองสบู่" ซ้ำสามครั้งภายใน 15 วินาที โดยรู้ดีว่ามันจะเป็นอย่างไร แต่จุดพลิกผันคือ เบซอสแยกแยะระหว่างฟองสบู่อุตสาหกรรม (ทิ้งโครงสร้างพื้นฐานที่ยั่งยืน) และฟองสบู่การเงิน (การล่มสลายไร้ค่า) ปัจจุบัน OpenAI มีมูลค่า 5 แสนล้านดอลลาร์สหรัฐ และมีผู้ใช้งาน 800 ล้านคนต่อสัปดาห์ กลยุทธ์ที่แท้จริงคืออะไร? ลดกระแสโฆษณาลงเพื่อหลีกเลี่ยงกฎระเบียบ เสริมสร้างความเป็นผู้นำ ผู้ที่มีพื้นฐานที่มั่นคงจะประสบความสำเร็จ
9 พฤศจิกายน 2568

ทำไมคณิตศาสตร์ถึงยาก (แม้ว่าคุณจะเป็น AI ก็ตาม)

แบบจำลองภาษาไม่สามารถคูณได้ พวกมันจดจำผลลัพธ์ได้เหมือนกับที่เราจดจำค่าพาย แต่ไม่ได้หมายความว่าพวกมันมีความสามารถทางคณิตศาสตร์ ปัญหาอยู่ที่โครงสร้าง พวกมันเรียนรู้ผ่านความคล้ายคลึงทางสถิติ ไม่ใช่ความเข้าใจเชิงอัลกอริทึม แม้แต่ "แบบจำลองการใช้เหตุผล" ใหม่ๆ อย่าง o1 ก็ยังล้มเหลวในงานเล็กๆ น้อยๆ เช่น มันสามารถนับตัว 'r' ในคำว่า "strawberry" ได้อย่างถูกต้องหลังจากประมวลผลเพียงไม่กี่วินาที แต่ล้มเหลวเมื่อต้องเขียนย่อหน้าโดยที่ตัวอักษรตัวที่สองของแต่ละประโยคสะกดเป็นคำ เวอร์ชันพรีเมียมราคา 200 ดอลลาร์ต่อเดือนใช้เวลาสี่นาทีในการแก้ปัญหาสิ่งที่เด็กสามารถทำได้ทันที DeepSeek และ Mistral ยังคงนับตัวอักษรไม่ถูกต้องในปี 2025 วิธีแก้ปัญหาที่กำลังเกิดขึ้น? วิธีการแบบผสมผสาน แบบจำลองที่ชาญฉลาดที่สุดได้ค้นพบว่าเมื่อใดจึงควรเรียกใช้เครื่องคิดเลขจริง แทนที่จะพยายามคำนวณเอง การเปลี่ยนแปลงกระบวนทัศน์: AI ไม่จำเป็นต้องรู้วิธีทำทุกอย่าง แต่สามารถจัดสรรเครื่องมือที่เหมาะสมได้ พาราด็อกซ์สุดท้าย: GPT-4 สามารถอธิบายทฤษฎีลิมิตได้อย่างยอดเยี่ยม แต่กลับไม่สามารถแก้โจทย์การคูณที่เครื่องคิดเลขพกพามักจะแก้ได้อย่างถูกต้อง GPT-4 เหมาะอย่างยิ่งสำหรับการศึกษาคณิตศาสตร์ เพราะสามารถอธิบายด้วยความอดทนอย่างไม่มีที่สิ้นสุด ดัดแปลงตัวอย่าง และวิเคราะห์เหตุผลที่ซับซ้อนได้ หากต้องการการคำนวณที่แม่นยำ เชื่อเครื่องคิดเลขเถอะ ไม่ใช่ปัญญาประดิษฐ์