ธุรกิจ

คู่มือผู้บริหารสำหรับการลงทุนด้าน AI: ทำความเข้าใจข้อเสนอคุณค่าในปี 2025

L'AI automatizzerà 300M posti lavoro equivalenti globalmente, 92M eliminati entro 2030 (WEF), 60% lavori paesi alto reddito influenzati—ma saldo netto positivo: 170M nuovi ruoli emergeranno (+78M totale). Lavori più suscettibili: amministrativi 46% attività automatizzabili, back-office, call center, contabilità. Risultati settoriali già misurabili: finanza -40% costi operativi +40% efficienza gestione rischio, sanità -30-50% tempi diagnosi con scoperta farmaci da 5 anni a <1 anno (-60% costi), software -56% tempi sviluppo con +30-60% accelerazione time-to-market, manifattura -80% downtime con +8% profitti annui, marketing +30% conversioni con -30% costi acquisizione clienti. Polarizzazione salariale estrema: avvocati con competenze AI guadagnano +49% vs colleghi tradizionali. Italia caso demografico: gap 5.6M posti lavoro entro 2033, automazione 3.8M diventa necessità vs rischio. Competenze 2025: pensiero analitico, creatività, intelligenza sociale—94% responsabili marketing riporta impatto positivo vendite, 91% aziende con AI assumerà nel 2025. Questione centrale: non se AI sostituirà umani ma quali umani si adatteranno vs resisteranno cambiamento.

ในขณะที่แนวโน้มการลงทุนด้าน AI ยังคงพัฒนาอย่างต่อเนื่องในปี 2568 ผู้บริหารต้องเผชิญกับแรงกดดันที่เพิ่มขึ้นในการตัดสินใจเชิงกลยุทธ์เกี่ยวกับการนำ AI มาใช้ ด้วยการนำเครื่องมือ AI มาใช้อย่างรวดเร็วโดยบริษัทต่างๆ โดย 22% นำไปใช้อย่างกว้างขวาง และ 33% ใช้งานในระดับจำกัด ความเข้าใจในการประเมินและนำ โซลูชัน AI มาใช้จึงกลายเป็นสิ่งสำคัญอย่างยิ่งต่อการรักษา ความได้เปรียบ ในการแข่งขัน ในหนังสือ " The Executive Guide to Artificial Intelligence " ของ Andrew Burgess ผู้เขียนได้จัดทำคู่มือฉบับสมบูรณ์สำหรับผู้บริหารธุรกิจที่ต้องการทำความเข้าใจและนำโซลูชัน AI มาใช้ในองค์กรของตน

หนังสือเล่มนี้ตีพิมพ์ในปี 2017 โดยสำนักพิมพ์ Springer International Publishing และให้ภาพรวมเชิงปฏิบัติเกี่ยวกับวิธีที่บริษัทต่างๆ สามารถใช้ประโยชน์จากปัญญาประดิษฐ์ได้ มีอะไรเปลี่ยนแปลงไปบ้างในปัจจุบัน?

แนวโน้มการลงทุนด้าน AI ปัจจุบันปี 2025

ภูมิทัศน์ของ AI กำลังเติบโตอย่างไม่เคยปรากฏมาก่อน โดยองค์กรต่างๆ ลงทุนเพิ่มมากขึ้นเพื่อรักษาความสามารถในการแข่งขัน

พื้นฐาน:

เบอร์เจสส์เน้นย้ำถึงความสำคัญของการเริ่มต้นโดยการกำหนดวัตถุประสงค์ที่ชัดเจนและสอดคล้องกับกลยุทธ์ของบริษัท ซึ่งเป็นหลักการที่ยังคงใช้ได้ในปัจจุบัน ในหนังสือเล่มนี้ เขาได้ระบุความสามารถหลัก 8 ประการของ AI:

  1. การจดจำภาพ
  2. การจดจำเสียง
  3. การค้นหาและการดึงข้อมูล
  4. การจัดกลุ่ม
  5. ความเข้าใจภาษาธรรมชาติ
  6. การเพิ่มประสิทธิภาพ
  7. การทำนาย
  8. ความเข้าใจ (วันนี้)

วิวัฒนาการจากปี 2018 ถึงปี 2025:

นับตั้งแต่หนังสือเล่มนี้ถูกเขียนขึ้น AI ได้ก้าวจากเทคโนโลยีที่เพิ่งเกิดใหม่ไปสู่เทคโนโลยีกระแสหลัก ความสามารถในการ "เข้าใจ" ซึ่งเบอร์เจสมองว่าเป็นเรื่องของอนาคต ได้เห็นความก้าวหน้าครั้งสำคัญด้วยการถือกำเนิดของแบบจำลองภาษาขนาดใหญ่ (LLM) และเทคโนโลยี AI เชิงกำเนิด ซึ่งยังไม่ปรากฏให้เห็นในปี 2018

กรอบ กลยุทธ์สำหรับการตัดสินใจลงทุนด้าน AI

คำถามสำคัญสี่ประการ

เมื่อประเมินการลงทุนใน AI จำเป็นต้องมุ่งเน้นไปที่คำถามสำคัญเหล่านี้:

  1. คำจำกัดความปัญหาทางธุรกิจ
  2. ตัวชี้วัดความสำเร็จ
  3. ข้อกำหนดในการดำเนินการ
  4. การประเมินความเสี่ยง

หมายเหตุ: กรอบคำถามสี่ข้อนี้มาจากความรู้ในปัจจุบันและไม่ได้นำเสนออย่างชัดเจนในหนังสือของเบอร์เจส

การสร้างกลยุทธ์ AI ที่มีประสิทธิภาพ

กรอบการทำงานด้านการรับเลี้ยงบุตรบุญธรรม:

เบอร์เกสเสนอกรอบการทำงานโดยละเอียดสำหรับการสร้างกลยุทธ์ AI ซึ่งประกอบด้วย:

  1. การจัดแนวทางให้สอดคล้องกับกลยุทธ์ทางธุรกิจ - ทำความเข้าใจว่า AI สามารถรองรับเป้าหมายทางธุรกิจที่มีอยู่ได้อย่างไร
  2. ทำความเข้าใจความทะเยอทะยานของ AI - กำหนดว่าคุณต้องการ:
    • ปรับปรุงกระบวนการที่มีอยู่
    • การเปลี่ยนแปลงฟังก์ชันทางธุรกิจ
    • สร้างบริการ/ผลิตภัณฑ์ใหม่
  3. การประเมินความสมบูรณ์ของ AI - กำหนดระดับความพร้อมในปัจจุบันขององค์กรบนมาตราส่วน 0 ถึง 5:
    • การประมวลผลด้วยตนเอง (ระดับ 0)
    • ระบบอัตโนมัติไอที แบบดั้งเดิม (ระดับ 1)
    • ระบบอัตโนมัติพื้นฐานแบบแยกส่วน (ระดับ 2)
    • การนำเครื่องมืออัตโนมัติไปใช้งานเชิงกลยุทธ์ (ระดับ 3)
    • การนำเทคโนโลยีอัตโนมัติต่างๆ มาใช้ในเชิงกลยุทธ์ (ระดับ 4)
    • ระบบอัตโนมัติเชิงกลยุทธ์แบบครบวงจร (ระดับ 5)
  4. การสร้างแผนที่ความร้อน AI - ระบุพื้นที่ที่มีโอกาสมากขึ้น
  5. การพัฒนาเคสทางธุรกิจ - การประเมินผลประโยชน์ทั้งทางตรงและทางอ้อม
  6. การจัดการการเปลี่ยนแปลง - การวางแผนว่าองค์กรของคุณจะปรับตัวอย่างไร
  7. การพัฒนาแผนงาน AI - การสร้างแผนระยะกลางถึงระยะยาว

วิวัฒนาการจากปี 2018 ถึงปี 2025:

กรอบงานของ Burgess ยังคงมีความเกี่ยวข้องอย่างน่าประหลาดใจ แต่ในปัจจุบันจำเป็นต้องบูรณาการโดยคำนึงถึงสิ่งต่อไปนี้:

  • จริยธรรมและกฎระเบียบด้าน AI (เช่น พระราชบัญญัติ AI ของสหภาพยุโรป)
  • ความยั่งยืนด้านสิ่งแวดล้อมของ AI
  • กลยุทธ์ AI ที่มีความรับผิดชอบ
  • การบูรณาการกับเทคโนโลยีใหม่ๆ เช่น คอมพิวเตอร์ควอนตัม

การวัดผลตอบแทนจากการลงทุนด้าน AI

ปัจจัยที่กำหนดผลตอบแทนจากการลงทุน:

เบอร์เจสระบุถึงประโยชน์ของ AI หลายประเภท โดยแบ่งเป็นประเภท "ยาก" และ "ง่าย":

ประโยชน์ที่ยาก:

  • การลดต้นทุน
  • หลีกเลี่ยงค่าใช้จ่าย
  • ความพึงพอใจของลูกค้า
  • การปฏิบัติตาม
  • การบรรเทาความเสี่ยง
  • การบรรเทาการสูญเสีย
  • การบรรเทาการสูญเสียรายได้
  • การสร้างรายได้

ผลประโยชน์ที่อ่อนนุ่ม:

  • การเปลี่ยนแปลงทางวัฒนธรรม
  • ความได้เปรียบในการแข่งขัน
  • เอฟเฟกต์ฮาโล
  • การเปิดใช้งานผลประโยชน์อื่น ๆ
  • การเปิดใช้งานการเปลี่ยนแปลงทางดิจิทัล

__wf_reserved_inherit
การวัดผลตอบแทนจากการลงทุนของ AI มีความซับซ้อนมากขึ้น โดยมีกรอบการทำงานเฉพาะสำหรับการประเมินผลกระทบของ AI เชิงสร้างสรรค์ ซึ่งไม่มีอยู่ในตอนที่เบอร์เจสเขียนหนังสือเล่มนี้

แนวทางทางเทคนิคในการนำ AI ไปใช้

ประเภทของโซลูชั่น:

เบอร์เจสนำเสนอแนวทางหลักสามประการในการนำ AI มาใช้:

  1. ซอฟต์แวร์ AI สำเร็จรูป - โซลูชันสำเร็จรูป
  2. แพลตฟอร์ม AI - ขับเคลื่อนโดยบริษัทเทคโนโลยียักษ์ใหญ่
  3. การพัฒนา AI แบบกำหนดเอง - โซลูชันที่ออกแบบเฉพาะ

สำหรับขั้นตอนแรก เขาเสนอให้พิจารณาดังนี้:

  • การพิสูจน์แนวคิด (PoC)
  • ต้นแบบ
  • ผลิตภัณฑ์ที่ใช้งานได้ขั้นต่ำ (MVP)
  • การทดสอบสมมติฐานที่เสี่ยงที่สุด (RAT)
  • นักบิน

สิ่งที่เปลี่ยนแปลง:

ตั้งแต่ปี 2018 เราได้เห็น:

  • การทำให้เครื่องมือ AI เป็นประชาธิปไตย ด้วยโซลูชันแบบไม่ต้องเขียนโค้ดหรือเขียนโค้ดน้อย
  • การปรับปรุงแพลตฟอร์ม AI บนคลาวด์อย่างโดดเด่น
  • การเติบโตของ AI เชิงกำเนิดและโมเดลเช่น GPT, DALL-E เป็นต้น
  • การเพิ่มขึ้นของโซลูชัน AutoML ที่ทำให้ส่วนต่างๆ ของกระบวนการวิทยาศาสตร์ข้อมูลเป็นแบบอัตโนมัติ

การพิจารณาความเสี่ยงและความท้าทาย

ความเสี่ยงของปัญญาประดิษฐ์:

เบอร์เจสอุทิศบทหนึ่งให้กับความเสี่ยงของ AI โดยเน้นย้ำถึง:

  1. คุณภาพข้อมูล
  2. การขาดความโปร่งใส - ลักษณะ "กล่องดำ" ของอัลกอริทึม
  3. อคติที่ไม่ได้ตั้งใจ
  4. ความไร้เดียงสาของ AI - ข้อจำกัดของความเข้าใจเชิงบริบท
  5. การพึ่งพา AI มากเกินไป
  6. การเลือกใช้เทคโนโลยีที่ผิด
  7. การกระทำอันเป็นอันตราย

วิวัฒนาการจากปี 2018 ถึงปี 2025:

ตั้งแต่หนังสือเล่มนี้ถูกเขียนขึ้น:

  • ความกังวลเกี่ยวกับอคติของอัลกอริทึมกลายเป็นประเด็นสำคัญ (อยู่ระหว่างการสืบสวนเพิ่มเติม)
  • ความปลอดภัยของ AI กลายเป็นสิ่งสำคัญเมื่อภัยคุกคามเพิ่มมากขึ้น
  • การควบคุม AI กลายเป็นปัจจัยสำคัญ
  • ความเสี่ยงจาก Deepfake และการบิดเบือนข้อมูลด้วย AI เชิงสร้างสรรค์มีมากขึ้น
  • ความกังวลเกี่ยวกับความเป็นส่วนตัวเพิ่มมากขึ้นเนื่องจากมีการใช้ AI แพร่หลายมากขึ้น

การสร้างองค์กร AI ที่มีประสิทธิภาพ

จากหนังสือของเบอร์เจส (2018):

เบอร์เจสเสนอ:

  • การสร้างระบบนิเวศ AI ร่วมกับผู้จำหน่ายและพันธมิตร
  • จัดตั้งศูนย์ความเป็นเลิศ (CoE) ที่มีทีมงานเฉพาะทาง
  • พิจารณาบทบาทเช่น Chief Data Officer (CDO) หรือ Chief Automation Officer (CAO)

วิวัฒนาการจากปี 2018 ถึงปี 2025:

ตั้งแต่นั้นมา:

  • บทบาทของ Chief AI Officer (CAIO) กลายเป็นเรื่องปกติไปแล้ว
  • ปัจจุบัน AI มักถูกรวมเข้าไว้ทั่วทั้งองค์กรแทนที่จะถูกแยกไว้เฉพาะใน CoE
  • การกระจายอำนาจของ AI ทำให้เกิดรูปแบบการดำเนินงานแบบกระจายมากขึ้น
  • ความสำคัญของความรู้ด้าน AI สำหรับพนักงานทุกคนได้รับการเปิดเผย

บทสรุป

จากหนังสือของเบอร์เจส (2018):

เบอร์เจสสรุปด้วยความสำคัญของ:

  • อย่าเชื่อคำโฆษณาเกินจริง แต่ให้มุ่งเน้นไปที่ปัญหาทางธุรกิจที่แท้จริง
  • เริ่มต้นการเดินทาง AI ของคุณโดยเร็วที่สุด
  • สร้างอนาคตให้กับธุรกิจของคุณด้วยการทำความเข้าใจ AI
  • การใช้แนวทางที่สมดุลระหว่างความมองโลกในแง่ดีและความสมจริง

วิวัฒนาการจากปี 2018 ถึงปี 2025:

คำแนะนำของเบอร์เจสที่ว่า "อย่าเชื่อกระแส" ยังคงมีความสำคัญอย่างยิ่งในปี 2025 โดยเฉพาะอย่างยิ่งเมื่อกระแส AI เชิงสร้างสรรค์กำลังมาแรง อย่างไรก็ตาม ความเร็วในการนำ AI มาใช้นั้นยิ่งมีความสำคัญมากขึ้น และบริษัทที่ยังไม่ได้เริ่มต้นเส้นทาง AI ของตนเองกำลังเสียเปรียบอย่างมากเมื่อเทียบกับบริษัทที่ทำตามคำแนะนำของเบอร์เจสที่ให้เริ่มต้นตั้งแต่เนิ่นๆ (ในปี 2018!)

ภูมิทัศน์ของ AI ในปี 2025 มีความซับซ้อนมากขึ้น มีความสมบูรณ์มากขึ้น และบูรณาการเข้ากับกลยุทธ์ทางธุรกิจมากกว่าที่ใครจะคาดการณ์ได้ในปี 2018 แต่หลักการสำคัญของการจัดแนวกลยุทธ์ การสร้างมูลค่า และการจัดการความเสี่ยงที่เบอร์เจสสรุปไว้ยังคงมีความสมเหตุสมผลอย่างน่าประหลาดใจ

ทรัพยากรเพื่อการเติบโตทางธุรกิจ

9 พฤศจิกายน 2568

กฎระเบียบ AI สำหรับการใช้งานของผู้บริโภค: วิธีการเตรียมพร้อมสำหรับกฎระเบียบใหม่ปี 2025

ปี 2025 ถือเป็นจุดสิ้นสุดของยุค "Wild West" ของ AI: พระราชบัญญัติ AI ของสหภาพยุโรปจะมีผลบังคับใช้ในเดือนสิงหาคม 2024 โดยมีข้อกำหนดด้านความรู้ด้าน AI ตั้งแต่วันที่ 2 กุมภาพันธ์ 2025 และมีการกำกับดูแลและ GPAI ตั้งแต่วันที่ 2 สิงหาคม รัฐแคลิฟอร์เนียเป็นผู้นำด้วย SB 243 (เกิดขึ้นหลังจากการฆ่าตัวตายของ Sewell Setzer เด็กอายุ 14 ปีที่มีความสัมพันธ์ทางอารมณ์กับแชทบอท) ซึ่งกำหนดข้อห้ามระบบรางวัลแบบย้ำคิดย้ำทำ การตรวจจับความคิดฆ่าตัวตาย การเตือน "ฉันไม่ใช่มนุษย์" ทุกสามชั่วโมง การตรวจสอบสาธารณะโดยอิสระ และค่าปรับ 1,000 ดอลลาร์ต่อการละเมิด SB 420 กำหนดให้มีการประเมินผลกระทบสำหรับ "การตัดสินใจอัตโนมัติที่มีความเสี่ยงสูง" พร้อมสิทธิ์ในการอุทธรณ์การตรวจสอบโดยมนุษย์ การบังคับใช้จริง: Noom ถูกฟ้องร้องในปี 2022 ในข้อหาใช้บอทปลอมตัวเป็นโค้ชมนุษย์ ซึ่งเป็นการยอมความมูลค่า 56 ล้านดอลลาร์ แนวโน้มระดับชาติ: รัฐแอละแบมา ฮาวาย อิลลินอยส์ เมน และแมสซาชูเซตส์ ระบุว่าการไม่แจ้งเตือนแชทบอท AI ถือเป็นการละเมิด UDAP แนวทางความเสี่ยงสามระดับ ได้แก่ ระบบสำคัญ (การดูแลสุขภาพ/การขนส่ง/พลังงาน) การรับรองก่อนการใช้งาน การเปิดเผยข้อมูลที่โปร่งใสต่อผู้บริโภค การลงทะเบียนเพื่อวัตถุประสงค์ทั่วไป และการทดสอบความปลอดภัย กฎระเบียบที่ซับซ้อนโดยไม่มีการยึดครองอำนาจจากรัฐบาลกลาง: บริษัทหลายรัฐต้องปฏิบัติตามข้อกำหนดที่แปรผัน สหภาพยุโรป ตั้งแต่เดือนสิงหาคม 2569: แจ้งให้ผู้ใช้ทราบเกี่ยวกับการโต้ตอบกับ AI เว้นแต่เนื้อหาที่สร้างโดย AI ที่ชัดเจนและติดป้ายว่าสามารถอ่านได้ด้วยเครื่อง
9 พฤศจิกายน 2568

เมื่อ AI กลายเป็นตัวเลือกเดียวของคุณ (และทำไมคุณถึงชอบมัน)

บริษัทแห่งหนึ่งได้ปิดระบบ AI ของตนอย่างลับๆ เป็นเวลา 72 ชั่วโมง ผลลัพธ์ที่ได้คือ การตัดสินใจที่หยุดชะงักโดยสิ้นเชิง ปฏิกิริยาที่พบบ่อยที่สุดเมื่อได้รับการจ้างงานอีกครั้งคือความโล่งใจ ภายในปี 2027 การตัดสินใจทางธุรกิจ 90% จะถูกมอบหมายให้กับ AI โดยมนุษย์จะทำหน้าที่เป็น "ตัวประสานทางชีวภาพ" เพื่อรักษาภาพลวงตาของการควบคุม ผู้ที่ต่อต้านจะถูกมองเหมือนกับผู้ที่คำนวณด้วยมือหลังจากการประดิษฐ์เครื่องคิดเลข คำถามไม่ได้อยู่ที่ว่าเราจะยอมหรือไม่ แต่เป็นคำถามที่ว่าเราจะยอมอย่างสง่างามเพียงใด
9 พฤศจิกายน 2568

การควบคุมสิ่งที่ไม่ได้ถูกสร้างขึ้น: ยุโรปมีความเสี่ยงต่อการไม่เกี่ยวข้องทางเทคโนโลยีหรือไม่?

ยุโรปดึงดูดการลงทุนด้าน AI เพียงหนึ่งในสิบของทั่วโลก แต่กลับอ้างว่าเป็นผู้กำหนดกฎเกณฑ์ระดับโลก นี่คือ "ปรากฏการณ์บรัสเซลส์" การกำหนดกฎระเบียบระดับโลกผ่านอำนาจทางการตลาดโดยไม่ผลักดันนวัตกรรม พระราชบัญญัติ AI จะมีผลบังคับใช้ตามกำหนดเวลาแบบสลับกันจนถึงปี 2027 แต่บริษัทข้ามชาติด้านเทคโนโลยีกำลังตอบสนองด้วยกลยุทธ์การหลบเลี่ยงที่สร้างสรรค์ เช่น การใช้ความลับทางการค้าเพื่อหลีกเลี่ยงการเปิดเผยข้อมูลการฝึกอบรม การจัดทำสรุปที่สอดคล้องทางเทคนิคแต่เข้าใจยาก การใช้การประเมินตนเองเพื่อลดระดับระบบจาก "ความเสี่ยงสูง" เป็น "ความเสี่ยงน้อยที่สุด" และการเลือกใช้ฟอรัมโดยเลือกประเทศสมาชิกที่มีการควบคุมที่เข้มงวดน้อยกว่า ความขัดแย้งของลิขสิทธิ์นอกอาณาเขต: สหภาพยุโรปเรียกร้องให้ OpenAI ปฏิบัติตามกฎหมายของยุโรปแม้กระทั่งการฝึกอบรมนอกยุโรป ซึ่งเป็นหลักการที่ไม่เคยพบเห็นมาก่อนในกฎหมายระหว่างประเทศ "แบบจำลองคู่ขนาน" เกิดขึ้น: เวอร์ชันยุโรปที่จำกัดเทียบกับเวอร์ชันสากลขั้นสูงของผลิตภัณฑ์ AI เดียวกัน ความเสี่ยงที่แท้จริง: ยุโรปกลายเป็น "ป้อมปราการดิจิทัล" ที่แยกตัวออกจากนวัตกรรมระดับโลก โดยพลเมืองยุโรปเข้าถึงเทคโนโลยีที่ด้อยกว่า ศาลยุติธรรมได้ปฏิเสธข้อแก้ตัวเรื่อง "ความลับทางการค้า" ในคดีเครดิตสกอร์ไปแล้ว แต่ความไม่แน่นอนในการตีความยังคงมีอยู่อย่างมหาศาล คำว่า "สรุปโดยละเอียดเพียงพอ" หมายความว่าอย่างไรกันแน่? ไม่มีใครรู้ คำถามสุดท้ายที่ยังไม่มีคำตอบคือ สหภาพยุโรปกำลังสร้างช่องทางที่สามทางจริยธรรมระหว่างทุนนิยมสหรัฐฯ กับการควบคุมของรัฐจีน หรือเพียงแค่ส่งออกระบบราชการไปยังภาคส่วนที่จีนไม่สามารถแข่งขันได้? ในตอนนี้: ผู้นำระดับโลกด้านการกำกับดูแล AI แต่การพัฒนายังอยู่ในขอบเขตจำกัด โครงการอันกว้างใหญ่
9 พฤศจิกายน 2568

Outliers: เมื่อวิทยาศาสตร์ข้อมูลพบกับเรื่องราวความสำเร็จ

วิทยาศาสตร์ข้อมูลได้พลิกโฉมกระบวนทัศน์เดิมๆ: ค่าผิดปกติไม่ใช่ "ข้อผิดพลาดที่ต้องกำจัด" อีกต่อไป แต่เป็นข้อมูลอันมีค่าที่ต้องทำความเข้าใจ ค่าผิดปกติเพียงค่าเดียวสามารถบิดเบือนแบบจำลองการถดถอยเชิงเส้นได้อย่างสิ้นเชิง โดยเปลี่ยนความชันจาก 2 เป็น 10 แต่การกำจัดค่าผิดปกตินั้นอาจหมายถึงการสูญเสียสัญญาณที่สำคัญที่สุดในชุดข้อมูล การเรียนรู้ของเครื่องได้นำเครื่องมือที่ซับซ้อนมาใช้: Isolation Forest แยกแยะค่าผิดปกติโดยการสร้างต้นไม้ตัดสินใจแบบสุ่ม Local Outlier Factor วิเคราะห์ความหนาแน่นเฉพาะที่ และ Autoencoders จะสร้างข้อมูลปกติขึ้นใหม่และทำเครื่องหมายสิ่งที่ไม่สามารถทำซ้ำได้ ค่าผิดปกติมีทั้งค่าผิดปกติทั่วไป (อุณหภูมิ -10°C ในเขตร้อน) ค่าผิดปกติตามบริบท (การใช้จ่าย 1,000 ยูโรในย่านยากจน) และค่าผิดปกติแบบรวม (จุดสูงสุดของการรับส่งข้อมูลเครือข่ายที่ซิงโครไนซ์กันซึ่งบ่งชี้ถึงการโจมตี) เช่นเดียวกับ Gladwell: "กฎ 10,000 ชั่วโมง" ยังคงเป็นที่ถกเถียงกัน — Paul McCartney กล่าวไว้ว่า "วงดนตรีหลายวงทำงาน 10,000 ชั่วโมงในฮัมบูร์กโดยไม่ประสบความสำเร็จ ทฤษฎีนี้ไม่ได้พิสูจน์ความถูกต้อง" ความสำเร็จทางคณิตศาสตร์ของเอเชียไม่ได้เกิดจากพันธุกรรม แต่เกิดจากวัฒนธรรม: ระบบตัวเลขที่เข้าใจง่ายกว่าของจีน การเพาะปลูกข้าวต้องได้รับการพัฒนาอย่างต่อเนื่อง เทียบกับการขยายอาณาเขตของภาคเกษตรกรรมตะวันตก การประยุกต์ใช้จริง: ธนาคารในสหราชอาณาจักรฟื้นตัวจากความสูญเสียที่อาจเกิดขึ้นได้ 18% ผ่านการตรวจจับความผิดปกติแบบเรียลไทม์ การผลิตตรวจพบข้อบกพร่องในระดับจุลภาคที่การตรวจสอบโดยมนุษย์อาจมองข้าม การดูแลสุขภาพยืนยันข้อมูลการทดลองทางคลินิกด้วยความไวต่อการตรวจจับความผิดปกติมากกว่า 85% บทเรียนสุดท้าย: เมื่อวิทยาศาสตร์ข้อมูลเปลี่ยนจากการกำจัดค่าผิดปกติไปสู่การทำความเข้าใจค่าผิดปกติ เราต้องมองอาชีพที่ไม่ธรรมดาว่าไม่ใช่ความผิดปกติที่ต้องแก้ไข แต่เป็นเส้นทางที่มีค่าที่ต้องศึกษา