“ChatGPT ทำให้คุณโง่ลง” “AI ทำลายสมอง” “งานวิจัยของ MIT: AI ทำให้ความสามารถทางปัญญาเสื่อมถอย” ในช่วงไม่กี่เดือนที่ผ่านมา หัวข้อข่าวที่สร้างความตื่นตระหนกเช่นนี้ได้ครอบงำสื่อกระแสหลัก กระตุ้นความกลัวที่ไม่มีมูลความจริงเกี่ยวกับการใช้ปัญญาประดิษฐ์ในด้านการศึกษาและที่ทำงาน แต่ความจริงแล้ววิทยาศาสตร์กล่าวว่าอย่างไร? การวิเคราะห์อย่างละเอียดถี่ถ้วนของเอกสารทางวิชาการเผยให้เห็นความเป็นจริงที่ซับซ้อนกว่ามาก และเหนือสิ่งอื่นใด คือมองโลกในแง่ดีมากกว่า
งานวิจัยของ MIT Media Lab เรื่อง "สมองของคุณเมื่อใช้ ChatGPT" ได้จุดประกายให้เกิดกระแสข่าวในสื่อที่สร้างความตื่นตระหนก โดยมักอิงจากการตีความผลลัพธ์ที่บิดเบือน งานวิจัยนี้ตีพิมพ์ในรูปแบบเอกสารฉบับร่าง (และจึงยัง ไม่ได้รับการตรวจสอบโดยผู้ทรงคุณวุฒิ ) โดยมี ผู้เข้าร่วมเพียง 54 คน จากพื้นที่บอสตัน และมีเพียง 18 คนเท่านั้นที่ทำแบบทดสอบที่สำคัญเสร็จสมบูรณ์
ขนาดตัวอย่างไม่เพียงพอ : ด้วยจำนวนผู้เข้าร่วมทั้งหมด 54 คน การศึกษานี้ขาดพลังทางสถิติที่จำเป็นในการสรุปผลที่สามารถนำไปใช้ได้ทั่วไป ดังที่นักวิจัยเองยอมรับว่า "ตัวอย่างมีขนาดเล็ก" และ "มีความเป็นเนื้อเดียวกัน: ผู้คนที่อาศัยอยู่ในบริเวณใกล้เคียง MIT ไม่ได้สะท้อนถึงการกระจายตัวของประชากรทั่วโลกอย่างแน่นอน"
การออกแบบการทดลองที่มีปัญหา : ผู้เข้าร่วมการทดลองถูกกำหนดให้เขียนเรียงความ SAT ภายในเวลาเพียง 20 นาที ซึ่งเป็นข้อจำกัดที่สร้างขึ้นมาเอง ทำให้เกิดการคัดลอกวางมากกว่าการไตร่ตรองและบูรณาการอย่างสร้างสรรค์ การออกแบบนี้ "เลียนแบบข้อจำกัดในชีวิตจริงได้ดี" เช่น "กำหนดส่งพรุ่งนี้" หรือ "ฉันอยากเล่นวิดีโอเกมมากกว่า" แต่ไม่ได้แสดงถึงการใช้ AI อย่างมีหลักการทางการศึกษา
ผลกระทบจากความคุ้นเคยที่ถูกบิดเบือน : กลุ่มที่ใช้ "สมองอย่างเดียว" แสดงให้เห็นถึงการพัฒนาที่ดีขึ้นเรื่อยๆ ในสามช่วงแรกของการฝึกฝน เพียงเพราะพวกเขามีความคุ้นเคยกับงานมากขึ้น ในขณะที่กลุ่ม AI ต้องเขียนโดยไม่ได้รับความช่วยเหลือในรอบที่สี่ พวกเขากำลังเผชิญกับงานนั้นเป็นครั้งแรกโดยปราศจากประโยชน์จากการฝึกฝน
ในขณะที่สื่อมุ่งเน้นไปที่ผลการวิจัยที่สร้างความตื่นตระหนกของ MIT งานวิจัยที่เข้มงวดกว่ามากกลับให้ผลลัพธ์ที่แตกต่างอย่างสิ้นเชิง
งานวิจัยที่ดำเนินการโดยมหาวิทยาลัยวิทยาศาสตร์และเทคโนโลยีควาเมะ เอ็นครูมาห์ ติดตาม นักศึกษาระดับปริญญาตรี 125 คน ใน รูปแบบการทดลองแบบสุ่มควบคุม ตลอด ภาคการศึกษา ผลลัพธ์ที่ได้ขัดแย้งโดยตรงกับข้อค้นพบของ MIT:
การคิดเชิงวิเคราะห์ : นักเรียนที่ใช้ ChatGPT มีคะแนนดีขึ้นจาก 28.4 เป็น 39.2 คะแนน (+38%) ซึ่งดีกว่ากลุ่มควบคุมอย่างเห็นได้ชัด (จาก 24.9 เป็น 30.6 คะแนน, +23%)
ความคิดสร้างสรรค์ : เพิ่มขึ้นอย่างน่าทึ่งยิ่งกว่า จาก 57.2 เป็น 92.0 คะแนน (+61%) สำหรับกลุ่ม ChatGPT โดยมีการปรับปรุงในทุกมิติทั้งหกที่วัดได้ ได้แก่ ความกล้าหาญ การค้นคว้าเชิงนวัตกรรม ความอยากรู้อยากเห็น การมีวินัยในตนเอง ความลังเลสงสัย และความยืดหยุ่น
การคิดเชิงไตร่ตรอง : พัฒนาขึ้นอย่างมากจาก 35.1 เป็น 56.6 คะแนน (+61%) แสดงให้เห็นถึงความสามารถในการไตร่ตรองตนเองและการคิดเชิงอภิปัญญาที่มากขึ้น
ความแตกต่างทางระเบียบวิธีที่สำคัญ : การศึกษาในประเทศกานาใช้มาตรวัดที่ได้รับการตรวจสอบความถูกต้องแล้ว (ค่า Cronbach α > 0.89) การวิเคราะห์ปัจจัยเชิงยืนยัน การควบคุม ANCOVA สำหรับคะแนนก่อนการทดสอบ และที่สำคัญที่สุดคือ การบูรณาการ ChatGPT เข้ากับ บริบททางการศึกษาในโลกแห่งความเป็นจริง พร้อมด้วยการสนับสนุนด้านการสอนที่เหมาะสม
การศึกษาที่เข้มงวดที่สุดเท่าที่มีอยู่เกี่ยวข้องกับ ที่ปรึกษาของ Boston Consulting Group จำนวน 758 คน ในการทดลองแบบควบคุม ที่ลงทะเบียนล่วงหน้า ผลลัพธ์ที่ได้นั้นชัดเจน:
อีธาน มอลลิค ผู้ร่วมเขียนงานวิจัยชี้ให้เห็นว่า "ที่ปรึกษาที่ใช้ ChatGPT มีผลการปฏิบัติงานดีกว่าผู้ที่ไม่ใช้มาก ในทุกมิติ ในทุกวิธีที่เราวัดผลการปฏิบัติงาน"
การทบทวนอย่างเป็นระบบเกี่ยวกับงานวิจัยด้านปัญญาประดิษฐ์ในระดับอุดมศึกษา พบว่ามีประโยชน์อย่างมีนัยสำคัญ:
การศึกษาข้ามชาติที่ทำการ สำรวจนักศึกษามหาวิทยาลัยชาวจีน 401 คน โดยใช้แบบจำลองสมการโครงสร้าง ยืนยันว่า "ทั้งปัญญาประดิษฐ์และสื่อสังคมออนไลน์มีผลกระทบเชิงบวกต่อผลการเรียนและสุขภาพจิต"
การรายงานข่าวของสื่อเกี่ยวกับงานวิจัยของ MIT เป็นตัวอย่างสำคัญที่แสดงให้เห็นว่าการนำเสนอข่าวแบบหวือหวาอาจบิดเบือนความเข้าใจของสาธารณชนเกี่ยวกับวิทยาศาสตร์ได้อย่างไร
พาดหัวข่าวทั่วไป : "ผลการศึกษาของ MIT ชี้ว่า ChatGPT ทำให้คุณโง่ลง"
ข้อเท็จจริง : การศึกษาเบื้องต้นที่ไม่ได้รับการตรวจสอบโดยผู้เชี่ยวชาญ ซึ่งมีผู้เข้าร่วม 54 คน พบความแตกต่างในการเชื่อมต่อของระบบประสาทในงานจำลอง
พาดหัวข่าวทั่วไป : "ปัญญาประดิษฐ์กำลังทำลายสมอง"
ความจริง : ผลการตรวจ EEG แสดงรูปแบบการกระตุ้นที่แตกต่างกัน ซึ่งสามารถตีความได้ว่าเป็นประสิทธิภาพของระบบประสาทมากกว่าความเสียหาย
พาดหัวข่าวทั่วไป : "ChatGPT ทำให้ความสามารถทางปัญญาเสื่อมถอย"
ความเป็นจริง : งานวิจัยชิ้นนี้มีข้อจำกัดทางระเบียบวิธีวิจัยอย่างร้ายแรง ซึ่งขัดแย้งกับงานวิจัยที่มีความเข้มงวดมากกว่า
นาตาลียา คอสมีนา หัวหน้าทีมวิจัยของ MIT ยอมรับว่าได้ใส่ "กับดัก" ไว้ในงานวิจัยเพื่อป้องกันไม่ให้โปรแกรมสรุปเนื้อหา (LLM) สรุปงานวิจัยได้อย่างถูกต้อง แต่ที่น่าขันคือ ผู้ใช้โซเชียลมีเดียจำนวนมากกลับใช้โปรแกรม LLM ในการสรุปและแบ่งปันงานวิจัยดังกล่าวโดยไม่รู้ตัว ซึ่งเป็นการแสดงให้เห็นถึงประโยชน์ในทางปฏิบัติของเครื่องมือเหล่านี้
งานวิจัยที่จริงจังเกี่ยวกับ AI ในการศึกษาไม่ได้ปฏิเสธการมีอยู่ของความท้าทาย แต่เป็นการนำเสนอความท้าทายเหล่านั้นในมุมมองที่ซับซ้อนยิ่งขึ้น แนวคิดเรื่อง "ขอบเขตเทคโนโลยีที่มีรอยบาก" จากการศึกษาของฮาร์วาร์ด แสดงให้เห็นว่า AI เก่งในบางงาน แต่ก็มีปัญหาในงานอื่นๆ ที่ดูเหมือนจะคล้ายคลึงกัน
จังหวะเวลาในการแนะนำ : หลักฐานชี้ให้เห็นว่าการพัฒนาทักษะพื้นฐานก่อนการแนะนำ AI สามารถเพิ่มประโยชน์สูงสุดได้ ดังที่การศึกษาของ MIT เองได้ระบุไว้ ผู้เข้าร่วม "แสดงให้เห็นถึงความสามารถในการเรียกคืนความจำจากสมองไปยัง LLM ที่เหนือกว่า และการทำงานของบริเวณสมองส่วนท้ายทอยและส่วนหน้าผาก"
การออกแบบเชิงการสอน : การศึกษาในประเทศกานาแสดงให้เห็นถึงความสำคัญของการบูรณาการ AI เข้ากับโครงสร้างการสอนที่เหมาะสม คำถามกระตุ้นความคิดที่ออกแบบมาอย่างดี และวัตถุประสงค์การเรียนรู้ที่ชัดเจน
บริบทสำคัญ : การนำ AI มาใช้ในสภาพแวดล้อมทางการศึกษาจริง แทนที่จะใช้กับงานจำลอง จะให้ผลลัพธ์ที่แตกต่างกันอย่างมาก

การรายงานข่าวที่ลำเอียงไม่ใช่แค่ปัญหาในแวดวงวิชาการเท่านั้น แต่ยังมีผลกระทบอย่างแท้จริงต่อการนำเทคโนโลยีที่มีประโยชน์มาใช้ด้วย
ดังที่ Kosmyna ยอมรับเองว่า "สิ่งที่กระตุ้นให้ฉันเผยแพร่บทความนี้ในตอนนี้ก่อนที่จะรอการตรวจสอบจากผู้เชี่ยวชาญอย่างเต็มรูปแบบก็คือ ฉันกลัวว่าในอีก 6-8 เดือนข้างหน้า จะมีผู้กำหนดนโยบายบางคนตัดสินใจว่า 'มาสร้างโรงเรียนอนุบาล GPT กันเถอะ' ฉันคิดว่านั่นจะเป็นเรื่องเชิงลบและเป็นอันตรายอย่างยิ่ง"
คำกล่าวนี้เผยให้เห็นถึงแรงจูงใจในการสนับสนุน ซึ่งควรเป็นสัญญาณเตือนเกี่ยวกับความเป็นกลางทางวิทยาศาสตร์ของการวิจัย
จากการสำรวจวิศวกรซอฟต์แวร์ 28,698 คน พบว่ามีเพียง 41% เท่านั้นที่เคยลองใช้เครื่องมือ AI โดยอัตราการใช้งานยิ่งต่ำลงในกลุ่มผู้หญิง (31%) และวิศวกรที่มีอายุมากกว่า 40 ปี (39%) พาดหัวข่าวที่สร้างความตื่นตระหนกยิ่งทำให้เกิดอคติเหล่านี้ ซึ่งอาจทำให้คนทำงานจำนวนมากพลาดโอกาสได้รับประโยชน์ที่ได้รับการพิสูจน์แล้วจาก AI
บริษัท AI ต้องสร้างสมดุลระหว่างความกระตือรือร้นต่อเทคโนโลยีกับการสื่อสารอย่างตรงไปตรงมาเกี่ยวกับข้อจำกัดของมัน ผลการวิจัยที่จริงจังชี้ให้เห็นถึงประโยชน์ที่แท้จริงเมื่อนำ AI มาใช้อย่างรอบคอบ แต่ก็มีความจำเป็นที่จะต้อง:
แทนที่จะตอบโต้ด้วยท่าทีปกป้องตนเองเมื่อเห็นข่าวเชิงลบ อุตสาหกรรม AI ควรทำดังนี้:
ประวัติความเป็นมาของการศึกษาของ MIT และการรายงานข่าวในสื่อต่างๆ ให้บทเรียนที่สำคัญสำหรับผู้มีส่วนได้ส่วนเสียทั้งหมดในระบบนิเวศของ AI
แรงกดดันในการเผยแพร่ผลลัพธ์ที่ "น่าสนใจ" ต้องไม่กระทบต่อความเข้มงวดทางระเบียบวิธีวิจัย บทความฉบับร่างอาจมีประโยชน์สำหรับการอภิปรายทางวิทยาศาสตร์ แต่จำเป็นต้องมีการสื่อสารข้อจำกัดต่างๆ อย่างระมัดระวัง
ประชาชนสมควรได้รับข้อมูลข่าวสารที่ถูกต้องแม่นยำ ซึ่งแยกแยะความแตกต่างระหว่าง:
อนาคตของ AI ในการศึกษานั้นขึ้นอยู่กับการนำไปใช้อย่างรอบคอบโดยอาศัยหลักฐานที่เชื่อถือได้ ไม่ใช่การตอบสนองต่อพาดหัวข่าวที่สร้างความฮือฮาในปัจจุบัน
ในขณะที่การถกเถียงยังคงดุเดือดในหน้าข่าว งานวิจัยที่จริงจังกำลังเผยให้เห็นศักยภาพที่แท้จริงของ AI ในการทำให้ทุกคนเข้าถึงประสบการณ์การเรียนรู้ที่มีคุณภาพสูงได้อย่างเท่าเทียมกัน การศึกษาในประเทศกานาแสดงให้เห็นว่า เมื่อนำไปใช้อย่างเหมาะสม AI สามารถช่วยได้ดังนี้:
คำถามไม่ได้อยู่ที่ว่า AI จะเปลี่ยนแปลงการศึกษาหรือไม่ แต่เราจะนำพาการเปลี่ยนแปลงนี้ไปในทิศทางที่รับผิดชอบได้อย่างไร คำตอบอยู่ที่หลักวิทยาศาสตร์ที่เข้มงวด ไม่ใช่พาดหัวข่าวที่สร้างความฮือฮา
ที่มาและอ้างอิง:
เพื่อติดตามข่าวสารล่าสุดเกี่ยวกับการวิจัยทางวิทยาศาสตร์ที่น่าเชื่อถือด้านปัญญาประดิษฐ์ (โดยปราศจากความตื่นตระหนก) โปรดติดตามบล็อกของบริษัทและสมัครรับจดหมายข่าวของเรา newsletter .