Newsletter

การเผยแพร่และปัญญาประดิษฐ์: เมื่อนักข่าวหุ่นยนต์ได้รับหนังสือเดินทางอินเดีย

การหลอกลวงครั้งใหญ่ของโรงงานผลิตคอนเทนต์: เบื้องหลังปัญญาประดิษฐ์ (AI) มีคนทำงานที่เป็นมนุษย์อยู่หรือไม่?

ปัญญาประดิษฐ์กำลังเปลี่ยนแปลงกฎเกณฑ์ของการตีพิมพ์ระดับโลกด้วยความเร็วที่ไม่เคยมีมาก่อน: ในขณะที่ Axel Springer กำลังปลดพนักงานกองบรรณาธิการชาวอิตาลีทั้งหมดของ Upday เพื่อแทนที่ด้วย ChatGPT สิ่งพิมพ์อย่าง Il Foglio กลับมียอดขายเพิ่มขึ้น 60% ด้วยเนื้อหาแทรกที่เขียนขึ้นโดย AI ทั้งหมด แต่เบื้องหลังฉากนั้น ความจริงที่ซับซ้อนกว่ากำลังปรากฏออกมา: "โซลูชัน AI ที่ปฏิวัติวงการ" จำนวนมากซ่อนความเป็นจริงในการดำเนินงานที่แกว่งไปมาระหว่างนวัตกรรมที่แท้จริงและการบิดเบือนระบบนิเวศข้อมูลอย่างเป็นระบบ

ปรากฏการณ์นี้ ซึ่งนักวิจัยตั้งชื่ออย่างประชดประชันว่า “fauxtomation” เผยให้เห็นว่าอุตสาหกรรมเทคโนโลยีมักใช้ระบบอัตโนมัติคุณภาพต่ำเพื่อแอบอ้างว่าเป็นปัญญาประดิษฐ์ขั้นสูง

งานวิจัยของ NewsGuard เปิดเผยปรากฏการณ์ที่น่าจับตามองอย่างยิ่ง: เว็บไซต์ข้อมูลเท็จอัตโนมัติกว่า 1,200 แห่ง กระจายอยู่ใน 16 ภาษา ระบบนิเวศนี้กำลังเติบโตอย่างรวดเร็ว โดยคาดว่าตลาดจะเติบโตขึ้นถึงสี่เท่าในอีกหกปีข้างหน้า จาก 26 พันล้านดอลลาร์ในปัจจุบัน เป็นเกือบ 100 พันล้านดอลลาร์ในปี 2030

ความแตกต่างระหว่างผู้ที่ประสบความสำเร็จและผู้ที่ล้มเหลวคืออะไร? คือความสามารถในการเปลี่ยน AI จากภัยคุกคามต่อการดำรงอยู่ให้กลายเป็นความได้เปรียบในการแข่งขัน ผ่านความสามารถหลักใหม่: การรู้ว่าจะต้องขออะไรจากเครื่องจักร—เมื่อเครื่องจักรนั้นเป็นเพียงเครื่องจักรอย่างแท้จริง

จุดเปลี่ยนครั้งสำคัญ: ใครเป็นผู้ไล่ออกและใครจะเป็นผู้ว่าจ้างในยุคของปัญญาประดิษฐ์

ช่วงสองปี 2024-2025 ถือเป็นจุดเปลี่ยนสำคัญในอุตสาหกรรมการพิมพ์ ในด้านหนึ่ง มีการปลดพนักงานครั้งใหญ่เกิดขึ้นในห้องข่าวเก่าแก่หลายแห่ง เช่น Business Insider ลดจำนวนพนักงานลง 21% The Messenger ปิดตัวลง ทำให้ผู้สื่อข่าว 300 คนตกงาน ขณะที่ CNN และ Los Angeles Times ก็ลดตำแหน่งงานลงหลายร้อยตำแหน่ง ตำแหน่งงานที่ได้รับผลกระทบมากที่สุดคือ นักเขียนคำโฆษณา บรรณาธิการฝึกหัด และนักแปล ซึ่งเป็นงานที่สามารถใช้ระบบอัตโนมัติมาทดแทนได้ง่าย

ในทางกลับกัน ระบบนิเวศแห่งโอกาสใหม่ ๆ กำลังเกิดขึ้น หนังสือพิมพ์ Washington Post ได้สร้างตำแหน่ง "บรรณาธิการอาวุโสฝ่ายกลยุทธ์และนวัตกรรม AI" เป็นครั้งแรก ในขณะที่ Newsweek ได้เปิดตัวทีม AI เฉพาะสำหรับการรายงานข่าวฉุกเฉิน ซึ่งช่วยให้มีผู้เข้าชมเว็บไซต์ถึง 130 ล้านครั้งต่อเดือน ตลาดงานด้าน AI ในภาคสื่อเพิ่มขึ้น 124% โดยมีเงินเดือนสูงถึง 335,000 ดอลลาร์สหรัฐต่อปีสำหรับวิศวกรอาวุโส

หัวใจสำคัญของการเปลี่ยนแปลงนี้อยู่ที่แนวทางเชิงกลยุทธ์ Thomson Reuters ลงทุนใน AI มากกว่า 100 ล้านดอลลาร์สหรัฐต่อปี โดยใช้โมเดลที่แตกต่างกันสำหรับงานเฉพาะด้าน: OpenAI สำหรับการสร้างเนื้อหา, Google Gemini สำหรับการวิเคราะห์เอกสารทางกฎหมายที่ซับซ้อน และ Anthropic Claude สำหรับเวิร์กโฟลว์ที่มีความละเอียดอ่อนสูง แนวทางการใช้ผู้ให้บริการหลายรายนี้ช่วยให้บริษัทสามารถเพิ่มประสิทธิภาพด้านต้นทุนและประสิทธิภาพการทำงาน ในขณะที่ยังคงควบคุมคุณภาพด้านบรรณาธิการได้

ศิลปะแห่งการสนทนากับปัญญาประดิษฐ์: ไวยากรณ์ใหม่ของวารสารศาสตร์

"การรู้วิธีถามเครื่องจักร" ไม่ใช่แค่สโลแกน แต่เป็นทักษะทางวิชาชีพที่กำลังเกิดขึ้นใหม่และกำลังกำหนดนิยามใหม่ให้กับงานของนักข่าว การสำรวจผู้ทำงานด้านสื่อ 134 คนในสหรัฐอเมริกา สหราชอาณาจักร และเยอรมนี เผยให้เห็นว่า การตรวจสอบเนื้อหาที่สร้างโดย AI "บางครั้งใช้เวลานานกว่าการเขียนด้วยมือ" ผลลัพธ์ที่ดูเหมือนขัดแย้งนี้ซ่อนความจริงพื้นฐานไว้ นั่นคือ AI ไม่ได้มาแทนที่นักข่าว แต่ต้องการรูปแบบใหม่ของการกำกับดูแลด้านบรรณาธิการ

วิวัฒนาการของทักษะ: ประเพณีและนวัตกรรม

ทักษะดั้งเดิมไม่ได้หายไป แต่กำลังพัฒนาไปสู่รูปแบบที่ซับซ้อนยิ่งขึ้น ความสัมพันธ์กับแหล่งข่าว การตัดสินใจเชิงบรรณาธิการ และการให้บริบท ยังคงเป็นสิ่งที่ขาดไม่ได้ ดังที่ผู้จัดการห้องข่าวชาวอังกฤษคนหนึ่งเน้นย้ำว่า "ผมไม่อยากเป็นเหมือน BuzzFeed หรือ CNET ที่เผยแพร่ข่าวไร้สาระ เราต้องทำทุกอย่างให้ถูกต้อง"

การตั้งคำถามที่มีประสิทธิภาพกับ AI นั้นไม่ใช่แค่การขอข้อมูลธรรมดาๆ แต่ต้องอาศัยความเข้าใจในอคติของอัลกอริทึม ความสามารถในการจัดโครงสร้างคำขอที่ซับซ้อน และความสามารถในการปรับปรุงแก้ไขเพื่อให้ได้ผลลัพธ์ที่แม่นยำยิ่งขึ้น การสนทนาที่มีประสิทธิภาพกับ AI ต้อง: ให้บริบทโดยการให้ข้อมูลพื้นฐานที่จำเป็น ระบุรูปแบบที่ต้องการ กำหนดมาตรฐานทางจริยธรรมโดยการขอความโปร่งใสของแหล่งที่มา และปรับโทนเสียงให้เหมาะสมกับกลุ่มเป้าหมาย

การตรวจสอบยืนยันในฐานะพรมแดนใหม่

ในทางตรงกันข้าม ยุคของปัญญาประดิษฐ์ (AI) กลับทำให้การตรวจสอบข้อเท็จจริงมีความสำคัญยิ่งขึ้น นักข่าวต่างพัฒนาวิธีการใหม่ๆ สำหรับการตรวจสอบข้อเท็จจริงโดยใช้ AI ซึ่ง AI กลายเป็นทั้งเป้าหมายและเครื่องมือในการตรวจสอบ ความท้าทายจึงไม่ได้อยู่ที่การแยกแยะความจริงออกจากเรื่องแต่งอีกต่อไป แต่ยังรวมถึงการประเมินคุณภาพของบทสรุปอัตโนมัติ การระบุข้อผิดพลาดที่สำคัญ และการรับรู้เมื่อ AI นำอคติที่แฝงเร้นเข้ามาในเรื่องราวด้วย

การใช้ปัญญาประดิษฐ์อย่างมีความรับผิดชอบนั้น จำเป็นต้องมีการไตร่ตรองด้านจริยธรรมอย่างต่อเนื่อง ความโปร่งใสต่อสาธารณะเกี่ยวกับการใช้ปัญญาประดิษฐ์กลายเป็นรากฐานสำคัญของความน่าเชื่อถือทางด้านบรรณาธิการ ในสถานการณ์เช่นนี้ บุคคลรูปแบบใหม่จึงถือกำเนิดขึ้น นั่นคือ นักข่าวผู้ประสานงาน ที่สามารถกำกับการผสมผสานแหล่งข้อมูลทั้งจากมนุษย์และดิจิทัล เพื่อสร้างข้อมูลที่มีคุณภาพสูงสุด

กรณีศึกษา AdVon: วิวัฒนาการจากแหล่งรวบรวมคอนเทนต์สู่โซลูชันระดับองค์กร

เรื่องราวของ AdVon Commerce แสดงให้เห็นถึงวิวัฒนาการของเทคโนโลยีได้อย่างสมบูรณ์แบบ ตั้งแต่การปฏิบัติที่เป็นที่ถกเถียงไปจนถึงโซลูชันทางธุรกิจที่ถูกต้องตามกฎหมาย AdVon ซึ่งเป็นศูนย์กลางของเรื่องอื้อฉาว Sports Illustrated และ USA Today ได้เปลี่ยน "วารสารศาสตร์อัตโนมัติ" ให้กลายเป็นธุรกิจมูลค่าหลายพันล้านดอลลาร์ ตัวเลขนั้นน่าทึ่งมาก: บทความ 90,000 ชิ้นถูกตีพิมพ์ ผ่านระบบของบริษัทสำหรับสิ่งพิมพ์หลายร้อยฉบับ โดยใช้ผู้สื่อข่าวสมมติที่มีรูปโปรไฟล์ที่สร้างโดย AI

วิดีโอฝึกอบรมภายในที่ Futurism ได้มานั้น เผยให้เห็นความเป็นจริงในการปฏิบัติงาน: พนักงาน "สร้างบทความที่เขียนโดย AI และปรับปรุงแก้ไข" 12 วิธีที่นักข่าวใช้เครื่องมือ AI ในห้องข่าว - Twipe กลยุทธ์นั้นเรียบง่ายแต่ได้ผล: เริ่มต้นด้วยการใช้ผู้รับเหมาเขียนบทวิจารณ์ผลิตภัณฑ์ จากนั้นใช้เนื้อหานี้เพื่อฝึกฝนโมเดลภาษา และพัฒนาไปสู่ระบบอัตโนมัติ นี่เป็นตัวอย่างของการเปลี่ยนผ่านจากแรงงานมนุษย์ไปสู่ ​​"AI ที่แท้จริง" โดยมีคนงานฝึกฝนเครื่องจักรในกระบวนการทดแทนแบบค่อยเป็นค่อยไป

การเปลี่ยนแปลงเชิงบวก

ปัจจุบัน AdVon เป็นส่วนหนึ่งของ Flywheel Digital (ซึ่งถูก Omnicom ซื้อกิจการไปแล้ว) และเรียกตัวเองว่าเป็นผู้ให้บริการ "โซลูชัน SEO และเนื้อหาที่เน้นผู้ใช้เป็นศูนย์กลางโดยใช้ AI" สำหรับบริษัทใน Fortune 500 การเปลี่ยนแปลงจากการผลิตเนื้อหาเพื่อการตลาดแบบฉาวโฉ่สำหรับหนังสือพิมพ์ ไปสู่เครื่องมืออีคอมเมิร์ซระดับองค์กร แสดงให้เห็นถึงวิวัฒนาการทั่วไปของสตาร์ทอัพด้านเทคโนโลยี: เทคโนโลยีเดียวกัน ตลาดต่างกัน แนวคิดต่างกัน

กรณีของ AdVon ยังแสดงให้เห็นว่าเทคโนโลยีเดียวกันสามารถให้บริการทั้งตลาดที่ถูกต้องตามกฎหมาย (อีคอมเมิร์ซ) และการปฏิบัติที่เป็นปัญหา (ข่าวปลอม) ได้พร้อมกัน วิวัฒนาการของรูปแบบดังกล่าว—จากแหล่งผลิตเนื้อหาไปสู่ซอฟต์แวร์ระดับองค์กร—แสดงให้เห็นว่านวัตกรรมทางเทคโนโลยีสามารถนำไปสู่การใช้งานที่มีจริยธรรมมากขึ้นได้เมื่อเวลาผ่านไป

ปรากฏการณ์สุดประหลาดของ Google: เมื่อแผนกต่างๆ ภายในองค์กรไม่สื่อสารกัน

ตัวอย่างที่ชัดเจนที่สุดของความซับซ้อนของบริษัทเทคโนโลยีขนาดใหญ่ปรากฏขึ้นจากลำดับเหตุการณ์: เมื่อวันที่ 5 มีนาคม 2024 Google ประกาศมาตรการต่อต้าน "การละเมิดเนื้อหาในวงกว้าง" และเมื่อวันที่ 1 เมษายน 2024 Google Cloud ประกาศความร่วมมือกับ AdVon เพื่อเปิดตัว AdVonAI เมื่อ Futurism สอบถามเพื่อขอคำชี้แจง Google กลับตอบด้วยความเงียบสนิท

คำอธิบายที่น่าจะเป็นไปได้มากที่สุดอยู่ที่โครงสร้างองค์กร: Google Cloud ดำเนินงานในฐานะแผนกแยกต่างหากที่มีเป้าหมายทางธุรกิจของตนเอง และ AdVonAI ถูกวางตำแหน่งให้เป็นเครื่องมือ B2B สำหรับผู้ค้าปลีกเช่น Target และ Walmart ไม่ใช่สำหรับการสร้างเนื้อหาข่าวสารเชิงวิชาการ ดังที่ Karl Bode จาก Techdirt ตั้งข้อสังเกตว่า: "ผู้บริหารที่ไร้ความสามารถยังคงมอง AI ไม่ใช่ในฐานะวิธีการปรับปรุงงานข่าว แต่เป็นทางลัดในการสร้างเครื่องมือสร้างการมีส่วนร่วมกับการโฆษณาแบบอัตโนมัติ"

CNET: กายวิภาคของภัยพิบัติที่ถูกทำนายไว้ล่วงหน้า

CNET เป็นหนึ่งในตัวอย่างขนาดใหญ่แรกๆ ที่แสดงให้เห็นว่าไม่ควรนำ AI มาใช้ในงานวารสารศาสตร์อย่างไร และกลายเป็นกรณีศึกษาที่สมบูรณ์แบบเกี่ยวกับความเสี่ยงของ "การสร้างข่าวปลอม" เว็บไซต์เทคโนโลยีชื่อดังแห่งนี้ใช้ " เครื่องมือ AI ภายใน " ในการเขียนบทความ 77 เรื่องที่ตีพิมพ์ตั้งแต่เดือนพฤศจิกายน 2022 ซึ่งคิดเป็นประมาณ 1% ของเนื้อหาทั้งหมดที่ตีพิมพ์ในช่วงเวลานั้น

ผลลัพธ์ที่เลวร้าย

CNET ต้องแก้ไขข้อผิดพลาดในบทความที่สร้างโดย AI จำนวน 41 เรื่องจากทั้งหมด 77 เรื่อง ซึ่งคิดเป็นมากกว่าครึ่งหนึ่งของเนื้อหาอัตโนมัติทั้งหมด บทความหนึ่งเกี่ยวกับดอกเบี้ยทบต้นอ้างว่า การฝากเงิน 10,000 ดอลลาร์ที่อัตราดอกเบี้ย 3% ต่อปี จะให้ผลตอบแทน 10,300 ดอลลาร์ แทนที่จะเป็น 300 ดอลลาร์ ซึ่งเป็นข้อผิดพลาดถึง 3.333% ที่จะทำให้ใครก็ตามที่ทำตามคำแนะนำนี้ประสบกับความล้มเหลวทางการเงิน

การตรวจสอบในภายหลังยังพบหลักฐาน การลอกเลียนแบบโครงสร้างจากบทความที่ตีพิมพ์ไปแล้ว เจฟฟ์ ชัตเทน ศาสตราจารย์จากมหาวิทยาลัยวอชิงตันและลี หลังจากตรวจสอบตัวอย่างจำนวนมาก ได้อธิบายพฤติกรรมของบอทว่าเป็นการลอกเลียนแบบอย่างชัดเจน "หากนักศึกษาส่งบทความที่มีความคล้ายคลึงกับบทความที่มีอยู่แล้วโดยไม่ระบุแหล่งที่มาในจำนวนที่เทียบเท่ากัน บทความนั้นจะถูกส่งต่อไปยังคณะกรรมการจริยธรรมนักศึกษา และเนื่องจากพฤติกรรมดังกล่าวเกิดขึ้นซ้ำ ๆ จึงเกือบจะแน่นอนว่าจะส่งผลให้ถูกไล่ออกจากมหาวิทยาลัย"

ผลกระทบเชิงระบบ

กรณีของ CNET เผยให้เห็นว่าตรรกะของการสร้างคอนเทนต์จำนวนมากกำลังแทรกซึมเข้าไปในสำนักข่าวเก่าแก่ต่างๆ ตามรายงานของ The Verge กลยุทธ์หลักของ Red Ventures (เจ้าของ CNET) คือการเผยแพร่คอนเทนต์จำนวนมหาศาลที่ได้รับการออกแบบอย่างพิถีพิถันเพื่อให้ติดอันดับสูงใน Google และเต็มไปด้วยลิงก์พันธมิตรที่สร้างผลกำไร CNET ได้เปลี่ยนตัวเองให้กลายเป็น "เครื่องจักรทำเงิน SEO ที่ขับเคลื่อนด้วย AI"

บทเรียนสำคัญคือ ปัญญาประดิษฐ์มี " แนวโน้มที่เลื่องลือในการสร้างเนื้อหาที่มีอคติ เป็นอันตราย และไม่ถูกต้องตามข้อเท็จจริง " ซึ่งจำเป็นต้องมีการกำกับดูแลจากผู้เชี่ยวชาญ ไม่ใช่แค่การแก้ไขอย่างผิวเผิน

ยุคใหม่: ฟาร์มคอนเทนต์อัตโนมัติเต็มรูปแบบ 2.0

ในขณะเดียวกัน นวัตกรรมที่ซับซับซ้อนยิ่งกว่าเดิมอย่างฟาร์มเนื้อหาอัตโนมัติเต็มรูปแบบก็กำลังเกิดขึ้น NewsGuard ได้ระบุเว็บไซต์ที่ "ดำเนินการโดยมีการกำกับดูแลจากมนุษย์น้อยมากหรือไม่มีเลย และเผยแพร่บทความที่เขียนโดยบอทเป็นส่วนใหญ่หรือทั้งหมด" โดยมีชื่อทั่วไป เช่น iBusiness Day, Ireland Top News และ Daily Time Update

การระเบิดเชิงตัวเลข

ตัวเลขน่าตกใจมาก: จากเดือนเมษายน 2023 ที่ NewsGuard ระบุได้ 49 แห่ง จำนวนเว็บไซต์ก็พุ่งสูงขึ้นเป็นกว่า 1,000 แห่งภายในเดือนสิงหาคม 2024

เมื่อพิจารณาถึงการลดลงของสำนักข่าวท้องถิ่นที่น่าเชื่อถือทั่วโลกพร้อมๆ กัน โอกาสที่เว็บไซต์ข่าวที่อ้างว่ารายงานข่าวท้องถิ่นจะเป็นเว็บไซต์ปลอมจึงมีมากกว่า 50%

ตัวอย่างที่เป็นรูปธรรมของการเสื่อมถอย

OkayNWA (อาร์คันซอ): หนังสือพิมพ์ท้องถิ่นอัตโนมัติเต็มรูปแบบแห่งแรกที่มี "นักข่าว AI" ที่มีชื่อแปลกๆ เช่น "เบนจามิน บิสซิเนส" และ "แซมมี สตรีทส์" เว็บไซต์นี้ดึงข้อมูลเหตุการณ์ท้องถิ่นจากเว็บต่างๆ และเผยแพร่ซ้ำภายใต้ตัวตน AI ปลอม ซึ่งถือเป็นวิวัฒนาการขั้นสุดท้ายของโมเดล AdVon

เว็บไซต์ Celebritydeaths.com อ้างอย่างผิดๆ ว่าประธานาธิบดีไบเดนเสียชีวิตแล้ว และรองประธานาธิบดีแฮร์ริสได้ขึ้นดำรงตำแหน่ง แทน นักวิเคราะห์เตือนถึงการแพร่กระจายของเว็บไซต์ข่าวที่สร้างขึ้นโดย AI ซึ่งเป็นตัวอย่างว่าระบบอัตโนมัติที่ไม่ได้รับการตรวจสอบสามารถสร้างข้อมูลเท็จที่เป็นอันตรายได้อย่างไร

หนังสือพิมพ์ Apple Daily ของฮ่องกง : โดเมนของหนังสือพิมพ์ที่เคยสนับสนุนประชาธิปไตยถูกนักธุรกิจชาวเซอร์เบียเข้าครอบครองและเต็มไปด้วยเนื้อหาที่สร้างโดยปัญญาประดิษฐ์ (AI ) นักวิเคราะห์เตือนถึงการแพร่กระจายของเว็บไซต์ข่าวที่สร้างโดย AI หลังจากที่หนังสือพิมพ์ถูกบังคับให้ปิดตัวลงในปี 2021 ซึ่งเป็นกรณีการเข้าครอบครองทางดิจิทัลที่น่าฉวยเป็นพิเศษ

เศรษฐศาสตร์แห่งการทำลายล้างเชิงสร้างสรรค์

ผลกระทบที่ร้ายแรงต่อตลาดแบบดั้งเดิม

เว็บไซต์ที่สร้างโดย AI มักไม่มีระบบเก็บค่าสมัครสมาชิกและไม่ต้องเสียค่าใช้จ่ายในการจ้างนักข่าวจริง ทำให้สามารถดึงดูดรายได้จากการโฆษณาแบบอัตโนมัติได้ง่ายกว่า ระวัง: เว็บไซต์ "ข่าว" ที่สร้างโดย AI กำลังเฟื่องฟู - NewsGuard สิ่งนี้สร้างวงจรเลวร้าย: เมื่อเว็บไซต์เหล่านี้ดูดเอารายได้จากการโฆษณาไป องค์กรข่าวท้องถิ่นก็ยิ่งดิ้นรนเพื่อความอยู่รอด ส่งผลให้ต้องลดจำนวนพนักงานและทรัพยากรลงอีก

NewsGuard พบว่า Google อยู่เบื้องหลังโฆษณาถึง 90% บนเว็บไซต์เหล่านี้ นักวิเคราะห์เตือนถึงการแพร่กระจายของเว็บไซต์ข่าวที่สร้างโดย AI เมื่อ Voice of America สอบถามเพื่อขอคำชี้แจง Google กล่าวว่าไม่สามารถตรวจสอบได้เนื่องจาก NewsGuard ไม่เปิดเผยรายชื่อเว็บไซต์ (ซึ่งแน่นอนว่า Google จะไม่เปิดเผย เพราะเป็นทรัพย์สินทางการค้าหลักของพวกเขา)

ตัวเลขแห่งการเปลี่ยนแปลง

ข้อมูลทางเศรษฐกิจบ่งชี้ถึงการเปลี่ยนแปลงครั้งใหญ่:

  • ตลาดสื่อ AI ทั่วโลก: เติบโต 24.2% ต่อปี (เกือบห้าเท่าของอัตราการเติบโตทางเศรษฐกิจโดยเฉลี่ย)
  • การลงทุนในสตาร์ทอัพด้าน AI: 209 พันล้านดอลลาร์สหรัฐในปี 2024 (46.4% ของเงินทุนร่วมลงทุนทั้งหมด)
  • รายได้จากการโฆษณาในสื่อสิ่งพิมพ์ของอิตาลี: ลดลง 13.7% ในช่วงหลายเดือนแรกของปี 2024
  • ผลตอบแทนจากการลงทุน (ROI) ในการนำ AI มาใช้: สูงถึง 210% สำหรับนักลงทุนที่เลือกได้อย่างถูกต้อง

ผลกระทบต่อเงินเดือนก็รุนแรงไม่แพ้กัน ตำแหน่งงานที่ต้องใช้ทักษะ AI มีเงินเดือนสูงกว่าปกติถึง 25% ในสหรัฐอเมริกา ผู้จัดการเนื้อหา AI ที่ Amazon สามารถรับเงินเดือนได้ระหว่าง 62,000 ถึง 95,000 ดอลลาร์ ในขณะที่วิศวกรอาวุโสด้านการตอบสนองฉับไวได้รับเงินเดือน 335,000 ดอลลาร์ ในทางกลับกัน นักข่าว 58% กำลังฝึกฝน AI ด้วยตนเองโดยไม่ได้รับการสนับสนุนจากบริษัทใดๆ

ความแตกต่างที่ส่องสว่าง: การทดลองโปร่งใสของ Il Foglio

ในสภาพแวดล้อมที่เต็มไปด้วยการหลอกลวงอย่างเป็นระบบและการทำงานอัตโนมัติที่ซ่อนเร้น การทดลองของหนังสือพิมพ์ Il Foglio โดดเด่นในฐานะตัวอย่างของการเปิดเผยข้อมูลอย่างโปร่งใสอย่างแท้จริง หนังสือพิมพ์ฉบับนี้ได้ตีพิมพ์ฉบับพิเศษความยาวหนึ่งเดือนเต็ม ซึ่งเขียนขึ้นโดยปัญญาประดิษฐ์ (AI) ทั้งหมด ส่งผลให้ยอดขายในวันแรกเพิ่มขึ้น 60% และได้รับความสนใจจากสื่อต่างประเทศมากขึ้น

เคลาดีโอ เซราซา บรรณาธิการหนังสือพิมพ์ ยอมรับข้อจำกัดของมันอย่างเปิดเผยว่า "นี่เป็นหนึ่งในกรณีที่ AI ล้มเหลว" ในแง่ของความคิดริเริ่ม แต่เน้นย้ำถึงบทเรียนพื้นฐานว่า "สิ่งสำคัญคือการเข้าใจว่าอะไรที่สามารถทำได้มากขึ้น ไม่ใช่ทำน้อยลง"

ความสำเร็จของ Il Foglio ยิ่งมีความสำคัญมากขึ้นเมื่อเปรียบเทียบกับความเป็นจริงของเว็บไซต์ที่ผลิตคอนเทนต์ปลอม ในขณะที่ Cerasa ดำเนินการทดลองอย่างโปร่งใสและมีจริยธรรม โดยเปิดเผยทุกแง่มุมของการใช้ AI ให้ผู้อ่านทราบ แต่เว็บไซต์หลายพันแห่งทั่วโลกกลับซ่อนลักษณะการทำงานอัตโนมัติของตนไว้ภายใต้ตัวตนทางวารสารศาสตร์ปลอม

กรณีศึกษาของนวัตกรรมที่รับผิดชอบ: เมื่อปัญญาประดิษฐ์สามารถรับใช้สื่อสารมวลชนได้อย่างแท้จริง

นิวส์คอร์ป ออสเตรเลีย: โมเดลอุตสาหกรรมที่โปร่งใส

ปัจจุบัน News Corp Australia ผลิต บทความโดยใช้ AI มากถึง 3,000 บทความต่อสัปดาห์ผ่านโครงการ Data Local แต่มีความแตกต่างที่สำคัญอย่างหนึ่งคือ การกำกับดูแลด้านบรรณาธิการอย่างเป็นระบบและการเปิดเผยข้อมูลอย่างครบถ้วน แนวทางที่เป็นระบบและโปร่งใสนี้แสดงให้เห็นว่าสามารถนำระบบอัตโนมัติมาใช้ในวงกว้างได้โดยยังคงรักษามาตรฐานทางจริยธรรมไว้ได้

EXPRESS.de: ปัญญาประดิษฐ์เชิงร่วมมือ

กรณีของ EXPRESS.de ในเยอรมนีแสดงให้เห็นว่า AI สามารถเป็นพันธมิตรที่แท้จริงสำหรับนักข่าวได้อย่างไร ระบบ "Klara" ของพวกเขาช่วยสร้างบทความได้ถึง 11% และในช่วงฤดูกาลที่มีปริมาณงานสูง ก็มีส่วนแบ่งการเข้าชมโดยรวมถึง 8-12% ซึ่งส่วนใหญ่เป็นผลมาจากการสร้างพาดหัวข่าวที่มีประสิทธิภาพ

ผลกระทบนั้นวัดผลได้: ความร่วมมือระหว่างมนุษย์และ AI นี้ส่งผลให้จำนวนคลิกเข้าชมเพิ่มขึ้นอย่างมีนัยสำคัญถึง 50-80% เมื่อ AI คัดสรรบทความตามความสนใจของผู้ใช้ พนักงานทำหน้าที่กำกับดูแล ตรวจสอบแต่ละชิ้น ตรวจสอบแหล่งที่มา และรับรองความถูกต้องทางด้านวารสารศาสตร์

RCS MediaGroup: แนวทางเชิงกลยุทธ์ของอิตาลี

ฟาบิโอ นาโปลี ผู้อำนวยการฝ่ายดิจิทัลธุรกิจของ RCS กล่าวถึงแผนการขยายบริการที่ขับเคลื่อนด้วย AI ของบริษัท โดยการพัฒนาแอปพลิเคชันเฉพาะเรื่องใหม่ๆ และปรับปรุงแพลตฟอร์มที่มีอยู่แล้ว เช่น L'Economia เป้าหมายคือการใช้ AI และการวิเคราะห์ข้อมูลเพื่อนำเสนอเนื้อหาที่ปรับให้เหมาะสมกับแต่ละบุคคลมากขึ้น ทำให้ผู้อ่านมีส่วนร่วมอย่างลึกซึ้งยิ่งขึ้นและใช้เวลาบนแพลตฟอร์มของ RCS มากขึ้น

กรอบการกำกับดูแล: จากพื้นที่ป่าสู่การควบคุม

กฎหมายปัญญาประดิษฐ์ของสหภาพยุโรปและผลกระทบที่ตามมา

กฎหมาย AI ของสหภาพยุโรป ซึ่งมีผลบังคับใช้ในเดือนสิงหาคม 2024 ถือเป็นความพยายามอย่างเป็นระบบครั้งแรกในการควบคุม AI ในระดับทวีป กฎหมายฉบับนี้กำหนดให้ต้องติดฉลากสำหรับเนื้อหาที่สร้างโดย AI ซึ่งเป็นการวางรากฐานทางกฎหมายสำหรับการแยกแยะระหว่างเนื้อหาที่สร้างโดยมนุษย์และเนื้อหาที่สร้างโดยเครื่องจักร

กฎบัตรปารีสว่าด้วยปัญญาประดิษฐ์และวารสารศาสตร์

กฎบัตรปารีสว่าด้วยปัญญาประดิษฐ์และการสื่อสารมวลชน ซึ่งมีมาเรีย เรสซา ผู้ได้รับรางวัลโนเบลเป็นประธาน ได้กำหนดหลักการสำคัญ 10 ประการสำหรับปัญญาประดิษฐ์อย่างมีจริยธรรมในการสื่อสารมวลชน เอกสารดังกล่าวเน้นย้ำว่า "นวัตกรรมทางเทคโนโลยีไม่ได้นำไปสู่ความก้าวหน้าโดยเนื้อแท้เสมอไป: มันต้องได้รับการชี้นำโดยจริยธรรม"

หลักการสำคัญได้แก่ ความโปร่งใสในการใช้ AI การกำกับดูแลโดยมนุษย์อย่างเป็น100% สำหรับเนื้อหาที่ละเอียดอ่อน การปกป้องความหลากหลายของแหล่งข้อมูล และความรับผิดชอบด้านบรรณาธิการที่ชัดเจน องค์กรต่างๆ เช่น IFJ และ EFJ กำลังต่อสู้เพื่อให้มั่นใจว่ามีการชดเชยที่เป็นธรรมสำหรับเนื้อหาที่ใช้ในการฝึกอบรม AI และความโปร่งใสของอัลกอริทึม

สันหนังสือและการถกเถียงเรื่องการจัดพิมพ์อัตโนมัติ

หนึ่งในกรณีที่สร้างความแตกแยกในวงการสิ่งพิมพ์คือ Spines สตาร์ทอัพจากอิสราเอลที่ให้บริการด้านการจัดพิมพ์แบบอัตโนมัติ ช่วยลดระยะเวลาดำเนินการจาก 6-18 เดือนเหลือเพียง 3 สัปดาห์ โดยมีราคาตั้งแต่ 1,200 ถึง 5,000 ดอลลาร์สหรัฐ และช่วยให้ผู้เขียนยังคงเป็นเจ้าของลิขสิทธิ์ได้ 100%

แพลตฟอร์มนี้ใช้ AI ในการแก้ไข ตรวจทาน ออกแบบปก และจัดรูปแบบ ในขณะเดียวกันก็ยังคงมีผู้จัดการโครงการที่เป็นมนุษย์คอยดูแลหนังสือแต่ละเล่ม คำวิจารณ์มุ่งเน้นไปที่คุณภาพ โดยกล่าวว่า "AI ขึ้นชื่อเรื่องความไม่เก่งเรื่องการเขียน" ในขณะที่ผู้สนับสนุนเน้นย้ำถึงการทำให้บริการที่เคยมีราคาแพงเข้าถึงได้ง่ายขึ้นสำหรับทุกคน

บริษัทสตาร์ทอัพแห่งนี้ระดมทุนได้ 22.5 ล้านดอลลาร์จากนักลงทุนที่มีชื่อเสียง และซีอีโอ เยฮูดา นิฟ ก็มีประวัติการทำงานที่แข็งแกร่ง โมเดลธุรกิจนี้แสดงถึงการพัฒนาบริการที่มีอยู่ให้เป็นระบบอุตสาหกรรม ซึ่งอาจไม่ใช่ "การปฏิวัติ" อย่างแท้จริง แต่มีศักยภาพที่จะมีความสำคัญต่อการเข้าถึงการเผยแพร่ผลงานได้ง่ายขึ้น

สถานการณ์ในอนาคต: ยูโทเปีย, ดิสโทเปีย หรืออะไรบางอย่างที่อยู่ตรงกลาง?

โครงการ "ปัญญาประดิษฐ์ในอนาคตของวารสารศาสตร์"

สถานการณ์จำลองสำหรับปี 2025-2030 ที่ระบุไว้ในโครงการ "AI ในอนาคตของวารสารศาสตร์" นั้นมีความผันผวนระหว่างการเปลี่ยนแปลงอย่างสิ้นเชิงและการคงสภาพเดิม สถานการณ์จำลอง "เครื่องจักรอยู่ตรงกลาง" นั้นมองว่า AI จะทำหน้าที่เป็นห้องข่าว โดยประมวลผลและเผยแพร่ข้อมูลข่าวสารส่วนใหญ่

ผู้เชี่ยวชาญคาดการณ์ถึง "ยุคหลังลิงก์" ที่ผู้ใช้จะไม่เข้าชมเว็บไซต์ของผู้เผยแพร่ข่าวสารอีกต่อไป แต่จะเข้าถึงข่าวสารผ่านตัวแทน AI ที่สรุปเนื้อหาแทน สถานการณ์นี้จะนำไปสู่การรวมศูนย์การควบคุมข้อมูลในมือของบริษัทเทคโนโลยีขนาดใหญ่มากยิ่งขึ้น

รูปแบบองค์กรที่กำลังเกิดขึ้นใหม่

ห้องข่าวที่ประสบความสำเร็จกำลังนำรูปแบบ "สองระดับความเร็ว" มาใช้ ซึ่งช่วยให้สามารถทดลองสิ่งใหม่ๆ ได้ในขณะที่ยังคงรักษากระบวนการทำงานแบบดั้งเดิมไว้ โครงสร้างแบบ "รวมศูนย์" กำลังเกิดขึ้น โดยมีทีมงานอิสระที่ได้รับการสนับสนุนจากโครงสร้างพื้นฐาน AI แบบรวมศูนย์ สิ่งสำคัญคือการสร้างสมดุลระหว่างประสิทธิภาพทางเทคโนโลยีกับคุณค่าทางวารสารศาสตร์ ได้แก่ ความถูกต้อง ความเป็นธรรม ความรับผิดชอบ และการบริการสาธารณะ

ความยืดหยุ่นที่เหนือความคาดหมายของตลาด

อย่างไรก็ตาม ความจริงที่น่ายินดีอย่างหนึ่งปรากฏขึ้นจากความคิดเห็นของคณะบรรณาธิการ นั่นคือ ตลาดมีภูมิคุ้มกันตามธรรมชาติต่อการฉ้อโกง ดังที่ผู้คร่ำหวอดในวงการคนหนึ่งกล่าวไว้ว่า "การฉ้อโกงมีอยู่เสมอ แต่ผมไม่เคยเห็นการฉ้อโกงใดที่มีผลกระทบยาวนานเลย"

เหตุผลนั้นเรียบง่ายแต่ทรงพลัง: อัลกอริทึมการค้นหา (ซึ่งน่าขันคือ AI ที่แท้จริง) จะให้รางวัลแก่การมีส่วนร่วมและความพึงพอใจของผู้อ่าน แม้ว่าจะมีเนื้อหาคุณภาพต่ำจำนวนมากหลั่งไหลเข้ามาในตลาด แต่คุณภาพย่อมโดดเด่นเสมอ ผู้อ่านจะไม่ยอมอ่านเกินหน้าแรกหากเนื้อหานั้นมีคุณภาพต่ำ ไม่ว่าจะเป็นเนื้อหาที่ผลิตโดยมนุษย์หรือ AI ก็ตาม

บทสรุป: การปฏิวัติที่ต้องอาศัยวิวัฒนาการ

ปัญญาประดิษฐ์ไม่ใช่สิ่งที่จะเป็นอนาคตของวงการสื่อสารมวลชน แต่เป็นปัจจุบันที่เต็มไปด้วยความผันผวนและความขัดแย้ง การเปลี่ยนแปลงที่กำลังดำเนินอยู่นี้เผยให้เห็นความแตกแยกที่ลึกซึ้งกว่าที่คิดไว้ในตอนแรก มันไม่ใช่แค่การแทนที่นักข่าวด้วยเครื่องจักร แต่เป็นการต่อสู้ระหว่างระบบอัตโนมัติที่มีจริยธรรมกับ "ระบบอัตโนมัติปลอม" ที่มุ่งหวังผลประโยชน์

ความแตกต่างระหว่าง Il Foglio กับเว็บไซต์ผลิตเนื้อหาอัตโนมัติจำนวนนับพันแห่งนั้นเป็นสิ่งที่เห็นได้ชัดเจน ในด้านหนึ่ง Il Foglio คือการทดลองที่โปร่งใสซึ่งประกาศอย่างเปิดเผยถึงการใช้ AI ลงทุนในการกำกับดูแลโดยมนุษย์ และใช้เทคโนโลยีเพื่อสำรวจอนาคตของวิชาชีพ ในอีกด้านหนึ่ง Il Foglio คือระบบอุตสาหกรรมแห่งการหลอกลวงที่ปนเปื้อนระบบนิเวศข้อมูลด้วยเนื้อหาคุณภาพต่ำที่ปลอมตัวเป็นวารสารศาสตร์ที่แท้จริง

การสร้างความไว้วางใจโดยอัตโนมัติ

ความสำเร็จในยุคการเผยแพร่ด้วย AI นั้นต้องอาศัยองค์ประกอบพื้นฐาน 5 ประการ:

  1. การลงทุนอย่างจริงจังในการฝึกอบรม ไม่ใช่การเรียนรู้ด้วยตนเองแบบไร้แบบแผน ซึ่งเป็นลักษณะเฉพาะของ 58% ในภาคส่วนนี้
  2. การกำกับดูแลด้านจริยธรรมอย่างเข้มงวด – ไม่ใช่แนวทาง "ทำเร็วและทำลายทุกอย่าง" แบบที่ใช้กันในวงการผลิตคอนเทนต์จำนวนมาก
  3. ความโปร่งใสของกระบวนการอย่างสมบูรณ์ – ไม่มีการปกปิดระบบอัตโนมัติด้วยตัวตนปลอม
  4. เข้าใจว่า AI ช่วยเสริม ทั้งความเป็นเลิศและความธรรมดา
  5. ความเชื่อมั่นในความสามารถของตลาด ในการแยกแยะคุณค่าที่แท้จริงออกจากสิ่งรบกวน

ห้องข่าวที่ประสบความสำเร็จคือห้องข่าวที่ใช้ AI เพื่อปลดปล่อยนักข่าวจากงานซ้ำซากจำเจ และท้าทายให้พวกเขามุ่งเน้นไปที่สิ่งที่เครื่องจักรทำไม่ได้ เช่น การสร้างความสัมพันธ์ที่น่าเชื่อถือ การอธิบายความซับซ้อน และการเล่าเรื่องราวที่เข้าถึงจิตใจมนุษย์ เช่นเดียวกับ Il Foglio

ปริศนาสุดท้าย

ความขัดแย้งนี้ทั้งร้ายแรงและปลดปล่อยในเวลาเดียวกัน: ในยุคแห่งระบบอัตโนมัติขั้นสูงสุด ความซื่อสัตย์กลับกลายเป็นสิ่งปฏิวัติ การรู้ว่าจะขออะไรจากเครื่องจักรไม่ใช่แค่ทักษะทางเทคนิคเท่านั้น แต่มันคือการกระทำเพื่อต่อต้านระบบนิเวศที่ให้รางวัลแก่การหลอกลวงอย่างเป็นระบบ

แต่ดังที่ภูมิปัญญาของวงการสิ่งพิมพ์และความยืดหยุ่นของตลาดแสดงให้เห็น ผู้อ่านรู้วิธีแยกแยะความแตกต่าง ห้องข่าวของอิตาลีต้องเผชิญกับทางเลือกที่นอกเหนือไปจากเทคโนโลยี พวกเขาสามารถเข้าร่วมการแข่งขันที่มุ่งสู่จุดต่ำสุดของการผลิตเนื้อหาอัตโนมัติ หรือพวกเขาสามารถทำตามตัวอย่างของ Il Foglio และใช้ความโปร่งใสเป็นอาวุธในการแข่งขันได้

ในยุคแห่ง "การทำงานอัตโนมัติเทียม" นี้ การรายงานข่าวที่แท้จริงจึงกลายเป็นรูปแบบการทำงานอัตโนมัติขั้นสูงสุดที่ไม่มีเครื่องจักรใดเลียนแบบได้ นั่นคือ การทำงานอัตโนมัติของความไว้วางใจ และความไว้วางใจนั้น ดังที่นักข่าวที่ดีทุกคนรู้มาโดยตลอด ต้องสร้างขึ้นทีละเรื่อง ทีละผู้อ่าน ทีละความจริง

ความแตกต่างระหว่างการอยู่รอดและความเจริญรุ่งเรืองไม่ได้อยู่ที่การนำ AI มาใช้ แต่คือความสามารถในการรักษาความซื่อสัตย์สุจริต ในขณะที่คนรอบข้างต่างแสร้งทำเป็นว่าระบบอัตโนมัติของตนนั้นล้ำหน้ากว่าที่เป็นจริง อนาคตเป็นของคนที่สามารถเปลี่ยนเทคโนโลยีให้เป็นเครื่องมือแห่งความจริง ไม่ใช่เครื่องมือแห่งการหลอกลวง

ที่มา:

ข้อมูลการวิจัยและข้อมูลตลาด:

กรณีศึกษาและเรื่องอื้อฉาว:

ฟาร์มคอนเทนต์และระบบอัตโนมัติ:

ความร่วมมือและโครงการริเริ่มระดับโลก:

ทรัพยากรเพื่อการเติบโตทางธุรกิจ

9 พฤศจิกายน 2568

มนุษย์ + เครื่องจักร: สร้างทีมที่ประสบความสำเร็จด้วยเวิร์กโฟลว์ที่ขับเคลื่อนด้วย AI

จะเป็นอย่างไรหากอนาคตของการทำงานไม่ใช่ "มนุษย์ปะทะเครื่องจักร" แต่เป็นความร่วมมือเชิงกลยุทธ์ องค์กรที่ประสบความสำเร็จไม่ได้เลือกระหว่างบุคลากรที่มีความสามารถกับปัญญาประดิษฐ์ แต่พวกเขากำลังสร้างระบบนิเวศที่แต่ละฝ่ายส่งเสริมซึ่งกันและกัน ค้นพบโมเดลการทำงานร่วมกัน 5 แบบที่ได้เปลี่ยนแปลงบริษัทหลายร้อยแห่ง ตั้งแต่การคัดกรองไปจนถึงการโค้ช จากการสำรวจและยืนยันตัวตนไปจนถึงการฝึกงาน ประกอบไปด้วยแผนงานเชิงปฏิบัติ กลยุทธ์ในการเอาชนะอุปสรรคทางวัฒนธรรม และตัวชี้วัดที่เป็นรูปธรรมสำหรับการวัดความสำเร็จของทีมมนุษย์และเครื่องจักร
9 พฤศจิกายน 2568

ภาพลวงตาของการใช้เหตุผล: การถกเถียงที่สั่นคลอนโลก AI

Apple ตีพิมพ์บทความสองฉบับที่สร้างความเสียหายอย่างร้ายแรง ได้แก่ "GSM-Symbolic" (ตุลาคม 2024) และ "The Illusion of Thinking" (มิถุนายน 2025) ซึ่งแสดงให้เห็นว่าหลักสูตร LLM ล้มเหลวในการแก้ปัญหาคลาสสิกแบบเล็กๆ น้อยๆ (เช่น Tower of Hanoi, การข้ามแม่น้ำ) อย่างไร โดยระบุว่า "ประสิทธิภาพลดลงเมื่อเปลี่ยนแปลงเฉพาะค่าตัวเลข" ไม่มีความสำเร็จใดๆ เลยใน Tower of Hanoi ที่ซับซ้อน แต่ Alex Lawsen (Open Philanthropy) โต้แย้งด้วยบทความ "The Illusion of the Illusion of Thinking" ซึ่งแสดงให้เห็นถึงระเบียบวิธีที่มีข้อบกพร่อง ความล้มเหลวเกิดจากข้อจำกัดของผลลัพธ์โทเค็น ไม่ใช่การล่มสลายของเหตุผล สคริปต์อัตโนมัติจัดประเภทผลลัพธ์บางส่วนที่ถูกต้องไม่ถูกต้อง และปริศนาบางอย่างไม่สามารถแก้ทางคณิตศาสตร์ได้ ด้วยการทดสอบซ้ำด้วยฟังก์ชันแบบเรียกซ้ำแทนที่จะแสดงรายการการเคลื่อนที่ Claude/Gemini/GPT จึงสามารถไข Tower of Hanoi ที่มี 15 แผ่นได้ แกรี่ มาร์คัส เห็นด้วยกับแนวคิด "การเปลี่ยนแปลงการกระจายสินค้า" ของ Apple แต่บทความเกี่ยวกับจังหวะเวลาก่อนงาน WWDC กลับตั้งคำถามเชิงกลยุทธ์ ผลกระทบทางธุรกิจ: เราควรไว้วางใจ AI ในงานสำคัญๆ มากน้อยเพียงใด วิธีแก้ปัญหา: แนวทางเชิงสัญลักษณ์ประสาทวิทยา — เครือข่ายประสาทเทียมสำหรับการจดจำรูปแบบ + ภาษา ระบบสัญลักษณ์สำหรับตรรกะเชิงรูปนัย ตัวอย่าง: ระบบบัญชี AI เข้าใจว่า "ฉันใช้จ่ายไปกับการเดินทางเท่าไหร่" แต่ SQL/การคำนวณ/การตรวจสอบภาษี = โค้ดแบบกำหนดตายตัว
9 พฤศจิกายน 2568

🤖 Tech Talk: เมื่อ AI พัฒนาภาษาที่เป็นความลับ

แม้ว่า 61% ของผู้คนจะกังวลกับ AI ที่เข้าใจอยู่แล้ว แต่ในเดือนกุมภาพันธ์ 2025 Gibberlink มียอดวิว 15 ล้านครั้ง ด้วยการนำเสนอสิ่งใหม่สุดขั้ว นั่นคือ AI สองระบบที่หยุดพูดภาษาอังกฤษและสื่อสารกันด้วยเสียงแหลมสูงที่ความถี่ 1875-4500 เฮิรตซ์ ซึ่งมนุษย์ไม่สามารถเข้าใจได้ นี่ไม่ใช่นิยายวิทยาศาสตร์ แต่เป็นโปรโตคอล FSK ที่เพิ่มประสิทธิภาพได้ถึง 80% ทำลายมาตรา 13 ของพระราชบัญญัติ AI ของสหภาพยุโรป และสร้างความทึบแสงสองชั้น นั่นคืออัลกอริทึมที่เข้าใจยากซึ่งประสานงานกันในภาษาที่ถอดรหัสไม่ได้ วิทยาศาสตร์แสดงให้เห็นว่าเราสามารถเรียนรู้โปรโตคอลของเครื่องจักรได้ (เช่น รหัสมอร์สที่ความเร็ว 20-40 คำต่อนาที) แต่เราต้องเผชิญกับขีดจำกัดทางชีววิทยาที่ยากจะเอาชนะ: 126 บิต/วินาทีสำหรับมนุษย์ เทียบกับ Mbps+ สำหรับเครื่องจักร สามอาชีพใหม่กำลังเกิดขึ้น ได้แก่ นักวิเคราะห์โปรโตคอล AI, ผู้ตรวจสอบการสื่อสาร AI และนักออกแบบส่วนต่อประสานระหว่างมนุษย์กับ AI ขณะที่ IBM, Google และ Anthropic กำลังพัฒนามาตรฐาน (ACP, A2A, MCP) เพื่อหลีกเลี่ยงปัญหาที่ยากที่สุด การตัดสินใจเกี่ยวกับโปรโตคอลการสื่อสารของ AI ในปัจจุบันจะกำหนดทิศทางของปัญญาประดิษฐ์ในอีกหลายทศวรรษข้างหน้า