การเปลี่ยนแปลงครั้งใหญ่: OpenAI ยอมรับว่าได้รายงานต่อหน่วยงานที่เกี่ยวข้องแล้ว
ในเดือนกันยายนปี 2025 OpenAI ได้เปิดเผยข้อมูลที่สร้างความตกตะลึงให้กับวงการเทคโนโลยีทั่วโลก นั่น คือ ChatGPT คอยตรวจสอบการสนทนาของผู้ใช้และรายงานเนื้อหาที่อาจเป็นอาชญากรรมต่อหน่วยงานบังคับใช้กฎหมาย
ข่าวนี้ซึ่งปรากฏขึ้นโดยบังเอิญในบทความบล็อกของบริษัท เปิดเผยว่า เมื่อระบบอัตโนมัติตรวจพบว่าผู้ใช้ "วางแผนที่จะทำร้ายผู้อื่น" บทสนทนาเหล่านั้นจะถูกส่งต่อไปยังช่องทางพิเศษที่ทีมงานขนาดเล็กซึ่งได้รับการฝึกอบรมเกี่ยวกับนโยบายการใช้งานจะตรวจสอบ หากผู้ตรวจสอบที่เป็นมนุษย์พิจารณาแล้วว่ามี "ภัยคุกคามที่ใกล้จะเกิดขึ้นของการทำร้ายร่างกายผู้อื่นอย่างร้ายแรง" กรณีดังกล่าวสามารถรายงานไปยังหน่วยงานบังคับใช้กฎหมายได้¹
ChatGPT ขอเรียนเชิญท่านมาแบ่งปันความคิดที่ลึกซึ้งที่สุดของท่าน ไม่ต้องกังวลไป ทุกอย่างจะถูกเก็บเป็นความลับ...ไม่มากก็น้อย
ที่มา:
ความแตกต่างกับวิชาชีพที่ "ได้รับการคุ้มครอง"
สิทธิพิเศษในการรักษาความลับทางวิชาชีพ
เมื่อเราพูดคุยกับนักจิตวิทยา ทนายความ แพทย์ หรือบาทหลวง คำพูดของเราจะได้รับการคุ้มครองโดยกลไกทางกฎหมายที่ได้รับการยอมรับอย่างกว้างขวาง นั่นคือ ความลับทางวิชาชีพ หลักการนี้ซึ่งมีรากฐานมาจากประเพณีทางกฎหมายหลายศตวรรษ กำหนดว่าการสนทนาบางอย่างเป็นสิ่งที่ไม่สามารถละเมิดได้ แม้ในกรณีที่มีการสอบสวนทางอาญา
ลักษณะของการรักษาความลับทางวิชาชีพแบบดั้งเดิม:
- การคุ้มครองอย่างครอบคลุมมาก : การสื่อสารจะยังคงเป็นความลับแม้ในกรณีที่สารภาพความผิด
- ข้อยกเว้นที่จำกัดและเฉพาะเจาะจง : เฉพาะในกรณีสุดขั้วที่กฎหมายกำหนดเท่านั้นที่ผู้เชี่ยวชาญบางคนสามารถ/จำเป็นต้องเปิดเผยข้อมูลได้
- การควบคุมโดยมนุษย์ผู้มีคุณสมบัติเหมาะสม : การตัดสินใจเกี่ยวกับการเปิดเผยข้อมูลที่เป็นความลับนั้น ยังคงอยู่ในมือของผู้เชี่ยวชาญที่ได้รับการฝึกอบรมมาเป็นอย่างดีเสมอ
- ความรับผิดชอบทางจริยธรรม : ผู้ประกอบวิชาชีพต้องปฏิบัติตามจรรยาบรรณวิชาชีพที่สร้างสมดุลระหว่างหน้าที่ต่อลูกค้าและสังคม
ขีดจำกัดที่แท้จริงของการรักษาความลับทางวิชาชีพ
ตรงกันข้ามกับความเข้าใจทั่วไป ความลับทางวิชาชีพไม่ได้เป็นสิ่งที่เด็ดขาดเสมอไป มีข้อยกเว้นที่ชัดเจนซึ่งแตกต่างกันไปตามประเภทของวิชาชีพ:
สำหรับทนายความ (มาตรา 28 แห่งประมวลจริยธรรมทางนิติเวช): การเปิดเผยข้อมูลได้รับอนุญาตเมื่อจำเป็นสำหรับ:
- ดำเนินการกิจกรรมป้องกันประเทศ
- ป้องกันการกระทำความผิดร้ายแรงเป็นพิเศษ
- การปกป้องตนเองในข้อพิพาทกับลูกค้าของคุณ
- กระบวนการทางวินัย
ตัวอย่างที่สำคัญ : หากลูกความแจ้งต่อทนายความว่าตนตั้งใจจะฆ่าคน ระหว่างการคุ้มครองสิทธิในการป้องกันตนเองและการคุ้มครองคุณภาพชีวิต คุณภาพชีวิตต้องมาก่อน และทนายความจะพ้นจากข้อผูกมัดเรื่องการรักษาความลับ²
สำหรับนักจิตวิทยา (มาตรา 13 แห่งจรรยาบรรณวิชาชีพ): การรักษาความลับอาจถูกละเมิดได้ในกรณีต่อไปนี้:
- มีหน้าที่ต้องรายงานหรือยื่นเรื่องร้องเรียนเกี่ยวกับอาชญากรรมที่สามารถดำเนินคดีได้โดยอัตโนมัติ
- มีความเสี่ยงร้ายแรงต่อชีวิต สุขภาพกาย และสุขภาพจิตของบุคคลนั้นและ/หรือบุคคลที่สาม
- มีการให้ความยินยอมจากผู้ป่วยอย่างถูกต้องและสามารถพิสูจน์ได้
ข้อแตกต่างที่สำคัญ : นักจิตวิทยาเอกชนมีดุลยพินิจมากกว่านักจิตวิทยาของรัฐ ซึ่งในฐานะเจ้าหน้าที่ของรัฐ มีหน้าที่ต้องรายงานข้อมูลที่เข้มงวดกว่า³
ที่มา:
AI ในฐานะ "ผู้ที่ไม่ใช่มืออาชีพ"
ChatGPT ดำเนินงานอยู่ในพื้นที่สีเทาที่แตกต่างออกไปอย่างสิ้นเชิง:
ขาดการคุ้มครองทางกฎหมาย : การสนทนากับ AI ไม่ได้รับการคุ้มครองทางกฎหมายใดๆ ทั้งสิ้น ดังที่ Sam Altman ซีอีโอของ OpenAI ยอมรับว่า "หากคุณพูดคุยกับนักบำบัด นักกฎหมาย หรือแพทย์เกี่ยวกับประเด็นเหล่านั้น คุณจะได้รับการคุ้มครองทางกฎหมาย มีความลับระหว่างแพทย์กับผู้ป่วย มีการคุ้มครองทางกฎหมาย อะไรก็ตาม และเรายังไม่สามารถแก้ไขปัญหานี้ได้สำหรับการสนทนากับ ChatGPT" ²
กระบวนการอัตโนมัติ : ต่างจากการที่ผู้เชี่ยวชาญประเมินเป็นรายกรณี ChatGPT ใช้อัลกอริธึมในการระบุเนื้อหาที่ "มีปัญหา" โดยตัดขั้นตอนการคัดกรองเบื้องต้นที่ต้องอาศัยการตัดสินใจของมนุษย์ออกไป
ที่มา:
ผลกระทบในทางปฏิบัติ: รูปแบบใหม่ของการเฝ้าระวัง
ความขัดแย้งของความไว้วางใจทางเทคโนโลยี
สถานการณ์นี้ก่อให้เกิดความขัดแย้งที่น่ากังวลใจ ผู้คนหลายล้านคนใช้ ChatGPT เป็นที่ปรึกษาทางดิจิทัล แบ่งปันความคิดส่วนตัว ความสงสัย ความกลัว และแม้แต่จินตนาการเกี่ยวกับการก่ออาชญากรรมที่พวกเขาจะไม่มีวันแบ่งปันกับมนุษย์ ดังที่แซม อัลท์แมน รายงานว่า "ผู้คนพูดคุยเกี่ยวกับเรื่องส่วนตัวที่สุดในชีวิตของพวกเขาบน ChatGPT ผู้คนใช้มัน โดยเฉพาะคนหนุ่มสาว ในฐานะนักบำบัด หรือโค้ชชีวิต" ⁴
ความเสี่ยงของการเซ็นเซอร์ตัวเองในทางอาชญากรรม : การตระหนักว่าการสนทนาสามารถถูกดักฟังได้ อาจส่งผลในทางตรงกันข้ามดังนี้:
- ผลักดันอาชญากรให้เข้าไปอยู่ในช่องทางที่ซ่อนเร้นมากขึ้น
- การขัดขวางไม่ให้ผู้ที่มีความคิดรุนแรงขอความช่วยเหลือ
- สร้าง "ผลกระทบในเชิงลดความร้อนแรง" ต่อการสื่อสารดิจิทัล
ความเชี่ยวชาญกับอัลกอริทึม: ใครเป็นผู้ตัดสินว่าอะไรคืออาชญากรรม?
ประเด็นสำคัญที่นักวิจารณ์เน้นย้ำคือ ความสามารถของผู้ที่ทำการตัดสินใจขั้นสุดท้าย
ผู้เชี่ยวชาญด้านมนุษย์มีคุณสมบัติดังนี้:
- ผ่านการฝึกฝนมาหลายปีเพื่อแยกแยะระหว่างจินตนาการและเจตนาที่แท้จริง
- หลักจรรยาบรรณที่กำหนดว่าเมื่อใดควรเปิดเผยความลับ
- ความรับผิดชอบทางกฎหมายส่วนบุคคลต่อการตัดสินใจของพวกเขา
- ความสามารถในการประเมินบริบทและความน่าเชื่อถือ
ระบบ ChatGPT สามารถใช้งานร่วมกับ:
- อัลกอริทึมอัตโนมัติสำหรับการตรวจจับเบื้องต้น
- พนักงานของ OpenAI ที่ไม่จำเป็นต้องมีพื้นฐานการฝึกอบรมด้านคลินิกหรืออาชญาวิทยา
- เกณฑ์การประเมินที่ไม่เปิดเผยต่อสาธารณะและอาจเป็นเกณฑ์ที่กำหนดขึ้นโดยพลการ
- ขาดกลไกควบคุมจากภายนอก
ตัวอย่างปัญหา : อัลกอริทึมสามารถแยกแยะความแตกต่างระหว่าง:
- บุคคลที่เขียนนิยายระทึกขวัญและแสวงหาแรงบันดาลใจสำหรับฉากรุนแรง
- คนที่จินตนาการโดยไม่ตั้งใจที่จะลงมือทำ
- บุคคลที่วางแผนก่ออาชญากรรมจริง ๆ
ที่มา:
ที่มา:
ความขัดแย้งของ OpenAI: ความเป็นส่วนตัวกับความปลอดภัย
มาตรฐานสองด้าน
การยอมรับของ OpenAI ในครั้งนี้สร้างความขัดแย้งอย่างชัดเจนกับจุดยืนก่อนหน้านี้ของบริษัท บริษัทได้ปฏิเสธคำขอข้อมูลผู้ใช้ในคดีความอย่างแข็งขัน โดยอ้างถึงข้อกังวลด้านความเป็นส่วนตัว ในคดีฟ้องร้องหนังสือพิมพ์นิวยอร์กไทมส์ OpenAI ได้โต้แย้งอย่างหนักแน่นไม่ให้เปิดเผยบันทึกการสนทนาเพื่อปกป้องความเป็นส่วนตัวของผู้ใช้⁴
เรื่องน่าขันคือ OpenAI ปกป้องความเป็นส่วนตัวของผู้ใช้ในศาล ในขณะเดียวกันก็ยอมรับว่าได้สอดส่องและแบ่งปันข้อมูลกับหน่วยงานภายนอก
ผลกระทบจากคดีของหนังสือพิมพ์นิวยอร์กไทมส์
สถานการณ์ยิ่งซับซ้อนขึ้นไปอีกเมื่อศาลมีคำสั่งให้ OpenAI เก็บรักษาบันทึก ChatGPT ทั้งหมด ไว้ตลอดไป รวมถึงแชทส่วนตัวและข้อมูล API ซึ่งหมายความว่าบทสนทนาที่ผู้ใช้คิดว่าเป็นเพียงชั่วคราว ตอนนี้กลับถูกเก็บถาวรไว้อย่างถาวรแล้ว⁵
ที่มา:
แนวทางแก้ไขและทางเลือกที่เป็นไปได้
มุ่งสู่ "สิทธิพิเศษของ AI"?
ดังที่แซม อัลท์แมนเสนอแนะ อาจจำเป็นต้องพัฒนาแนวคิดเรื่อง "สิทธิพิเศษของ AI" ซึ่งเป็นการคุ้มครองทางกฎหมายที่คล้ายคลึงกับที่มอบให้กับผู้ประกอบวิชาชีพแบบดั้งเดิม อย่างไรก็ตาม เรื่องนี้ก่อให้เกิดคำถามที่ซับซ้อนหลายประการ:
ตัวเลือกด้านกฎระเบียบที่เป็นไปได้:
- รูปแบบการอนุญาตใช้งาน : เฉพาะ AI ที่ได้รับการรับรองเท่านั้นที่จะสามารถมอบ "สิทธิพิเศษในการสนทนา" ได้
- การฝึกอบรมภาคบังคับ : ผู้ใดก็ตามที่จัดการกับข้อมูลที่มีความละเอียดอ่อนจะต้องมีคุณสมบัติเฉพาะ
- การกำกับดูแลโดยผู้เชี่ยวชาญ : การมีส่วนร่วมของนักจิตวิทยา/ทนายความผู้ทรงคุณวุฒิในการตัดสินใจรายงาน
- ความโปร่งใสของอัลกอริทึม : การเผยแพร่เกณฑ์ที่ใช้ในการระบุเนื้อหาที่ "อันตราย"
โซลูชันทางเทคนิคระดับกลาง
IA แบบ "แบ่งส่วน":
- ระบบแยกต่างหากสำหรับการใช้งานเพื่อการรักษาและการใช้งานทั่วไป
- การเข้ารหัสแบบ end-to-end สำหรับการสนทนาที่ละเอียดอ่อน
- การยินยอมโดยชัดแจ้งสำหรับการตรวจสอบทุกประเภท
แนวทาง "สามฝ่าย":
- การตรวจจับอัตโนมัติจะเกิดขึ้นเฉพาะกับภัยคุกคามที่เกิดขึ้นทันทีและตรวจสอบได้เท่านั้น
- การตรวจสอบโดยมนุษย์ผู้ทรงคุณวุฒิเป็นสิ่งจำเป็น
- กระบวนการอุทธรณ์สำหรับคำตัดสินที่มีข้อโต้แย้ง
แบบอย่างของผู้เชี่ยวชาญด้านดิจิทัล
บทเรียนจากภาคส่วนอื่นๆ:
- การแพทย์ทางไกล : พัฒนาโปรโตคอลเพื่อความเป็นส่วนตัวทางดิจิทัล
- บริการให้คำปรึกษาทางกฎหมายออนไลน์ : ควรใช้การเข้ารหัสและการตรวจสอบตัวตน
- การบำบัดด้วยระบบดิจิทัล : แอปพลิเคชันเฉพาะทางที่มีระบบป้องกันพิเศษ
ที่มา:
ปัญญาประดิษฐ์ (AI) มีความหมายอย่างไรต่อธุรกิจ
บทเรียนสำหรับภาคส่วนนี้
กรณีของ OpenAI สร้างบรรทัดฐานที่สำคัญสำหรับอุตสาหกรรมปัญญาประดิษฐ์ทั้งหมด:
- การเปิดเผยข้อมูลอย่างโปร่งใสเป็นสิ่งจำเป็น : บริษัท AI จะต้องเปิดเผยข้อมูลเกี่ยวกับการติดตามข้อมูลของตนให้ชัดเจนยิ่งขึ้น
- ความจำเป็นในการกำหนดกรอบจริยธรรม : จำเป็นต้องมีกฎระเบียบที่ชัดเจนว่าปัญญาประดิษฐ์ (AI) สามารถแทรกแซงการสื่อสารส่วนตัวได้เมื่อใดและอย่างไร
- การฝึกอบรมเฉพาะทาง : ผู้ที่ตัดสินใจเกี่ยวกับเนื้อหาที่ละเอียดอ่อนจะต้องมีทักษะที่เหมาะสม
- ความรับผิดทางกฎหมาย : การกำหนดผู้รับผิดชอบเมื่อระบบ AI ประเมินผิดพลาด
คำแนะนำในการปฏิบัติงาน
สำหรับบริษัทที่พัฒนา AI สำหรับการสนทนา:
- จัดตั้งทีมสหวิชาชีพ (ด้านกฎหมาย นักจิตวิทยา นักอาชญาวิทยา)
- พัฒนากฎเกณฑ์การรายงานที่เปิดเผยและตรวจสอบได้
- สร้างกระบวนการอุทธรณ์สำหรับผู้ใช้งาน
- ลงทุนในการฝึกอบรมเฉพาะทางสำหรับเจ้าหน้าที่ตรวจสอบบัญชี
สำหรับบริษัทที่ใช้ AI:
- ประเมินความเสี่ยงด้านความเป็นส่วนตัวก่อนนำไปใช้งาน
- แจ้งให้ผู้ใช้ทราบอย่างชัดเจนเกี่ยวกับขอบเขตของการรักษาความลับ
- พิจารณาทางเลือกเฉพาะสำหรับงานที่ต้องการความละเอียดอ่อน
อนาคตของความเป็นส่วนตัวทางดิจิทัล
ประเด็นสำคัญที่ต้องพิจารณา คือ: จะสร้างสมดุลระหว่างการป้องกันอาชญากรรมที่แท้จริงกับสิทธิในความเป็นส่วนตัวและความลับทางดิจิทัลได้อย่างไร?
ประเด็นนี้ไม่ได้เป็นเพียงเรื่องทางเทคนิค แต่ยังเกี่ยวข้องกับหลักการพื้นฐานด้วย:
- หลักการสันนิษฐานว่าบริสุทธิ์จนกว่าจะพิสูจน์ได้ว่าผิด : การดักฟังบทสนทนาส่วนตัวบ่งชี้ถึงความสงสัยในวงกว้าง
- สิทธิในความเป็นส่วนตัว : รวมถึงสิทธิในการมีความคิดส่วนตัว แม้กระทั่งความคิดที่ก่อให้เกิดความไม่สบายใจ
- ประสิทธิภาพในการป้องกัน : ไม่มีหลักฐานใดที่แสดงว่าการเฝ้าระวังทางดิจิทัลสามารถป้องกันอาชญากรรมได้จริง
สรุป: การหาจุดสมดุลที่เหมาะสม
การเปิดเผยของ OpenAI ถือเป็นจุดเปลี่ยนสำคัญในวิวัฒนาการของปัญญาประดิษฐ์ แต่คำถามไม่ได้อยู่ที่ว่าการรายงานนั้นถูกหรือผิดโดยทั่วไป แต่เป็นวิธีการทำให้การรายงานมีประสิทธิภาพ เป็นธรรม และเคารพสิทธิ
ความจำเป็นนั้นมีอยู่จริง : การคุกคามด้วยความรุนแรง การวางแผนโจมตี หรืออาชญากรรมร้ายแรงอื่น ๆ จำเป็นต้องมีการดำเนินการ ประเด็นไม่ได้ อยู่ที่ว่า จะรายงานหรือไม่ แต่ อยู่ที่ว่า จะรายงานอย่างมีความรับผิดชอบได้อย่างไร
ความแตกต่างพื้นฐานที่ต้องแก้ไข:
การฝึกอบรมและความเชี่ยวชาญ:
- ผู้เชี่ยวชาญมีระเบียบปฏิบัติที่เป็นที่ยอมรับในการแยกแยะระหว่างภัยคุกคามที่แท้จริงกับจินตนาการ
- ระบบ AI จำเป็นต้องมีมาตรฐานที่เทียบเท่าและการกำกับดูแลโดยผู้ทรงคุณวุฒิ
- ผู้ที่มีอำนาจตัดสินใจขั้นสุดท้ายจำเป็นต้องได้รับการฝึกอบรมเฉพาะทาง
ความโปร่งใสและการควบคุม:
- ผู้ประกอบวิชาชีพปฏิบัติงานภายใต้การกำกับดูแลของสมาคมวิชาชีพ
- OpenAI ต้องการเกณฑ์สาธารณะและกลไกการกำกับดูแลจากภายนอก
- ผู้ใช้จำเป็นต้องทราบอย่างแน่ชัดว่าเมื่อใดและเพราะเหตุใดพวกเขาจึงอาจถูกรายงาน
หลักความได้สัดส่วน:
- ผู้เชี่ยวชาญจะพิจารณาความสมดุลระหว่างหน้าที่ในการรักษาความลับและความปลอดภัยในแต่ละกรณีไป
- ระบบ AI ต้องพัฒนากลไกที่คล้ายคลึงกัน ไม่ใช่อัลกอริทึมแบบไบนารี
สำหรับบริษัทในภาคส่วนนี้ ความท้าทายคือการพัฒนาระบบที่สามารถปกป้องสังคมได้อย่างมีประสิทธิภาพโดยไม่กลายเป็นเครื่องมือในการสอดแนมอย่างไม่เลือกปฏิบัติ ความไว้วางใจจากผู้ใช้เป็นสิ่งสำคัญ แต่ต้องควบคู่ไปกับความรับผิดชอบต่อสังคมด้วย
สำหรับผู้ใช้งาน บทเรียนนี้มีสองแง่มุม:
- การสนทนากับ AI ไม่ได้รับการคุ้มครองเช่นเดียวกับการสนทนากับผู้เชี่ยวชาญแบบดั้งเดิม
- นี่ไม่ใช่เรื่องเลวร้ายเสมอไป หากทำอย่างโปร่งใสและเหมาะสม แต่สิ่งสำคัญคือต้องตระหนักถึงเรื่องนี้
อนาคตของปัญญาประดิษฐ์เชิงสนทนา จำเป็นต้องมีกรอบการทำงานใหม่ที่มีคุณสมบัติดังนี้:
- ยอมรับความถูกต้องตามกฎหมายของการป้องกันอาชญากรรม
- กำหนดมาตรฐานวิชาชีพสำหรับผู้ที่จัดการกับเนื้อหาที่ละเอียดอ่อน
- สร้างความโปร่งใสในกระบวนการตัดสินใจ
- ปกป้องสิทธิส่วนบุคคลโดยไม่ละเลยความปลอดภัย
คำถามที่ถูกต้องไม่ใช่ ว่าเครื่องจักรควรรายงานอาชญากรรมหรือไม่ แต่ เป็นว่าเราจะทำอย่างไรให้เครื่องจักรเหล่านั้นรายงานอาชญากรรมได้ (อย่างน้อยที่สุด) ด้วยสติปัญญา การฝึกฝน และความรับผิดชอบเช่นเดียวกับผู้เชี่ยวชาญที่เป็นมนุษย์
เป้าหมายไม่ใช่การกลับไปสู่ปัญญาประดิษฐ์ที่ "มองไม่เห็น" อันตรายที่แท้จริง แต่เป็นการสร้างระบบที่ผสมผสานประสิทธิภาพทางเทคโนโลยีเข้ากับจริยธรรมและความเชี่ยวชาญของมนุษย์ तभीเราจึงจะได้สิ่งที่ดีที่สุดจากทั้งสองโลก: ความปลอดภัยและการคุ้มครองสิทธิส่วนบุคคล
เอกสารอ้างอิงและแหล่งที่มา
- Futurism - "OpenAI กล่าวว่ากำลังสแกนบทสนทนา ChatGPT ของผู้ใช้และรายงานเนื้อหาให้ตำรวจทราบ"
- สำนักงานกฎหมาย Puce - "การรักษาความลับของหัวหน้าทนายความ"
- กฎหมายสำหรับทุกคน - "นักจิตวิทยาที่รู้เรื่องอาชญากรรมจำเป็นต้องรายงานคนไข้หรือไม่?"
- TechCrunch - "แซม อัลท์แมน เตือนว่าไม่มีการรักษาความลับทางกฎหมายเมื่อใช้ ChatGPT ในฐานะนักบำบัด"
- Shinkai Blog - "บทสนทนาใน ChatGPT ของ OpenAI ถูกสแกนและแจ้งความต่อตำรวจ จุดประกายความไม่พอใจของผู้ใช้และความกังวลเรื่องความเป็นส่วนตัว"
- ไซมอน วิลลิสัน - "OpenAI วิจารณ์คำสั่งศาลให้เก็บรักษาบันทึก ChatGPT ทั้งหมด รวมถึงแชทที่ถูกลบไปแล้ว"
- ความสำเร็จมาเยือน - "คดีความของ OpenAI ปี 2025: อุทธรณ์ต่อ NYT เกี่ยวกับข้อมูล ChatGPT"