ในขณะที่ AI เข้ามามีบทบาทสำคัญต่อการทำงานทางธุรกิจที่สำคัญมากขึ้น คำถามเกี่ยวกับจริยธรรม ความรับผิดชอบ และการกำกับดูแลจึงเปลี่ยนจากการถกเถียงกันในเชิงทฤษฎีไปสู่การปฏิบัติ อย่างไรก็ตาม ดังที่ได้เน้นย้ำในการอภิปรายใน แวดวงเทคโนโลยี เมื่อเร็วๆ นี้ พบว่ามีช่องว่างที่น่าประหลาดใจระหว่างความพร้อมของเครื่องมือโอเพนซอร์สสำหรับ AI เชิงจริยธรรม กับการนำเสนอโซลูชัน SaaS เฉพาะทางในพื้นที่นี้
ผู้เชี่ยวชาญในอุตสาหกรรมต่างตั้งคำถามว่า "ทำไมจึงไม่มีผลิตภัณฑ์ SaaS ด้าน AI ที่มีจริยธรรม" แม้จะมีเครื่องมืออย่าง ELI5, LIME, SHAP และ Fairlearn แพร่หลาย แต่ตลาดโซลูชัน AI-as-a-service ที่มีจริยธรรมกลับยังพัฒนาไม่ก้าวหน้าอย่างน่าประหลาดใจ ช่องว่างนี้ก่อให้เกิดคำถามเกี่ยวกับมูลค่าเชิงพาณิชย์ที่รับรู้ได้ของจริยธรรม AI ในระบบนิเวศเทคโนโลยีปัจจุบัน
ที่บริษัทของเรา เราเชื่อว่าการพิจารณาทางจริยธรรมควรเป็นองค์ประกอบพื้นฐาน ไม่ใช่องค์ประกอบรอง ในการพัฒนาและการนำปัญญาประดิษฐ์ไปใช้ บทความนี้จะสรุปกรอบการทำงานที่ครอบคลุมของเราสำหรับปัญญาประดิษฐ์เชิงจริยธรรม โดยเปรียบเทียบกับสภาพตลาดปัจจุบัน และความท้าทายเชิงปฏิบัติที่ผู้เชี่ยวชาญในอุตสาหกรรมได้เน้นย้ำ
สำหรับผู้ให้บริการ SaaS ปัญญาประดิษฐ์ที่มีจริยธรรมไม่ได้หมายถึงแค่การหลีกเลี่ยงอันตรายเท่านั้น แต่ยังหมายถึงการสร้างผลิตภัณฑ์ที่ยั่งยืนและสร้างมูลค่าที่ยั่งยืนอีกด้วย แนวทางของเราตั้งอยู่บนพื้นฐานความเชื่อหลักบางประการ:
อย่างไรก็ตาม ดังที่ผู้เชี่ยวชาญในอุตสาหกรรมได้ตั้งข้อสังเกตไว้ มูลค่าเชิงพาณิชย์ของ AI ที่มีจริยธรรมยังคงเป็นที่ถกเถียงกัน หากปราศจากแรงกดดันด้านกฎระเบียบที่เข้มงวด ผู้เชี่ยวชาญท่านหนึ่งตั้งข้อสังเกตว่า "สภาพแวดล้อมด้านกฎระเบียบไม่ได้เอื้อให้บริษัทต้องเผชิญกับความเสี่ยงด้านความรับผิดที่ร้ายแรง หากอัลกอริทึมของบริษัทนั้นผิดจริยธรรม และผมไม่เห็นว่าจะมีใครมาต่อแถวซื้อบริษัทที่โฆษณาตัวเองว่าใช้ AI ที่มีจริยธรรม 100% เลย"
ความตึงเครียดระหว่างอุดมคติทางจริยธรรมและความเป็นจริงของตลาดถือเป็นความท้าทายพื้นฐานสำหรับบริษัทต่างๆ ที่ต้องการวางตำแหน่งจริยธรรมให้เป็นข้อได้เปรียบในการแข่งขัน
ก่อนที่จะนำเสนอกรอบการทำงานของเรา สิ่งสำคัญคือต้องยอมรับความท้าทายที่สำคัญซึ่งจำกัดการแพร่กระจายของโซลูชัน SaaS ด้าน AI ที่มีจริยธรรม:
ดังที่ผู้เชี่ยวชาญในอุตสาหกรรมชี้ว่า "แนวคิดเรื่อง 'AI เชิงจริยธรรม' นั้นขึ้นอยู่กับบริบทค่อนข้างมาก" สิ่งที่ถือว่าเป็นจริยธรรมนั้นแตกต่างกันอย่างมากในแต่ละวัฒนธรรม อุตสาหกรรม และแม้แต่บุคคลภายในองค์กรเดียวกัน ผู้เชี่ยวชาญท่านหนึ่งตั้งข้อสังเกตว่า "ผมคิดว่าสิ่งที่เรียกว่าจริยธรรมนั้นแตกต่างกันไปในแต่ละบุคคล บางคนเชื่อว่าเป็นเรื่องของค่าตอบแทน บางคนเชื่อว่าทรัพย์สินทางปัญญานั้นผิดจริยธรรมโดยเนื้อแท้ ดังนั้นค่าตอบแทนจึงถือว่าผิดจริยธรรม"
เนื่องจากไม่มีกฎระเบียบที่บังคับให้มีการทดสอบความเป็นธรรมใน AI หลายองค์กรจึงไม่เห็นผลตอบแทนจากการลงทุนที่ชัดเจนสำหรับเครื่องมือ AI ที่มีจริยธรรม ดังที่ผู้บริหารด้านเทคโนโลยีท่านหนึ่งกล่าวไว้ว่า "ตลาดให้ความสำคัญกับภาพลักษณ์ที่มีจริยธรรมมากกว่าความเป็นจริยธรรม" ช่องว่างระหว่างรูปลักษณ์และสาระสำคัญนี้ทำให้ความพยายามในการพัฒนาข้อเสนอคุณค่าที่น่าสนใจมีความซับซ้อนมากขึ้น
การนำโซลูชัน AI ที่มีจริยธรรมมาใช้จำเป็นต้องเข้าถึงโมเดลที่เป็นกรรมสิทธิ์และข้อมูลการฝึกอบรมอย่างลึกซึ้ง ซึ่งก่อให้เกิดความกังวลด้านความปลอดภัยและทรัพย์สินทางปัญญา ดังที่นักวิจัยท่านหนึ่งกล่าวไว้ว่า "อัลกอริทึม AI ที่อธิบายได้นั้นเป็นโอเพนซอร์สอยู่แล้วและจำเป็นต้องเข้าถึงโมเดล ดังนั้นการโฮสต์อะไรก็ตามจึงไม่สมเหตุสมผล"
บริษัท SaaS ที่ให้บริการ AI อย่างมีจริยธรรมอาจเผชิญกับปัญหาความรับผิดที่ซับซ้อน หากเครื่องมือของพวกเขาไม่สามารถตรวจจับปัญหาด้านจริยธรรมได้อย่างเพียงพอ ที่ปรึกษากฎหมายท่านหนึ่งเสนอว่า "พวกเขาควรเสนอค่าชดเชยหรืออะไรทำนองนั้นไหม ผมไม่ค่อยมีความรู้เกี่ยวกับกรอบกฎหมายหรือประเด็นทางธุรกิจมากนัก แต่นั่นเป็นหนึ่งในคำถามแรกๆ ที่ผมจะถาม"
แม้จะมีความท้าทายเหล่านี้ บริษัทบางแห่งก็เริ่มก้าวขึ้นมาในพื้นที่นี้ โดยมีข้อเสนอเช่น DataRobot ซึ่งให้การตรวจสอบความยุติธรรมและอคติผ่านโซลูชัน MLOps
แนวทางของเรามีโครงสร้างรอบเสาหลักที่เชื่อมโยงกัน 5 ประการ โดยแต่ละประการมีผลกระทบเชิงปฏิบัติต่อวิธีการพัฒนาและส่งมอบโซลูชัน SaaS ของเรา:
หลักการสำคัญ: ระบบ AI ของเราต้องปฏิบัติต่อผู้ใช้และบุคคลทุกคนอย่างยุติธรรม หลีกเลี่ยงการเลือกปฏิบัติที่ไม่เป็นธรรมหรือการปฏิบัติที่เป็นพิเศษ
การประยุกต์ใช้ในทางปฏิบัติ:
กรณีศึกษาสมมติฐาน: ในระบบวิเคราะห์ทรัพยากรบุคคล สิ่งสำคัญคือต้องมั่นใจว่าแบบจำลองจะไม่ลงโทษ "ช่องว่างทางอาชีพ" โดยไม่ได้ตั้งใจ ซึ่งเป็นปัจจัยที่ส่งผลกระทบต่อผู้หญิงและผู้ดูแลอย่างไม่สมส่วน ด้วยโปรโตคอลการตรวจสอบความเสมอภาคที่เข้มงวด เราจึงสามารถระบุอคติเหล่านี้ได้ และออกแบบระบบใหม่เพื่อประเมินความก้าวหน้าทางอาชีพได้อย่างเท่าเทียมกันมากขึ้น
การแก้ไขปัญหาทางการตลาด: เราตระหนักดีว่า ผู้เชี่ยวชาญในอุตสาหกรรมได้เสนอแนะว่า จนกว่ากฎหมายจะกำหนดให้ต้องแสดงให้เห็นถึงความยุติธรรมใน AI การวิเคราะห์ประเภทนี้อาจใช้เป็นการตรวจสอบภายในสำหรับองค์กรต่างๆ ที่ต้องการนำ AI มาใช้อย่างมีความรับผิดชอบเป็นหลัก
หลักการสำคัญ: ผู้ใช้ควรเข้าใจว่าทำไมระบบ AI ของเราจึงได้ข้อสรุปเฉพาะเจาะจง โดยเฉพาะอย่างยิ่งสำหรับการตัดสินใจที่มีความสำคัญสูง
การประยุกต์ใช้ในทางปฏิบัติ:
กรณีศึกษาสมมติฐาน: เครื่องมือพยากรณ์ทางการเงินที่ใช้ AI ควรแสดงช่วงความเชื่อมั่นควบคู่ไปกับการคาดการณ์ และช่วยให้ผู้ใช้สามารถสำรวจว่าปัจจัยต่างๆ มีอิทธิพลต่อการคาดการณ์อย่างไร ความโปร่งใสนี้ช่วยให้ผู้ใช้เข้าใจไม่เพียงแต่สิ่งที่ระบบคาดการณ์ แต่ยังรวมถึงเหตุผลที่ระบบคาดการณ์ และความมั่นใจของระบบด้วย
การจัดการกับความท้าทายของตลาด: ตามที่เน้นย้ำในการอภิปรายของอุตสาหกรรม การรวมองค์ประกอบเหล่านี้เข้าในผลิตภัณฑ์ที่มีอยู่ เช่นที่ DataRobot ทำกับการตรวจสอบ MLOps อาจมีประสิทธิภาพมากกว่าการนำเสนอเป็นบริการแบบแยกส่วน
หลักการสำคัญ: ความเคารพความเป็นส่วนตัวจะต้องถูกสร้างขึ้นในทุกชั้นของข้อมูลของเรา ตั้งแต่การรวบรวมไปจนถึงการประมวลผลและการจัดเก็บ
การประยุกต์ใช้ในทางปฏิบัติ:
กรณีศึกษาสมมุติฐาน: แพลตฟอร์มวิเคราะห์ลูกค้าที่ได้รับการออกแบบอย่างมีจริยธรรมควรใช้เทคนิคการรวบรวมข้อมูลที่ให้ข้อมูลเชิงลึกที่มีค่าโดยไม่เปิดเผยพฤติกรรมของลูกค้าแต่ละราย แนวทางที่คำนึงถึงความเป็นส่วนตัวโดยการออกแบบนี้จะช่วยให้บริษัทต่างๆ เข้าใจแนวโน้มต่างๆ โดยไม่กระทบต่อความเป็นส่วนตัวของลูกค้า
การตอบสนองต่อความท้าทายของตลาด: ดังที่ได้กล่าวไว้ในการอภิปรายของอุตสาหกรรม "คุณอาจสับสนระหว่างจริยธรรมและการปฏิบัติตามกฎระเบียบ (ซึ่งเป็นเรื่องที่แตกต่างกันมาก อย่างน้อยก็ในบริบทของสหรัฐอเมริกา) จริงๆ แล้ว มีสตาร์ทอัพบางแห่งที่ผมรู้จัก ซึ่งเสนอคุณค่าด้วยการจ้างบุคคลภายนอกมาดูแลบางส่วนในเรื่องนี้ แต่พวกเขากลับให้ความสำคัญกับความเป็นส่วนตัวของข้อมูลมากกว่า"
หลักการสำคัญ: โครงสร้างความรับผิดชอบที่ชัดเจนช่วยให้มั่นใจได้ว่าการพิจารณาทางจริยธรรมจะไม่ถูกละเลยในกระบวนการพัฒนา
การประยุกต์ใช้ในทางปฏิบัติ:
กรณีศึกษาเชิงสมมติ: Un efficace Comitato di revisione etica dovrebbe condurre verifiche periodiche sui principali componenti AI di una piattaforma. Queste revisioni potrebbero identificare potenziali problemi, come strutture di incentivi non intenzionali nei motori di raccomandazione, prima che possano avere un impatto sui clienti.
การตอบสนองต่อความท้าทายของตลาด: ในการตอบสนองต่อการสังเกตว่า "จนกว่าจะมีแรงกดดันจากหน่วยงานกำกับดูแล ผลิตภัณฑ์นี้จะถูกใช้เป็นการตรวจสอบภายในมากขึ้น" เราพบว่าการบูรณาการการตรวจสอบเหล่านี้เข้าในกระบวนการพัฒนาผลิตภัณฑ์ของเราช่วยสร้างความไว้วางใจกับลูกค้าองค์กรที่กังวลเกี่ยวกับความเสี่ยงด้านชื่อเสียง
หลักการสำคัญ: AI ควรเสริมศักยภาพของมนุษย์แทนที่จะมาแทนที่การตัดสินใจของมนุษย์ โดยเฉพาะอย่างยิ่งสำหรับการตัดสินใจที่มีผลตามมา
การประยุกต์ใช้ในทางปฏิบัติ:
กรณีศึกษาสมมุติฐาน: ในเครื่องมือวิเคราะห์สัญญาที่ใช้ AI ระบบจะระบุปัญหาที่อาจเกิดขึ้นและอธิบายเหตุผล แต่การตัดสินใจขั้นสุดท้ายจะขึ้นอยู่กับผู้ใช้งานที่เป็นมนุษย์เสมอ แนวทางการทำงานร่วมกันนี้จะช่วยรับประกันประสิทธิภาพในขณะที่ยังคงรักษาดุลยพินิจที่สำคัญของมนุษย์ไว้
.png)
แม้จะมีการหารือถึงความท้าทายทางการตลาด เราเชื่อว่ามีกรณีทางธุรกิจที่น่าสนใจสำหรับ AI ที่มีจริยธรรมซึ่งเหนือกว่าการปฏิบัติตามกฎระเบียบหรือการประชาสัมพันธ์เพียงอย่างเดียว:
แม้ว่ากฎระเบียบเฉพาะด้านจริยธรรม AI ยังคงมีอยู่อย่างจำกัด แต่ภูมิทัศน์ด้านกฎระเบียบกำลังเปลี่ยนแปลงอย่างรวดเร็ว สหภาพยุโรปกำลังมีความก้าวหน้าอย่างมากในร่างพระราชบัญญัติ AI ขณะที่สหรัฐอเมริกากำลังสำรวจกรอบการกำกับดูแลที่หลากหลาย บริษัทที่ปฏิบัติตามหลักจริยธรรมในปัจจุบันจะอยู่ในตำแหน่งที่ดีขึ้นเมื่อมีข้อกำหนดด้านกฎระเบียบเกิดขึ้น
ดังที่ผู้ร่วมเสวนาท่านหนึ่งได้กล่าวไว้ อาจมี "การประชาสัมพันธ์" ในการเสนอ "ตราประทับรับรอง" สำหรับ AI ที่มีจริยธรรม ในยุคที่ประชาชนมีความตระหนักและความกังวลเกี่ยวกับ AI เพิ่มมากขึ้น บริษัทที่สามารถแสดงให้เห็นถึงแนวทางปฏิบัติด้านจริยธรรมจะมีข้อได้เปรียบอย่างมากในการบริหารความเสี่ยงด้านชื่อเสียง
เสาหลักทั้งห้าของเราไม่เพียงแต่มุ่งเน้นด้านจริยธรรมเท่านั้น แต่ยังช่วยยกระดับคุณภาพโดยรวมของผลิตภัณฑ์ของเราอีกด้วย ระบบที่เป็นธรรมยิ่งขึ้นจะช่วยให้บริการลูกค้าที่หลากหลายได้ดีขึ้น ความโปร่งใสที่มากขึ้นช่วยสร้างความไว้วางใจให้กับผู้ใช้ หลักปฏิบัติด้านความเป็นส่วนตัวที่เข้มงวดช่วยปกป้องทั้งผู้ใช้และบริษัท
แม้ว่าตลาดมวลชนอาจไม่ได้สนใจบริษัทใดๆ ที่โฆษณาตัวเองว่าเป็นผู้ใช้ AI ที่มีจริยธรรม 100% แต่ก็มีกลุ่มลูกค้าองค์กรที่กำลังเติบโตอย่างต่อเนื่องและมีความมุ่งมั่นอย่างยิ่งต่อแนวทางปฏิบัติทางธุรกิจอย่างมีความรับผิดชอบ ลูกค้าเหล่านี้จึงแสวงหาซัพพลายเออร์ที่มีค่านิยมเดียวกันและสามารถแสดงให้เห็นถึงแนวทางปฏิบัติด้านจริยธรรมได้
เมื่อมองไปข้างหน้า เราคาดการณ์แนวโน้มหลายประการที่จะสามารถเปลี่ยนแปลง AI ที่มีจริยธรรมจากข้อกังวลเฉพาะกลุ่มให้กลายเป็นแนวทางปฏิบัติหลักได้:
เมื่อกรอบการกำกับดูแลขยายตัวมากขึ้น บริษัทต่างๆ จะต้องแสดงให้เห็นถึงการปฏิบัติตามมาตรฐานจริยธรรมต่างๆ มากขึ้น ซึ่งจะผลักดันความต้องการเครื่องมือที่เอื้อต่อการปฏิบัติตามกฎระเบียบ
นักลงทุน พนักงาน และลูกค้าต่างตระหนักและกังวลมากขึ้นเกี่ยวกับผลกระทบทางจริยธรรมของ AI แรงกดดันที่เพิ่มขึ้นนี้กำลังกระตุ้นให้บริษัทต่างๆ แสวงหาเครื่องมือที่สามารถแสดงให้เห็นถึงแนวทางปฏิบัติด้านจริยธรรม
เมื่อการนำ AI มาใช้เพิ่มขึ้น เหตุการณ์สำคัญที่เกี่ยวข้องกับอคติ ความเป็นส่วนตัว หรือการตัดสินใจของอัลกอริทึมที่น่าสงสัยก็จะเพิ่มขึ้นตามไปด้วย เหตุการณ์เหล่านี้จะผลักดันความต้องการโซลูชันเชิงป้องกัน
การพัฒนามาตรฐานร่วมกันในการประเมินและการสื่อสารความยุติธรรม ความเป็นส่วนตัว และคุณลักษณะทางจริยธรรมอื่นๆ ของ AI จะช่วยอำนวยความสะดวกในการนำเครื่องมือ AI ที่มีจริยธรรมมาใช้ในองค์กรต่างๆ
ตามที่เน้นย้ำในการอภิปรายในอุตสาหกรรมด้วยตัวอย่างเช่น DataRobot อนาคตของ AI ที่ถูกต้องตามจริยธรรมอาจไม่ได้อยู่ที่โซลูชันแบบสแตนด์อโลน แต่เป็นการบูรณาการกับแพลตฟอร์ม MLOps ที่กว้างขึ้น ซึ่งรวมถึงการตรวจสอบความยุติธรรมและอคติ
บ่อยครั้งที่จริยธรรมและนวัตกรรมถูกมองว่าเป็นพลังตรงข้ามกัน ต่างฝ่ายต่างจำกัดกันและกัน ประสบการณ์ของเรา ประกอบกับข้อมูลเชิงลึกจากแวดวงเทคโนโลยี ชี้ให้เห็นถึงความจริงที่ซับซ้อนยิ่งขึ้น นั่นคือ แม้ว่าการพิจารณาเรื่องจริยธรรมจะเป็นแรงผลักดันให้เกิดนวัตกรรม และผลักดันให้เราค้นหาวิธีแก้ปัญหาที่สร้างคุณค่าโดยไม่ก่อให้เกิดอันตราย แต่ตลาดในปัจจุบันกลับเป็นอุปสรรคสำคัญต่อการนำโซลูชัน SaaS ด้าน AI เฉพาะทางที่มีจริยธรรมมาใช้อย่างแพร่หลาย
คำถามที่ชุมชนตั้งขึ้นว่า “ทำไมจึงไม่มีผลิตภัณฑ์ SaaS ด้าน AI ที่มีจริยธรรม” ยังคงมีความเกี่ยวข้อง คำตอบดูเหมือนจะมาจากการผสมผสานระหว่างนิยามเชิงบริบทของจริยธรรม แรงจูงใจทางเศรษฐกิจที่จำกัดเมื่อไม่มีแรงกดดันด้านกฎระเบียบ ความท้าทายในการนำไปปฏิบัติจริง และปัญหาความรับผิดทางกฎหมาย
แม้จะเผชิญกับความท้าทายเหล่านี้ เราเชื่อว่าอนาคตของ AI ในธุรกิจไม่ได้ขึ้นอยู่กับสิ่งที่เป็นไปได้ทางเทคนิคเท่านั้น แต่ยังรวมถึงสิ่งที่เป็นประโยชน์อย่างมีความรับผิดชอบด้วย บริษัทของเรามุ่งมั่นที่จะขับเคลื่อนอนาคตนี้ผ่านนวัตกรรมทางจริยธรรม โดยบูรณาการการพิจารณาทางจริยธรรมเข้ากับผลิตภัณฑ์และกระบวนการต่างๆ ของเรา ขณะที่เราก้าวผ่านความเป็นจริงของตลาดในปัจจุบัน
ดังที่ผู้ร่วมเสวนาท่านหนึ่งเสนอแนะว่า "บางทีคุณอาจเริ่มทำสักอันถ้าคุณอยู่ในแวดวงนี้และมองเห็นความจำเป็น" เรากำลังทำแบบนั้นอยู่แล้ว เราขอเชิญชวนนักนวัตกรรมท่านอื่นๆ มาร่วมสำรวจพื้นที่ที่กำลังเติบโตนี้กับเรา ไม่ใช่แค่ในฐานะสิ่งจำเป็นทางศีลธรรมเท่านั้น แต่ยังเป็นกลยุทธ์ทางธุรกิจที่มองการณ์ไกลในระบบนิเวศเทคโนโลยีที่ยังคงพัฒนาอย่างต่อเนื่อง