โดย สเวตลานา ซิคูลาร์ รองประธานฝ่ายนักวิเคราะห์ การ์ทเนอร์
การนำ Generative AI มาใช้อย่างรวดเร็วก่อให้เกิดข้อถกเถียงอย่างมากถึงผลกระทบของ AI ที่มีต่อสังคม ซึ่งองค์กรจะต้องสร้างสมดุลระหว่างศักยภาพเทคโนโลยีที่มีความสำคัญนี้กับความเสี่ยงใหม่ ๆ ที่อาจเกิดขึ้น โดยเฉพาะการใช้ AI ไปในทางที่ผิด
องค์กรควรมีแนวทางป้องกันอย่างเหมาะสมเพื่อยกระดับศักยภาพเทคโนโลยี พร้อมรับมือความท้าทายที่เกิดขึ้น ซึ่งสามารถทำได้โดยการวางกรอบการกำกับดูแลหรือ Governance Framework ที่มีความยืดหยุ่นและสามารถปรับให้เหมาะกับคุณสมบัติเฉพาะของ AI พร้อมมั่นใจว่าเทคโนโลยีนี้จะได้รับการนำไปใช้อย่างปลอดภัยและมีความรับผิดชอบแต่แท้จริง AI Governance คืออะไร และเหตุใดองค์กรควรให้ความสำคัญอย่างจริงจัง?
แม้เป็นคำที่ดูสวนทางกัน แต่การกำกับดูแลที่ดีนั้นทำให้เกิดนวัตกรรมที่ดียิ่งกว่า เนื่องจากนำเสนอข้อจำกัดและแนวทางป้องกันที่ทำให้องค์กรสามารถทำความเข้าใจกับคำถามทั้งในด้านคุณค่าและความเสี่ยงของ AI รวมถึงมีพื้นที่สร้างสรรค์นวัตกรรมและผลลัพธ์
การขยายขอบเขตการใช้งาน AI โดยปราศจากการควบคุมดูแลนั้นทำให้ไม่เกิดประสิทธิภาพและเป็นอันตราย สังคมต่างคาดหวังให้องค์กรดำเนินงานด้วยความโปร่งใส รับผิดชอบและมีจริยธรรม ดังนั้นการควบคุมดูแล AI จึงมีความจำเป็นเพื่อตอบสนองต่อความต้องการทางสังคมเหล่านี้ พร้อมยังคงให้ความสำคัญกับความก้าวหน้าในการจัดการกับความซับซ้อน ความคลุมเครือ และวิวัฒนาการทางเทคโนโลยีที่เปลี่ยนรวดเร็ว
นอกจากการพิจารณาผลกระทบต่อสังคมวงกว้างและการปฏิบัติตามกฎระเบียบ องค์กรจำเป็นต้องสร้างสมดุลระหว่างข้อกำหนดเพื่อสร้างความไว้วางใจในการแข่งขันและควบคุมการใช้งานในที่ทำงานร่วมกับคุณค่าทางธุรกิจ ความเสี่ยงต่อองค์กร รวมถึงความเป็นส่วนตัวของพนักงาน ลูกค้าและพลเมืองตามปัจเจกบุคคล
ตัวอย่างเช่น การกำกับดูแล AI จะต้องกำหนดแนวทางการลดอคติและมีข้อกำหนดเพื่อตรวจสอบ โดยคำนึงถึงความแตกต่างทางวัฒนธรรมและระเบียบข้อบังคับที่คุ้มครองสิทธิส่วนบุคคลและกลุ่มบุคคล อคติสามารถส่งผลลบต่อระดับการยอมรับ AI ในองค์กรและในสังคมภาพรวมได้ ซึ่งอคติถือเป็นปัญหาร้ายแรงขององค์กรข้ามชาติ เนื่องจากในแต่ละประเทศมีบรรทัดฐานทางวัฒนธรรมและระเบียบข้อบังคับที่เกี่ยวข้องแตกต่างกัน อาทิ กฎหมายคุ้มครองผู้บริโภค เป็นต้น
สิ่งสำคัญสำหรับองค์กรคือการชี้ชัดบุคลากรที่จะมาจัดการกับปัญหาต่าง ๆ ที่เกี่ยวกับองค์กร สังคม ลูกค้า และพนักงาน ซึ่งควรเป็นผู้ที่มีแนวคิด มีพื้นฐานความรู้และมีบทบาทหลากหลาย จากนั้นแยกแยะการตัดสินใจในการกำกับดูแลและสิทธิการตัดสินใจ โดยใช้ความเชี่ยวชาญและมุมมองที่พวกเขามีสิทธิการตัดสินใจสำหรับกำหนดอำนาจและความรับผิดชอบสำหรับธุรกิจ เทคโนโลยี รวมถึงการตัดสินใจทางจริยธรรม ซึ่งควรมุ่งความสนใจไปที่ AI Content เป็นสิ่งสำคัญที่สุด โดยต้องได้รับการควบคุมดูแลอย่างเข้มงวด แต่ในทางกลับกัน องค์กรสามารถให้มีอิสระในการตัดสินใจด้าน AI Content ที่ไม่สำคัญได้ ขณะที่พนักงานที่ใช้ AI ช่วยทำงานจะต้องตระหนักว่าพวกเขาต้องรับผิดชอบต่อผลลัพธ์ที่เกิดขึ้น
ขจัดความซับซ้อนของ AI ด้วยการกำกับดูแล
AI พัฒนาอยู่ท่ามกลางภูมิทัศน์ทางเทคโนโลยีที่เปลี่ยนแปลงและมีความซับซ้อนอยู่ตลอด รวมถึงมีความคลุมเครือตามธรรมชาติของเทคโนโลยีนี้ ที่สามารถนำไปสู่การขาดความเข้าใจถึงผลกระทบต่อชื่อเสียง ธุรกิจ และสังคม
การกำกับดูแลควรสะท้อนถึงคุณลักษณะการทำงานข้ามฟังก์ชันและคาดการณ์การทำงานของ AI โดยสิ่งที่องค์กรหลายแห่งมักก่อข้อผิดพลาด คือ การกำหนดให้ AI Governance เป็นโครงการแบบ Standalone ซึ่งแท้ที่จริงควรเป็นการขยายขอบเขตของมาตรการที่มีอยู่เดิมในองค์กรต่างหาก
การดึงประสิทธิภาพจากแนวทางการกำกับดูแลที่มีอยู่เดิมและการนำแนวทางที่เคยประสบความสำเร็จแล้วกลับมาใช้ซ้ำจะทำให้การจัดการผลกระทบของ AI เป็นเรื่องที่เข้าใจง่ายขึ้นและลดความท้าทายน้อยลง แม้จะมีแนวทางมากมายนำไปใช้กับ AI ได้ เช่น การจำแนกข้อมูล การกำหนดมาตรฐาน และการกำหนดแนวทางการสื่อสาร แต่ก็มีแนวทางที่เป็นลักษณะเฉพาะเช่นกัน ได้แก่ การสร้างความน่าเชื่อถือ ความโปร่งใส และความหลากหลาย รวมถึงวิธีการที่จะนำไปใช้ร่วมกับผู้คน ข้อมูล และเทคนิคต่าง ๆ ก็ถือเป็นสิ่งสำคัญ
การตัดสินใจสำคัญเกี่ยวกับ AI ในองค์กรหลายแห่ง กระทำผ่านคณะกรรมการด้าน AI หรือ AI Council โดยทั่วไปผู้ที่นั่งเป็นประธานจะเป็น ผู้บริหาร CIO หรือ CDAO และมีกลุ่มคณะทำงานที่เป็นตัวแทนจากหน่วยธุรกิจอื่น ๆ ทั่วทั้งองค์กรมาร่วมด้วย โดยกลุ่มคณะกรรมการที่มีความหลากหลายนี้จำเป็นต้องทำงานสัมพันธ์โดยตรงร่วมกับกลุ่มผู้มีหน้าที่กำกับดูแลอื่น ๆ เพื่อเป็นแกนนำในความพยายามผลักดัน AI Governance
ภารกิจแรกของคณะกรรมการ คือ การรับรองการปฏิบัติตามกฎระเบียบที่เกี่ยวข้อง แม้ว่าความเป็นส่วนตัวจะเป็นข้อกังวลสูงสุดและเห็นชัดเจนสุด แต่ก็ยังมีข้อกำหนดทางกฎหมายและข้อกำหนดเฉพาะของแต่ละอุตสาหกรรมทุกประเภทที่ต้องปฏิบัติตาม
การกำกับดูแล AI เริ่มจากความต้องการสนับสนุนเป้าหมายทางธุรกิจ โดยเป้าหมายของ AI ในโครงการนำร่องหรือในกระบวนการพิสูจน์เชิงแนวคิด หรือ Proof Of Concept (POC) นั้นควรเป็นการพิสูจน์คุณค่าตามที่คณะกรรมการกำหนดและอนุมัติร่วมกับผู้มีส่วนได้ส่วนเสียทางธุรกิจอื่น ๆ ไม่ใช่การวัดผล เช่น ความแม่นยำ หรือเปรียบเทียบกับเครื่องมือเทคนิคอื่น ๆ
สำหรับองค์กรที่ใช้ AI ขั้นสูง หรือ AI-Advanced Organisations ยังรวมถึงการกำกับดูแลวงจรชีวิต AI ทั้งหมด ตามเป้าหมายเพื่อให้สามารถนำส่วนประกอบ AI กลับมาใช้ใหม่ได้ พร้อมเร่งการส่งมอบ รวมถึงการปรับขนาดการใช้ AI ให้ครอบคลุมทั่วทั้งองค์กร