‘การ์ทเนอร์’ แนะกลยุทธ์ สร้างปราการ ‘AI Governance’
วันที่ส่ง: 08/10/2024 - ผู้เขียน: กรุงเทพธุรกิจ
สเวตลานา ซิคูลาร์ รองประธานฝ่ายนักวิเคราะห์ การ์ทเนอร์ เปิดมุมมองว่า องค์กรควรมีแนวทางป้องกันอย่างเหมาะสมเพื่อยกระดับศักยภาพเทคโนโลยี พร้อมรับมือความท้าทายที่เกิดขึ้น
ทั้งนี้สามารถทำได้โดยการวางกรอบการกำกับดูแลหรือ “Governance Framework” ที่มีความยืดหยุ่นและสามารถปรับให้เหมาะกับคุณสมบัติเฉพาะของ AI โดยมั่นใจว่าเทคโนโลยีนี้จะได้รับการนำไปใช้อย่างปลอดภัยและมีความรับผิดชอบ
การกำกับดูแลที่ดีทำให้เกิดนวัตกรรมที่ดียิ่งกว่า เนื่องจากนำเสนอข้อจำกัดและแนวทางป้องกันที่ทำให้องค์กรสามารถทำความเข้าใจกับคำถามทั้งในด้านคุณค่าและความเสี่ยงของ AI รวมถึงมีพื้นที่สร้างสรรค์นวัตกรรมและผลลัพธ์
การ์ทเนอร์ชี้ว่า การขยายขอบเขตการใช้งาน AI โดยปราศจากการควบคุมดูแลนั้นทำให้ไม่เกิดประสิทธิภาพและเป็นอันตราย สังคมต่างคาดหวังให้องค์กรดำเนินงานด้วยความโปร่งใส รับผิดชอบและมีจริยธรรม
ดังนั้นการควบคุมดูแล AI จึงมีความจำเป็นเพื่อตอบสนองต่อความต้องการทางสังคมเหล่านี้ พร้อมยังคงให้ความสำคัญกับความก้าวหน้าในการจัดการกับความซับซ้อน ความคลุมเครือ และวิวัฒนาการทางเทคโนโลยีที่เปลี่ยนรวดเร็ว
นอกจากการพิจารณาผลกระทบต่อสังคมวงกว้างและการปฏิบัติตามกฎระเบียบ องค์กรจำเป็นต้องสร้างสมดุลระหว่างข้อกำหนดเพื่อสร้างความไว้วางใจในการแข่งขันและควบคุมการใช้งานในที่ทำงานร่วมกับคุณค่าทางธุรกิจ ความเสี่ยงต่อองค์กร รวมถึงความเป็นส่วนตัวของพนักงาน ลูกค้าและพลเมืองตามปัจเจกบุคคล
การ์ทเนอร์ วิเคราะห์ว่า AI พัฒนาอยู่ท่ามกลางภูมิทัศน์ทางเทคโนโลยีที่เปลี่ยนแปลงและมีความซับซ้อนอยู่ตลอด รวมถึงมีความคลุมเครือตามธรรมชาติของเทคโนโลยีนี้ที่สามารถนำไปสู่การขาดความเข้าใจถึงผลกระทบต่อชื่อเสียง ธุรกิจ และสังคม
การกำกับดูแลควรสะท้อนถึงคุณลักษณะการทำงานข้ามฟังก์ชันและคาดการณ์การทำงานของ AI โดยสิ่งที่องค์กรหลายแห่งมักก่อข้อผิดพลาด คือ การกำหนดให้ AI Governance เป็นโครงการแบบ Standalone ซึ่งแท้ที่จริงควรเป็นการขยายขอบเขตของมาตรการที่มีอยู่เดิมในองค์กรต่างหาก
นอกจากนี้ สิ่งสำคัญสำหรับองค์กรคือ การชี้ชัดบุคลากรที่จะมาจัดการกับปัญหาต่างๆ ที่เกี่ยวกับองค์กร สังคม ลูกค้า และพนักงาน ซึ่งควรเป็นผู้ที่มีแนวคิด มีพื้นฐานความรู้และมีบทบาทหลากหลาย จากนั้นแยกแยะการตัดสินใจในการกำกับดูแลและสิทธิการตัดสินใจ
โดยใช้ความเชี่ยวชาญและมุมมองที่พวกเขามีสิทธิการตัดสินใจสำหรับกำหนดอำนาจและความรับผิดชอบสำหรับธุรกิจ เทคโนโลยี รวมถึงการตัดสินใจทางจริยธรรม โดยต้องได้รับการควบคุมดูแลอย่างเข้มงวด แต่ในทางกลับกัน องค์กรสามารถให้มีอิสระในการตัดสินใจด้าน AI Content ที่ไม่สำคัญได้
อีกหนึ่งประเด็นที่ควรนำมาพิจารณา การกำกับดูแล AI เริ่มจากความต้องการสนับสนุนเป้าหมายทางธุรกิจ โดยเป้าหมายของ AI ในโครงการนำร่องหรือในกระบวนการพิสูจน์เชิงแนวคิด หรือ Proof Of Concept (POC) นั้นควรเป็นการพิสูจน์คุณค่าตามที่คณะกรรมการกำหนดและอนุมัติร่วมกับผู้มีส่วนได้ส่วนเสียทางธุรกิจอื่น ๆ ไม่ใช่การวัดผล เช่น ความแม่นยำ หรือเปรียบเทียบกับเครื่องมือเทคนิคอื่นๆ
สำหรับองค์กรที่ใช้ AI ขั้นสูง หรือ AI-Advanced Organisations ยังรวมถึงการกำกับดูแลวงจรชีวิต AI ทั้งหมด ตามเป้าหมายเพื่อให้สามารถนำส่วนประกอบ AI กลับมาใช้ใหม่ได้ พร้อมเร่งการส่งมอบ รวมถึงการปรับขนาดการใช้ AI ให้ครอบคลุมทั่วทั้งองค์กร
คำแถลงปฏิเสธความรับผิดชอบ: ลิขสิทธิ์ของบทความนี้เป็นของผู้เขียนต้นฉบับ การเผยแพร่ซ้ำบทความนี้มีวัตถุประสงค์เพื่อเผยแพร่ข้อมูลเท่านั้นและไม่ถือเป็นคำแนะนำในการลงทุน หากมีการละเมิดกรุณาติดต่อเราทันที เราจะทำการแก้ไขหรือลบตามความเหมาะสม ขอบคุณ
แบงก์ชาติอินโดนีเซียเข้าแทรกแซงค่าเงิน หลังรูเปียห์ร่วงหนักในรอบปี
สำนักข่าวบลูมเบิร์กรายงานในวันนี้ (7 ต.ค.) ว่า ธนาคารกลางอินโดนีเซีย (BI) กำลังเข้าแทรกแซงค่าเงินรูเ...
เกิดระเบิดใกล้สถานทูตอิสราเอลในเดนมาร์ก
สำนักข่าวเอเอฟพีรายงาน เกิดระเบิดห่างจาก สถานทูตอิสราเอล ประจำกรุงโคเปนเฮเกนของ เดนมาร์ก ราว 500 เมต...
‘ทูตไทย-ตม.เกาหลีใต้’ ร่วมมือเข้ม ‘ลดผีน้อย’ เพิ่มแรงงานถูกกฎหมาย
กระแส “แบนเที่ยวเกาหลี” ของชาวไทยกระหึ่มโซเชียลมีเดียมาตั้งแต่ปลายปี 2566 เนื่องจากสำนักงานตรวจคนเข้...
รีวิว 'PICO 4 Ultra' แว่น VR/MR รุ่นใหม่สู่โลกเสมือนที่สมจริงยิ่งกว่าเดิม
ในยุคที่เทคโนโลยีเสมือนจริง (Virtual Reality - VR) และผสมความจริง (Mixed Reality - MR) กำลังเปลี่ยนแ...
ยอดวิว