AI กับการรักษาความปลอดภัยของข้อมูล

เมื่อเร็วๆ นี้มีการสำรวจความคิดเห็นของผู้บริหารระดับสูงในตำแหน่ง CISO, CIO, CTO และ CSO จากทั่วโลกเกี่ยวกับประเด็นเรื่อง AI พบว่า 89% มอง AI ในเชิงบวก เพราะได้เล็งเห็นถึงโอกาสและความสามารถในการจัดการของ AI ที่จะสามารถช่วยพนักงานในองค์กรในการปฏิบัติงาน โดยกว่า 50% ได้มีการพัฒนาแนวทางสำหรับการใช้ AI ของพนักงาน และอีก 32% มีการวางแผนที่จะพัฒนาแนวทางดังกล่าวในปีหน้า

ภายใต้การส่งเสริมการใช้ AI ยังคงมีความกังวลเกี่ยวกับผลกระทบที่อาจเกิดขึ้นจากการใช้งาน พบว่า เกือบ 75% มีความกังวลเกี่ยวกับความปลอดภัยทางไซเบอร์และความเป็นส่วนตัวของข้อมูล 

เพราะ Generative AI จะทำให้การตรวจพบการโจมตีแบบฟิชชิ่งน้อยลง และเพิ่มความเสี่ยงหากพนักงานไม่ได้รับการฝึกอบรมที่เหมาะสมเพื่อใช้งานอย่างถูกต้องและปลอดภัย 

หากมองในแง่ของความเข้าใจวิธีการทำงาน AI นั้น มีเพียง 14% เท่านั้นที่ระบุว่า มีความเชี่ยวชาญทางด้านคอมพิวเตอร์หรือมีประสบการณ์ด้านการวิจัยและพัฒนา AI และส่วนใหญ่ 43% มีความเข้าใจเพียงระดับปานกลาง 

อีกทั้งยังมีความสงสัยบางอย่างเกี่ยวกับความสามารถขององค์กรในการป้องกันการโจมตีที่ขับเคลื่อนด้วย AI เพราะไม่ใช่คนในองค์กรทุกคนที่จะมีความรู้ความสามารถในด้านนี้ จากการสำรวจ 1 ใน 5 ของผู้บริหารเปิดเผยว่า บุคคลากรแทบจะไม่มีความรู้ในการรับมือกับการโจมตีที่ขับเคลื่อนด้วยสิ่งนี้

นอกจากนี้ผลสำรวจแสดงสิ่งที่ผู้บริหารให้ความสำคัญสูงสุดเป็นลำดับแรกนั่นคือ ความต้องการปรับปรุงระบบความปลอดภัยและการตรวจจับภัยคุกคาม ในการช่วยระบุความเสี่ยง การลดความเสี่ยง และการจัดการเพื่อให้แน่ใจว่า AI ที่นำมาใช้อยู่ภายในขอบเขตของความเสี่ยงที่ยอมรับได้ 

ด้วยเหตุนี้เอง 79% มองว่าโซลูชัน IAM (Identity and Access Management) มีความสำคัญในการควบคุมทางเทคนิคเพื่อกำหนดสิทธิ์การเข้าถึงระบบและข้อมูลที่สำคัญของแต่ละบุคคลให้มีความเหมาะสม อยู่บนพื้นฐานของความปลอดภัยเพื่อหลีกเลี่ยงการเข้าถึงโดยไม่ได้รับอนุญาต ในการป้องกันการโจมตีและควบคุมการใช้ AI ในทางที่ผิด

คำแนะนำ 3 ข้อเพื่อช่วยดูแลความปลอดภัยของข้อมูลเกี่ยวกับ AI

  1. เพิ่มความปลอดภัยให้กับโครงสร้างพื้นฐานขององค์กร การมี IAM ที่ทันสมัยและการปรับใช้นโยบายที่เหมาะสม เช่น การยืนยันตัวตนแบบหลายปัจจัย (MFA) และการบังคับใช้สิทธิพิเศษให้น้อยที่สุด
  2. องค์กรต่างๆ ควรติดต่อกับผู้เชี่ยวชาญเฉพาะด้านและหน่วยงานกำกับดูแลในอุตสาหกรรมที่เกี่ยวข้องเพื่อพัฒนา แบ่งปันข้อมูลเชิงลึกและแนวทางปฏิบัติที่ดีที่สุด
  3. การให้ความรู้และฝึกอบรมพนักงานเกี่ยวกับแนวทางปฏิบัติที่ดีที่สุด เพราะการฝึกให้มีความคุ้นเคยกับ AI และข้อผิดพลาดที่อาจเกิดขึ้นจะช่วยเตรียมความพร้อมให้กับพนักงานก่อนการใช้งานจริง

เราจะเห็นได้ว่า ยิ่ง AI มีความสมจริงมากขึ้นเท่าใด แฮกเกอร์ก็จะปรับตัวและมีนวัตกรรมใหม่ได้เร็วขึ้นเท่านั้น หากองค์กรไม่ให้ความรู้แก่พนักงานอย่างเพียงพอเกี่ยวกับภัยคุกคามด้าน AI ผมเชื่อเลยว่า เรากำลังเปิดให้องค์กรพร้อมรับความเสี่ยงที่เพิ่มมากขึ้น และอาจนำไปสู่การเปิดเผยความลับขององค์กร ความล้มเหลวในการปฏิบัติตามกฎระเบียบ และข้อมูลที่สร้างโดย AI ที่ผิดพลาด

เพราะสุดท้ายแล้วผู้ใช้งานนี่แหละที่มักจะเป็นภัยคุกคามด้านความปลอดภัยที่ใหญ่ที่สุดครับ

 

คำแถลงปฏิเสธความรับผิดชอบ: ลิขสิทธิ์ของบทความนี้เป็นของผู้เขียนต้นฉบับ การเผยแพร่ซ้ำบทความนี้มีวัตถุประสงค์เพื่อเผยแพร่ข้อมูลเท่านั้นและไม่ถือเป็นคำแนะนำในการลงทุน หากมีการละเมิดกรุณาติดต่อเราทันที เราจะทำการแก้ไขหรือลบตามความเหมาะสม ขอบคุณ



หมวดเดียวกัน

ดีมานด์ออฟฟิศย่านซีบีดีกทม.พุ่ง! รับอานิสงส์ต่างชาติย้ายสำนักงานใหญ่

ปัญญา เจนกิจวัฒนาเลิศ กรรมการบริหารหัวหน้าส่วนพื้นที่สำนักงาน บริษัท ไนท์แฟรงค์ ชาร์เตอร์ (ประเทศไทย...

แรงเหวี่ยง“ลานีญา-ส่งออกสัญญาณดี” หนุนจีดีพีเกษตรปี67โต0.2-1.2%

ตั้งแต่ไทยเข้าสู่ฤดูฝน (20 พ.ค. 2567) ถึง ณ วันที่ 27 ส.ค. 2567 มีพื้นที่การเกษตรได้รับผลกระทบจากอุท...

ถ้าจะลาออก จะ ”บอกเจ้านายยังไงดี” ให้เกิดผลดีกับทุกฝ่าย !?

Part.1.เรื่องธรรมดา กับ เรื่อง ไม่ธรรมดา เมื่อพนักงาน ลาออก !? เป็นเรื่องที่เป็นไปไม่ได้ ที่แต่ละที่...

เตรียมโรดทริป 'อันดามัน' เส้นทางใหม่ ถนนเลียบชายฝั่ง เชื่อม 6 จังหวัดยอดฮิต !

โครงการศึกษาความเหมาะสมพัฒนาเส้นทางท่องเที่ยวเลียบชายฝั่งทะเลอันดามัน ช่วงจังหวัดระนอง – สตูล หนึ่งใ...