ข่าว
การ์ทเนอร์เตือน: ข้อมูลรั่วไหลจาก GenAI ข้ามชาติ จะพุ่งถึง 40% ในปี 2570
สำนักข่าวบริคอินโฟ – การ์ทเนอร์ อิงค์ คาดการณ์ว่าภายในปี พ.ศ. 2570 ปัญหาข้อมูลรั่วไหลที่เกี่ยวข้องกับ AI มากกว่า 40% จะเกิดจากการใช้ Generative AI (GenAI) ข้ามประเทศอย่างไม่เหมาะสม ปัญหานี้เกิดจากความนิยมในการใช้ GenAI ที่เติบโตอย่างรวดเร็วเกินกว่าแนวทางการกำกับดูแลข้อมูลและมาตรการรักษาความปลอดภัย
การขาดมาตรฐาน AI ที่สอดคล้องกันทั่วโลก ทำให้องค์กรต้องพัฒนากลยุทธ์เฉพาะในระดับภูมิภาค และยังจำกัดความสามารถในการขยายตลาดและการใช้ประโยชน์จาก AI ได้ไม่เต็มที่
Joerg Fritsch รองประธานนักวิเคราะห์ของการ์ทเนอร์ กล่าวว่า “การถ่ายโอนข้อมูลข้ามประเทศโดยไม่ตั้งใจมักเกิดขึ้นเนื่องจากขาดการกำกับดูแลที่ไม่เพียงพอ โดยเฉพาะเมื่อมีการรวม GenAI เข้าไว้ในผลิตภัณฑ์ที่มีอยู่ โดยไม่มีคำอธิบายหรือการประกาศที่ชัดเจน องค์กรต่าง ๆ เริ่มสังเกตเห็นการเปลี่ยนแปลงในเนื้อหาที่พนักงานสร้างขึ้นผ่านการใช้เครื่องมือ GenAI แม้เครื่องมือเหล่านี้จะสามารถใช้ในแอปพลิเคชันทางธุรกิจที่ได้รับอนุมัติ แต่ก็มีความเสี่ยงด้านความปลอดภัยหากมีการป้อนคำสั่งที่ละเอียดอ่อนไปยังเครื่องมือ AI และ APIs ที่โฮสต์ตั้งอยู่ในตำแหน่งที่ไม่สามารถระบุได้”
ช่องว่างของการกำหนดมาตรฐาน AI ทั่วโลกนำไปสู่การดำเนินงานที่ไม่มีประสิทธิภาพ องค์กรต้องลงทุนด้านการกำกับดูแล AI ขั้นสูงและเพิ่มความปลอดภัยเพื่อปกป้องข้อมูลที่ละเอียดอ่อนพร้อมปฏิบัติตามกฎระเบียบ นอกจากนี้ การ์ทเนอร์ยังคาดการณ์ว่าภายในปี พ.ศ. 2570 การกำกับดูแล AI จะกลายเป็นข้อกำหนดของกฎหมายและข้อบังคับ AI ที่มีอำนาจบังคับใช้ทั่วโลก
เพื่อลดความเสี่ยงจากเหตุการณ์รั่วไหลของข้อมูล AI โดยเฉพาะจากการใช้และถ่ายโอนข้อมูล GenAI ข้ามประเทศอย่างไม่เหมาะสม การ์ทเนอร์แนะนำกลยุทธ์การดำเนินการสำหรับองค์กรไว้ ดังนี้:
- เพิ่มประสิทธิภาพการกำกับดูแลด้านข้อมูล
- จัดตั้งคณะกรรมการกำกับดูแล
- เสริมสร้างความปลอดภัยข้อมูล
- ลงทุนในผลิตภัณฑ์ TRiSM
Fritsch กล่าวเพิ่มเติมว่า “องค์กรที่ไม่สามารถนำโมเดลการกำกับดูแลและการควบคุม AI มาใช้ได้อย่างบูรณาการ อาจเสียเปรียบในการแข่งขันได้ โดยเฉพาะองค์กรที่กำลังขาดทรัพยากรเพื่อการขยายกรอบการกำกับดูแลข้อมูลที่มีอยู่ให้ทันการเปลี่ยนแปลง” และ “ความซับซ้อนของการจัดการการไหลเวียนข้อมูลและการรักษาคุณภาพตามนโยบาย AI ในแต่ละประเทศนั้นอาจทำให้การดำเนินงานไม่มีประสิทธิภาพ โดยองค์กรต้องลงทุนด้านการกำกับดูแล AI ขั้นสูงและเพิ่มความปลอดภัยเพื่อปกป้องข้อมูลที่ละเอียดอ่อนพร้อมปฏิบัติตามกฎระเบียบ และความจำเป็นนี้อาจผลักดันให้ตลาดบริการด้านความปลอดภัย การกำกับดูแล และการปฏิบัติตามกฎระเบียบของ AI เติบโตยิ่งขึ้น รวมถึงโซลูชันเทคโนโลยีที่ช่วยเพิ่มความโปร่งใสและการควบคุมกระบวนการทำงานของ AI”
