สำนักข่าวหุ้นอินไซด์(19 ธันวาคม 2568)---------การ์ทเนอร์ อิงก์ บริษัทที่ให้ข้อมูลเชิงลึกด้านธุรกิจและเทคโนโลยี ชี้จุดบอดสำคัญที่เกิดจากความเสี่ยงจากการนำ Generative AI มาใช้งาน ที่ผู้บริหารไอทีมักมองข้ามและส่งผลกระทบตามมาโดยไม่ได้ตั้งใจ โดยผู้บริหาร CIO ต้องให้ความสำคัญ เร่งแก้ไขความท้าทายที่ซ่อนเร้นเหล่านี้ในแบบเชิงรุก เพื่อให้มั่นใจว่าจะได้รับคุณค่าจากการนำ GenAI มาใช้งาน และหลีกเลี่ยงความล้มเหลวในโครงการ AI
อรุณ จันทรเศกการัน (Arun Chandrasekaran) รองประธานนักวิเคราะห์การ์ทเนอร์ กล่าวว่า "เทคโนโลยีและเทคนิคการใช้งานของ GenAI กำลังพัฒนารุดหน้าไปอย่างรวดเร็วอย่างที่ไม่เคยเกิดมาก่อน พร้อม ๆ กับความคาดหวังที่สูงลิ่วขององค์กรผู้ใช้ นั่นทำให้ผู้บริหาร CIO ต้องเผชิญความท้าทายของการเป็นผู้นำท่ามกลางภูมิทัศน์ที่เปลี่ยนแปลงตลอดเวลานี้"
แม้องค์กรต่าง ๆ จะให้ความสำคัญกับความท้าทายเร่งด่วนของ GenAI อาทิ คุณค่าทางธุรกิจ ความปลอดภัย และความพร้อมของข้อมูล แต่พวกเขาอาจมองข้ามจุดบอดสำคัญเหล่านี้ เนื่องจากเป็นผลกระทบในระดับรอง ๆ ลงมาที่ไม่ค่อยปรากฏให้เห็นอย่างชัดเจนตั้งแต่แรก โดยความเสี่ยงอย่าง Shadow AI, หนี้ทางเทคนิค (Technical Debt), การเสื่อมถอยของทักษะ (Skills Erosion), ความต้องการด้านอธิปไตยข้อมูล (Data Sovereignty), ปัญหาการทำงานร่วมกัน (Interoperability Issues) และการผูกติดกับผู้ให้บริการรายเดียว (Vendor Lock-In) ล้วนเป็นคลื่นใต้น้ำที่บดบัง และบ่อนทำลายความสำเร็จในระยะยาว
การ์ทเนอร์ คาดการณ์ว่าภายในปี 2573 จุดบอดเหล่านี้จะสร้างเส้นแบ่งระหว่างองค์กรที่นำ AI มาใช้ได้อย่างปลอดภัยและมีกลยุทธ์ กับองค์กรที่ติดกับดัก ล้าหลัง หรือถูกรบกวนจากภายใน
เพื่อรักษาขีดความสามารถในการแข่งขันและความยืดหยุ่น ผู้บริหาร CIO ต้องจัดการทั้งความท้าทายที่มองเห็นได้และความเสี่ยงที่ซ่อนเร้นอยู่ในการนำ GenAI มาใช้ พร้อมจัดลำดับความสำคัญเพื่อแก้ไขจุดบอดเหล่านี้ได้อย่างเหมาะสม ดังนี้:
การปะทุของการแอบใช้ AI ในทางลับ ๆ (Explosion of Shadow AI)
ผลสำรวจการ์ทเนอร์ของผู้นำด้านความปลอดภัยทางไซเบอร์จำนวน 302 ราย ระหว่างเดือนมีนาคม-พฤษภาคม ปี 2568 เผยว่า 69% ขององค์กรสงสัยหรือมีหลักฐานว่าพนักงานกำลังใช้ GenAI สาธารณะที่ต้องห้าม
การนำเครื่องมือ AI ที่ไม่ได้รับอนุญาตมาใช้อย่างรวดเร็วอาจนำไปสู่ผลกระทบทั้งที่มองเห็นและมองไม่เห็น เช่น การละเมิดทรัพย์สินทางปัญญา การเปิดเผยข้อมูล และความเสี่ยงด้านความปลอดภัยที่เพิ่มขึ้น การ์ทเนอร์คาดการณ์ว่า ภายในปี 2573 มากกว่า 40% ขององค์กรจะเผชิญเหตุการณ์ด้านความปลอดภัยหรือการปฏิบัติตามข้อกำหนดที่เชื่อมโยงกับ Shadow AI ที่ไม่ได้รับอนุญาต
"เพื่อจัดการกับความเสี่ยงเหล่านี้ CIO ควรกำหนดนโยบายสำหรับการใช้เครื่องมือ AI ทั่วทั้งองค์กรที่ชัดเจนเพื่อดำเนินการตรวจสอบกิจกรรม Shadow AI เป็นประจำ และบูรณาการการประเมินความเสี่ยง GenAI เข้ากับกระบวนการประเมินและตรวจสอบซอฟต์แวร์บริการ (SaaS Assessment Processes) เพื่อให้แน่ใจว่าตอบโจทย์ธุรกิจ ทั้งด้านประสิทธิภาพ ความปลอดภัย การใช้งาน และการปฏิบัติตามข้อกำหนด" อรุณกล่าวเพิ่มเติม
หนี้ทางเทคนิคจาก AI (AI Technical Debt)
การ์ทเนอร์คาดการณ์ว่า ภายในปี 2573 องค์กร 50% จะเผชิญกับการอัปเกรด AI ที่ล่าช้าและ/หรือต้นทุนการบำรุงรักษาที่เพิ่มขึ้นเนื่องจากหนี้ทางเทคนิคของ GenAI ที่ไม่ได้รับการจัดการ
อรุณให้ความเห็นเสริมว่า "องค์กรต่าง ๆ ตื่นเต้นกับความเร็วในการตอบสนองของ GenAI แต่ด้วยต้นทุนที่สูงลิ่วในการบำรุงรักษา แก้ไข หรือปรับเปลี่ยนสิ่งที่ AI สร้างขึ้น เช่น โค้ด เนื้อหา และการออกแบบ อาจกัดกร่อนผลตอบแทนที่ได้จากการลงทุนตามที่ GenAI สัญญาไว้ ดังนั้นการจัดทำมาตรฐานที่ชัดเจนสำหรับการตรวจสอบและจัดทำเอกสารสินทรัพย์ที่ AI สร้างขึ้น และติดตามตัวชี้วัดหนี้สินทางเทคนิคในแดชบอร์ด IT จะช่วยให้องค์กรสามารถดำเนินการได้แบบเชิงรุกเพื่อป้องกันการหยุดชะงักที่มีค่าใช้จ่ายสูง"
ความต้องการด้านอธิปไตยข้อมูลและ AI ที่เพิ่มขึ้น (Rising Demand for Data and AI Sovereignty)
การ์ทเนอร์คาดการณ์ว่า ภายในปี 2571 รัฐบาล 65% ทั่วโลกจะนำข้อกำหนดด้านอธิปไตยทางเทคโนโลยีมาใช้เพื่อเพิ่มความเป็นอิสระและป้องกันการแทรกแซงด้านกฎระเบียบจากต่างแดน
ข้อจำกัดด้านกฎระเบียบเกี่ยวกับการแบ่งปันข้อมูลหรือใช้โมเดลการแบ่งปันข้อมูลแบบข้ามประเทศ (Cross-Border Data) สามารถชะลอการปรับใช้ AI ทั่วทั้งองค์กร เพิ่มต้นทุนรวมของการเป็นเจ้าของระบบไอทีต้นทุนการเป็นเจ้าของทั้งหมด (Total cost of Ownership หรือ TCO) และส่งผลให้ได้ผลลัพธ์ที่ไม่เหมาะสม
เพื่อจัดการกับความท้าทายเหล่านี้ CIO ต้องสร้างอธิปไตยข้อมูล (Data Sovereignty) ใส่เข้าไปในกลยุทธ์ AI ตั้งแต่เริ่มต้น โดยการให้ทีมกฎหมายเข้ามามีส่วนร่วมตั้งแต่เนิ่น ๆ และจัดลำดับความสำคัญของผู้ให้บริการที่ตอบสนองความต้องการด้านอธิปไตยข้อมูลและ AI
การเสื่อมถอยของทักษะ (Skills Erosion)
การพึ่งพา AI มากเกินไปอาจกัดกร่อนความเชี่ยวชาญ การตัดสินใจ และความรู้โดยนัยของมนุษย์ที่มีความสำคัญ ซึ่งไม่สามารถถ่ายทอดหรือทดแทนได้ง่าย ๆ โดยการเสื่อมถอยของทักษะนี้เกิดขึ้นอย่างค่อยเป็นค่อยไปและมักไม่มีใครสังเกตเห็น ดังนั้นผู้บริหาร CIO อาจไม่รับรู้ถึงความเสี่ยงจนกว่าองค์กรจะมีปัญหาในการทำงานเมื่อไม่ได้ใช้งาน AI หรือเมื่อ AI เกิดการล้มเหลวเป็นกรณีพิเศษและต้องใช้สัญชาตญาณมนุษย์เข้ามาช่วย
"เพื่อป้องกันการสูญเสียความรู้และความสามารถขององค์กรไปเรื่อย ๆ องค์กรควรระบุว่าการตัดสินใจและงานที่เกิดจากฝีมือของมนุษย์นั้นมีความจำเป็นในด้านใด และออกแบบโซลูชัน AI เพื่อเสริม ไม่ใช่มาแทนที่ทักษะเหล่านี้" อรุณกล่าว
การผูกติดกับระบบนิเวศและทำงานกับผู้ให้บริการเดียว (Ecosystem Lock-In and Interoperability)
องค์กรที่มุ่งมั่นนำศักยภาพ GenAI มาใช้ประโยชน์ในวงกว้าง มักเลือกผู้ให้บริการเพียงรายเดียวเพื่อความรวดเร็วและความง่าย ซึ่งการพึ่งพาเชิงลึกนี้ส่งผลกระทบต่อความคล่องตัวทางเทคนิคและอำนาจในการต่อรองเจรจาเกี่ยวกับด้านราคา เงื่อนไข หรือระดับการให้บริการในอนาคต
ผู้บริหาร CIO จำนวนมากมักประเมินความเชื่อมโยงระหว่างข้อมูล โมเดล หรือเวิร์กโฟลว์การทำงานต่ำไป และยึดติดกับ API ที่ออกแบบมาเฉพาะจากผู้ให้บริการ ไม่ว่าจะเป็นพื้นที่จัดเก็บข้อมูล (Data Leaks) และเครื่องมือที่มีบนแพลตฟอร์ม (Platform Tools)
"การจัดลำดับความสำคัญของมาตรฐานเปิด API และสถาปัตยกรรมแบบโมดูลาร์เพื่อออกแบบชุดเทคโนโลยี AI จะช่วยให้องค์กรสามารถหลีกเลี่ยงการผูกติดกับผู้ให้บริการรายใดรายหนึ่งมากจนเกินไป นอกจากนี้ผู้บริหาร CIO ต้องสร้างมาตรฐานการทำงานร่วมกันในโครงการนำร่อง GenAI และมีการประเมินผล" อรุณกล่าว