การ์ทเนอร์ ชี้ “AI ผู้พิทักษ์” จ่อคุมตลาด Agentic AI 15%

การ์ทเนอร์ ชี้ “AI ผู้พิทักษ์” จ่อคุมตลาด Agentic AI 15%

การ์ทเนอร์ คาดการณ์ภายในปี 2573 “Guardian Agents” หรือ AI ผู้พิทักษ์ จะกลายเป็นเทคโนโลยีความปลอดภัยที่จำเป็นอย่างยิ่ง โดยจะเข้าครอบครองส่วนแบ่งตลาด Agentic AI ถึง 10-15% เพื่อสร้างความน่าเชื่อถือและจัดการความเสี่ยงที่เพิ่มขึ้นจากการใช้ AI ที่ซับซ้อนและทำงานได้เอง ชี้องค์กรต้องเร่งปรับตัวรับมือภัยคุกคามรูปแบบใหม่ที่มนุษย์อาจตามไม่ทัน

กรุงเทพฯ, ประเทศไทย – ท่ามกลางกระแสการนำปัญญาประดิษฐ์ (AI) มาปรับใช้อย่างก้าวกระโดดในภาคธุรกิจ การ์ทเนอร์ (Gartner, Inc.) บริษัทวิจัยและให้คำปรึกษาชั้นนำของโลก ได้เปิดเผยมุมมองที่น่าสนใจเกี่ยวกับอนาคตของเทคโนโลยี AI โดยคาดการณ์ว่าภายในปี พ.ศ. 2573 หรือในอีก 5 ปีข้างหน้า เทคโนโลยีความปลอดภัยเฉพาะทางที่เรียกว่า “Guardian Agents” จะเข้ามามีบทบาทสำคัญและยึดครองส่วนแบ่งในตลาด Agentic AI ได้ถึง 10-15% การคาดการณ์นี้สะท้อนถึงความจำเป็นเร่งด่วนในการสร้าง “เกราะป้องกัน” ให้กับระบบ AI ที่นับวันจะมีความสามารถในการตัดสินใจและดำเนินการได้ด้วยตนเองมากขึ้น

ทำความรู้จัก Guardian Agents: ผู้พิทักษ์ในโลก AI

Guardian Agents คือ เทคโนโลยีที่ใช้ AI เป็นแกนหลักในการพัฒนา ถูกออกแบบมาเพื่อทำหน้าที่สนับสนุนและทำงานร่วมกับ AI อื่น ๆ โดยมีเป้าหมายหลักเพื่อสร้างความน่าเชื่อถือและความปลอดภัย อาจกล่าวได้ว่า Guardian Agents คือ “ผู้ช่วย AI” ที่คอยกำกับดูแล AI อีกทอดหนึ่ง ทำหน้าที่หลากหลาย ตั้งแต่การตรวจสอบความถูกต้องของเนื้อหาที่ AI สร้างขึ้น การติดตามและวิเคราะห์พฤติกรรมการทำงานของ AI ไปจนถึงการเป็นตัวแทน (Agents) ที่สามารถทำงานได้ทั้งแบบกึ่งอัตโนมัติและอัตโนมัติเต็มรูปแบบ

ความสามารถที่โดดเด่นของ Guardian Agents คือการวางแผนและดำเนินงานตามเป้าหมายที่กำหนดไว้ล่วงหน้า พร้อมทั้งสามารถปรับเปลี่ยนแนวทางหรือเข้าแทรกแซงเพื่อป้องกันการกระทำที่อาจเป็นอันตรายหรือผิดพลาดของ AI ตัวอื่น ๆ ได้

ความจำเป็นของ “Guardrails” ในยุค Agentic AI เฟื่องฟู

Agentic AI หรือ AI ที่มีความสามารถในการดำเนินการและตัดสินใจได้เองอย่างอิสระ กำลังกลายเป็นเทคโนโลยีที่องค์กรต่าง ๆ ให้ความสนใจอย่างมาก อย่างไรก็ตาม การเติบโตนี้มาพร้อมกับความเสี่ยงที่ซับซ้อนขึ้น

ข้อมูลจากผลสำรวจของนักวิเคราะห์การ์ทเนอร์ที่จัดทำผ่านเว็บบินาร์เมื่อวันที่ 19 พฤษภาคม 2568 ซึ่งมีผู้บริหารระดับ CIO และหัวหน้าฝ่ายไอทีเข้าร่วม 147 ราย พบว่าการนำ Agentic AI ไปใช้งานยังอยู่ในช่วงเริ่มต้น โดย 24% ของผู้ตอบแบบสำรวจระบุว่าได้นำ AI Agents มาปรับใช้ในองค์กรแล้วเพียงไม่กี่ตัว (น้อยกว่า 12 ตัว) และมีเพียง 4% ที่ใช้งานมากกว่า 12 ตัว

ขณะเดียวกัน ผลสำรวจยังชี้ให้เห็นถึงแนวโน้มที่ชัดเจน โดย 50% ของผู้ตอบแบบสอบถามยอมรับว่ากำลังอยู่ในช่วงศึกษาและทดลองใช้เทคโนโลยีนี้ และอีก 17% วางแผนที่จะเริ่มนำมาปรับใช้ภายในสิ้นปี พ.ศ. 2569 ตัวเลขเหล่านี้บ่งชี้ว่าในอนาคตอันใกล้ จำนวนของ AI Agents ในองค์กรจะเพิ่มขึ้นอย่างมีนัยสำคัญ ซึ่งนำไปสู่ความต้องการระบบควบคุมความน่าเชื่อถือ ความเสี่ยง และความปลอดภัยแบบอัตโนมัติ และนี่คือจุดที่ Guardian Agents จะเข้ามามีบทบาทสำคัญ

คุณอาวีวาห์ ลิทาน (Avivah Litan) รองประธานและนักวิเคราะห์ของการ์ทเนอร์ ได้ให้ทัศนะไว้อย่างน่าสนใจว่า “หากไม่ได้ควบคุมและป้องกันด้วยระบบความปลอดภัยหรือ Guardrails อย่างเหมาะสมแล้ว Agentic AI จะพาองค์กรไปสู่ผลลัพธ์ที่ไม่พึงประสงค์ได้”

เธอกล่าวเสริมว่า “Guardian Agents จะอาศัยความสามารถที่หลากหลายของ Agentic AI และเทคโนโลยีที่ขับเคลื่อนด้วย AI มาประเมินแบบจำลองที่ใช้ AI เป็นพื้นฐาน เพื่อใช้ดูแลและจัดการความสามารถทั้งหมดของ Agent โดยสร้างสมดุลระหว่างการตัดสินใจขณะทำงานร่วมกับการจัดการความเสี่ยง”

การ์ทเนอร์

ความเสี่ยงทวีคูณตามพลังของ AI ที่เพิ่มขึ้น

ยิ่ง AI มีความสามารถและถูกใช้งานอย่างแพร่หลายมากเท่าไร ความเสี่ยงก็ยิ่งเพิ่มขึ้นเป็นเงาตามตัว จากผลสำรวจอีกส่วนหนึ่งในเว็บบินาร์เดียวกัน ซึ่งมีผู้ตอบแบบสอบถาม 125 ราย ระบุว่า 52% นำ AI Agents ไปใช้ในงานที่เกี่ยวข้องกับฟังก์ชันการบริหารจัดการภายในองค์กรเป็นหลัก เช่น งานด้านไอที ทรัพยากรบุคคล และการบัญชี ขณะที่ 23% เน้นใช้งานกับฟังก์ชันที่เกี่ยวข้องกับลูกค้าภายนอก

เมื่อการใช้งาน AI Agents เติบโตอย่างต่อเนื่อง ภัยคุกคามรูปแบบใหม่ ๆ ก็เกิดขึ้นตามมา ซึ่งส่งผลกระทบโดยตรงต่อการทำงานของ AI ได้แก่:

  • การจัดการข้อมูลขาเข้าที่เป็นภัย: AI อาจถูกหลอกด้วยชุดข้อมูลปลอมหรือถูกตีความผิดพลาด ทำให้การตัดสินใจและการดำเนินการคลาดเคลื่อนไปจากเป้าหมาย
  • การแฮ็กและการละเมิดข้อมูลประจำตัว: หากผู้ไม่หวังดีสามารถเข้าถึงและควบคุม AI ได้ อาจนำไปสู่การขโมยข้อมูลที่ละเอียดอ่อนหรือสั่งการให้ AI ทำงานที่เป็นอันตราย
  • การโต้ตอบกับแหล่งข้อมูลปลอม: AI Agents ที่มีปฏิสัมพันธ์กับเว็บไซต์หรือแหล่งข้อมูลที่ผิดกฎหมาย อาจถูกชักจูงให้ดำเนินการที่เป็นอันตรายต่อองค์กรได้
  • พฤติกรรมที่เบี่ยงเบน: ข้อบกพร่องภายในหรือปัจจัยกระตุ้นจากภายนอก อาจทำให้ AI แสดงพฤติกรรมที่ไม่ได้ตั้งใจ ซึ่งอาจสร้างความเสียหายต่อชื่อเสียงขององค์กรและการดำเนินงานต้องหยุดชะงัก

เมื่อมนุษย์ตามไม่ทัน ถึงเวลาของระบบความปลอดภัยอัตโนมัติ

คุณลิทานได้เน้นย้ำถึงความจำเป็นในการเปลี่ยนผ่านจากการกำกับดูแลโดยมนุษย์ไปสู่ระบบอัตโนมัติ “การเร่งตัวและการเพิ่มขึ้นอย่างรวดเร็วของตัวแทนด้าน AI ทำให้จำเป็นต้องมีการปรับเปลี่ยนจากเดิมที่ให้มนุษย์เป็นผู้ดูแล” เธอกล่าว “เมื่อองค์กรเดินหน้าไปสู่ระบบ Multi-Agent ที่ซับซ้อน มีการสื่อสารกันด้วยความเร็วสูง มนุษย์ไม่สามารถไล่ตามข้อผิดพลาดและกิจกรรมที่เป็นอันตรายได้ทัน บวกกับภูมิทัศน์ภัยคุกคามที่ขยายเพิ่มขึ้นนี้ องค์กรมีความจำเป็นอย่างเร่งด่วนสำหรับการนำระบบ Guardian Agents ที่สามารถช่วยดูแล ควบคุม และเพิ่มความปลอดภัยอัตโนมัติในแอปพลิเคชัน AI และ Agent อื่น ๆ”

บทบาท 3 ด้านหลักของ Guardian Agents

การ์ทเนอร์แนะนำให้ผู้บริหาร CIO ผู้นำด้านความปลอดภัย และผู้นำด้าน AI พิจารณาการใช้งาน Guardian Agents ใน 3 บทบาทหลัก เพื่อรักษาความปลอดภัยและปกป้องการทำงานร่วมกับ AI

  1. ผู้ตรวจสอบ (Reviewers): ทำหน้าที่ระบุและตรวจสอบผลลัพธ์และเนื้อหาที่ AI สร้างขึ้น เพื่อให้แน่ใจว่ามีความถูกต้องและอยู่ในการใช้งานที่ยอมรับได้
  2. ผู้สังเกตการณ์ (Monitors): คอยสังเกตและติดตามการกระทำของ AI รวมถึงการดำเนินงานแบบอัตโนมัติ (Agentic) เพื่อให้มนุษย์หรือ AI อื่น ๆ สามารถเข้ามาดูแลตรวจสอบได้
  3. ผู้พิทักษ์ (Protectors): เข้าไปปรับเปลี่ยนหรือป้องกันการกระทำและสิทธิ์ของ AI และ Agent อื่น ๆ โดยใช้การกระทำแบบอัตโนมัติในระหว่างการดำเนินงานจริง

บทบาททั้งสามนี้จะช่วยจัดการการโต้ตอบและค้นหาความผิดปกติที่อาจเกิดขึ้นได้ในทุกรูปแบบการใช้งาน และถือเป็นกุญแจสำคัญในการผนวกรวมประสิทธิภาพด้านความปลอดภัยเข้ากับการทำงานของ AI สอดคล้องกับการคาดการณ์ของการ์ทเนอร์ที่ว่า 70% ของแอปพลิเคชัน AI จะใช้ระบบ Multi-Agent ภายในปี พ.ศ. 2571

โดยสรุป การมาถึงของ Guardian Agents ไม่ใช่แค่เพียงเทรนด์ใหม่ แต่เป็นวิวัฒนาการที่จำเป็นสำหรับโลกที่ขับเคลื่อนด้วย AI มากขึ้น องค์กรที่สามารถนำเทคโนโลยีผู้พิทักษ์นี้มาปรับใช้ได้อย่างมีประสิทธิภาพ จะไม่เพียงแต่สามารถลดความเสี่ยงและป้องกันภัยคุกคามได้เท่านั้น แต่ยังสามารถปลดล็อกศักยภาพของ Agentic AI ได้อย่างเต็มที่และน่าเชื่อถือ สร้างความได้เปรียบในการแข่งขันทางธุรกิจในอนาคต

#AIผู้พิทักษ์ #GuardianAgents #AgenticAI #ความปลอดภัยAI #Gartner #การ์ทเนอร์ #เทรนด์AI #เศรษฐกิจดิจิทัล #ความเสี่ยงAI #ปัญญาประดิษฐ์ #Cybersecurity

Related Posts