ข่าว
Red Hat AI 3 เปิดตัวแพลตฟอร์ม AI ระดับองค์กร เสริมศักยภาพ Distributed AI Inference รองรับการใช้งานจริงบนโครงสร้างไฮบริดคลาวด์
สำนักข่าวบริคอินโฟ – เร้ดแฮท (Red Hat) ผู้ให้บริการโซลูชันโอเพ่นซอร์สชั้นนำของโลก ประกาศเปิดตัว Red Hat AI 3 แพลตฟอร์ม AI ระดับองค์กรใหม่ที่รวมเอา Red Hat AI Inference Server, Red Hat Enterprise Linux AI (RHEL AI) และ Red Hat OpenShift AI เข้าไว้ด้วยกัน โดยมีเป้าหมายหลักในการลดความซับซ้อนของการอนุมาน AI ประสิทธิภาพสูง (high-performance AI inference) สำหรับการปรับใช้ในระบบขนาดใหญ่และกระจายศูนย์ (distributed AI) ซึ่งจะช่วยให้องค์กรธุรกิจสามารถนำ AI workloads ที่อยู่ในขั้นตอนการทดลองไปสู่การใช้งานจริงในระดับ production ได้ง่ายและรวดเร็วขึ้น
รายงาน “The GenAI Divide: State of AI in Business” จากโครงการ NANDA ของสถาบันเทคโนโลยีแมสซาชูเซตส์ (MIT) ชี้ให้เห็นว่าองค์กรประมาณ 95% ยังไม่เห็นผลตอบแทนทางการเงินที่วัดผลได้จากการใช้จ่ายด้าน AI ในขณะที่องค์กรกำลังเผชิญกับความท้าทายด้านความเป็นส่วนตัวของข้อมูล, การควบคุมต้นทุน, และการจัดการโมเดลที่หลากหลาย Red Hat AI 3 ถูกออกแบบมาเพื่อแก้ไขความท้าทายเหล่านี้ โดยมุ่งเน้นการมอบประสบการณ์ที่สอดคล้องและเป็นเอกภาพให้กับผู้นำด้านไอที เพื่อให้สามารถใช้ประโยชน์สูงสุดจากการลงทุนในเทคโนโลยีการประมวลผลแบบเร่งความเร็ว (accelerated computing)
แพลตฟอร์มใหม่นี้ถูกสร้างขึ้นบนมาตรฐานแบบ open standards สามารถรองรับการปรับขนาดและกระจาย AI workloads ไปยังสภาพแวดล้อมไฮบริดคลาวด์ที่มีผู้ให้บริการหลายราย และตอบโจทย์ทุกขั้นตอนของเส้นทางการนำ AI มาใช้ขององค์กร โดยรองรับโมเดลทุกประเภทที่ทำงานอยู่บน hardware accelerator ใดก็ได้ ตั้งแต่ดาต้าเซ็นเตอร์ไปจนถึงพับลิคคลาวด์, สภาพแวดล้อม sovereign AI หรือแม้แต่ edge
เน้นการอนุมาน (Inference) และรากฐาน Agentic AI
เมื่อโครงการ AI ก้าวสู่การใช้งานจริง ความสำคัญจะเปลี่ยนจากการเทรนและปรับแต่งโมเดลไปสู่ขั้นตอนการอนุมาน (inference) ซึ่งเป็นขั้นตอนของ “การนำไปใช้จริง” Red Hat AI 3 จึงให้ความสำคัญกับการอนุมานที่สามารถปรับขนาดได้และคุ้มค่าการลงทุน โดยพัฒนาต่อยอดจากโปรเจกต์โอเพ่นซอร์สที่ประสบความสำเร็จอย่าง vLLM และ llm-d ควบคู่ไปกับศักยภาพในการเพิ่มประสิทธิภาพโมเดลของ Red Hat เพื่อให้บริการ โมเดลภาษาขนาดใหญ่ (LLMs) ในระดับที่พร้อมใช้งานจริง
Red Hat OpenShift AI 3.0 ได้เปิดให้ใช้งาน llm-d เวอร์ชันพร้อมใช้งานทั่วไป ซึ่งช่วยพลิกโฉมวิธีการทำงานของ LLM บน Kubernetes เพื่อช่วยให้ผู้บริหารฝ่ายสารสนเทศใช้ประโยชน์จากฮาร์ดแวร์เร่งความเร็วได้อย่างเต็มที่ llm-d รองรับการอนุมานแบบกระจายอัจฉริยะ (intelligent distributed inference) โดยใช้ประโยชน์จากการผสานการทำงานของ Kubernetes และประสิทธิภาพของ vLLM ผสมผสานกับเทคโนโลยีโอเพ่นซอร์สอื่น ๆ เช่น Kubernetes Gateway API Inference Extension และ NVIDIA Dynamo (NIXL) KV Transfer Library
คุณสมบัติหลักของ llm-d คือการช่วย ลดต้นทุน และ ปรับปรุงเวลาในการตอบสนอง ด้วยระบบจัดตารางรันโมเดลแบบ Inference-aware และระบบให้บริการแบบแยกส่วน (disaggregated serving) นอกจากนี้ยังเพิ่มความยืดหยุ่นด้วยการรองรับการทำงานข้ามแพลตฟอร์ม (cross-platform support) เพื่อปรับใช้ LLM inference กับ hardware accelerators ที่หลากหลาย เช่น NVIDIA และ AMD
Joe Fernandes, vice president and general manager, AI Business Unit, Red Hat กล่าวว่า “เมื่อองค์กรขยายการใช้งาน AI จากขั้นตอนการทดลองไปสู่การใช้งานจริง องค์กรต้องเผชิญกับความซับซ้อน ต้นทุน และความท้าทายใหม่ ๆ ด้านการควบคุม Red Hat ได้ออกแบบ Red Hat AI 3 ให้เป็นโอเพ่นซอร์สระดับองค์กรที่ช่วยลดอุปสรรคเหล่านี้ โดยนำเสนอความสามารถใหม่ เช่น ระบบการอนุมานแบบกระจาย (distributed inference) ผ่าน llm-d และรากฐานสำหรับ agentic AI เพื่อช่วยให้ทีมไอทีสามารถใช้งาน AI รุ่นถัดไปได้อย่างมั่นใจ บนโครงสร้างพื้นฐานรูปแบบใดก็ได้ ตามแนวทางขององค์กร”
เครื่องมือครบวงจรเพื่อการทำงานร่วมกันและการพัฒนา AI Agents
Red Hat AI 3 มอบประสบการณ์ที่ครบวงจรเพื่อส่งเสริมความร่วมมือระหว่างทีมวิศวกรแพลตฟอร์มและวิศวกร AI ในการขับเคลื่อนกลยุทธ์ด้าน AI ความสามารถใหม่ ๆ ที่เพิ่มเข้ามาประกอบด้วย:
- Model as a Service (MaaS): ช่วยให้องค์กรสามารถเป็นผู้ให้บริการโมเดลของตนเอง (self-managed MaaS) โดยทีม IT สามารถให้บริการโมเดลกลาง (shared models) แก่ทีมพัฒนา AI และแอปพลิเคชันต่าง ๆ ได้แบบ on-demand ภายในโครงสร้างพื้นฐานองค์กร
- AI hub: ศูนย์กลางที่รวบรวมแคตตาล็อกโมเดล Gen AI ที่คัดสรรภายในองค์กร และระบบ Registry เพื่อจัดการไลฟ์ไซเคิลของโมเดล
- Gen AI studio: สภาพแวดล้อมที่ให้วิศวกร AI ได้ลงมือปฏิบัติจริงในการโต้ตอบกับโมเดลและสร้างต้นแบบแอปพลิเคชัน Gen AI ใหม่ได้อย่างรวดเร็ว ด้วย playground ในตัวเพื่อทดลองโมเดล, ทดสอบคำสั่ง (prompts) และปรับแต่งพารามิเตอร์ให้เหมาะสม
นอกจากนี้ Red Hat OpenShift AI 3.0 ยังวางรากฐานสำหรับระบบ agentic AI ที่สามารถขยายขนาดได้อย่างต่อเนื่อง ด้วยการนำเสนอ Unified API layer ที่พัฒนาบน Llama Stack เพื่อเร่งกระบวนการสร้างและปรับใช้ agent ให้สอดคล้องกับมาตรฐานอุตสาหกรรม และเป็นหนึ่งในผู้บุกเบิกการใช้งาน Model Context Protocol (MCP) ซึ่งเป็นมาตรฐานใหม่ที่ช่วยให้การสื่อสารระหว่างโมเดล AI และเครื่องมือภายนอกเป็นไปอย่างมีประสิทธิภาพ
Red Hat AI 3 ยังได้แนะนำชุดเครื่องมือใหม่สำหรับการปรับแต่งโมเดล ที่ต่อยอดจากความสามารถของ InstructLab มาพร้อมไลบราลี Python เฉพาะทางเพื่อความยืดหยุ่นในการควบคุมและปรับแต่งการทำงานของโมเดล รวมถึงมีการรวม evaluation hub เข้ามาในระบบ เพื่อช่วยให้วิศวกร AI สามารถติดตามและตรวจสอบความถูกต้องของผลลัพธ์ได้อย่างมีประสิทธิภาพ
