Connect with us

ข่าว

เร้ดแฮท จับมือ AWS ยกระดับ AI Inference ผ่านชิป Trainium และ Inferentia เพิ่มประสิทธิภาพการทำงานระดับองค์กร

Published

on

เจาะลึกเทรนด์เวอร์ชวลไลเซชันปี 2025 และอนาคต องค์กรต้องเตรียมพร้อมรับมือกับการเปลี่ยนแปลงอย่างไร เพื่อรักษาความได้เปรียบในการแข่งขัน

สำนักข่าวบริคอินโฟ – เร้ดแฮท (Red Hat) ผู้ให้บริการโซลูชันโอเพ่นซอร์สระดับโลก ประกาศขยายความร่วมมือกับ อะเมซอน เว็บ เซอร์วิส (Amazon Web Services) หรือ AWS เพื่อขับเคลื่อนการใช้งาน Generative AI (Gen AI) ในระดับองค์กร โดยมุ่งเน้นการเพิ่มประสิทธิภาพการประมวลผลผ่านชิปประมวลผลเฉพาะทางอย่าง AWS Trainium และ AWS Inferentia ความร่วมมือในครั้งนี้มีวัตถุประสงค์เพื่อช่วยให้ผู้บริหารด้านไอทีสามารถบริหารจัดการเวิร์กโหลดด้าน AI inference ได้อย่างคุ้มค่าและมีความยืดหยุ่นสูงบนระบบไฮบริดคลาวด์ โดยไม่ต้องพึ่งพาเพียงฮาร์ดแวร์รูปแบบเดิมเพียงอย่างเดียว ซึ่งสอดคล้องกับการคาดการณ์ของ IDC ที่ระบุว่าภายในปี 2570 องค์กรกว่า 40% จะหันมาใช้ชิปที่ออกแบบมาเพื่อ AI/ML โดยเฉพาะเพื่อตอบโจทย์ด้านต้นทุนและการประมวลผลที่รวดเร็วขึ้น

ความร่วมมือดังกล่าวเป็นการผสานรวมความสามารถของแพลตฟอร์มจาก เร้ดแฮท (Red Hat) เข้ากับโครงสร้างพื้นฐานคลาวด์ของ AWS โดยมีการเปิดตัว Red Hat AI Inference Server ที่ขับเคลื่อนด้วย vLLM ซึ่งรองรับการทำงานร่วมกับชิป AWS Inferentia2 และ AWS Trainium3 โดยตรง เลเยอร์การอนุมานมาตรฐานนี้จะช่วยให้การรันโมเดล Gen AI มีประสิทธิภาพต่อราคา (Price Performance) ดีกว่าอินสแตนซ์ Amazon EC2 รูปแบบปัจจุบันที่ใช้ GPU สูงถึง 30-40% ช่วยลดระยะเวลาในการตอบสนองและรองรับการขยายตัวของการนำ AI ไปใช้งานจริงในสเกลใหญ่ได้ดียิ่งขึ้น

นอกจากนี้ ทั้งสองบริษัทได้ร่วมกันพัฒนา AWS Neuron operator สำหรับ Red Hat OpenShift, Red Hat OpenShift AI และ Red Hat OpenShift Service on AWS (ROSA) เพื่อให้การรันเวิร์กโหลดด้าน AI บนระบบของ AWS เป็นไปอย่างราบรื่นและได้รับการสนับสนุนอย่างเป็นทางการ พร้อมกันนี้ยังได้เปิดตัว amazon.ai Certified Ansible Collection สำหรับ Red Hat Ansible Automation Platform เพื่อช่วยในการประสานการทำงานของบริการ AI บนระบบคลาวด์ให้มีความอัตโนมัติและจัดการได้ง่ายขึ้นในที่เดียว

ในส่วนของการขับเคลื่อนนวัตกรรมโอเพ่นซอร์ส เร้ดแฮท (Red Hat) และ AWS ได้ร่วมกันเพิ่มประสิทธิภาพให้กับปลั๊กอิน AI chip ของ AWS พร้อมส่งกลับไปยังชุมชนต้นน้ำอย่าง vLLM ซึ่งเป็นรากฐานสำคัญของโปรเจกต์ llm-d ที่เน้นการให้บริการด้านการอนุมานระดับสเกลใหญ่ โดยความเคลื่อนไหวนี้ถือเป็นการตอกย้ำกลยุทธ์ของเร้ดแฮทในการสร้างสภาพแวดล้อมที่รองรับทุกโมเดลและทุกฮาร์ดแวร์ เพื่อให้องค์กรต่าง ๆ สามารถเปลี่ยนผ่านจากการทดลอง AI ไปสู่การใช้งานจริงที่มีความยั่งยืน

Advertisement

Joe Fernandes รองประธานและผู้จัดการทั่วไปกลุ่มธุรกิจ AI ของ Red Hat กล่าวว่า “เรากำลังเสริมศักยภาพองค์กรให้สามารถปรับใช้และขยายเวิร์กโหลดด้าน AI ได้อย่างมีประสิทธิภาพและยืดหยุ่นมากยิ่งขึ้น ด้วยการทำให้ Red Hat AI Inference Server ระดับองค์กรของเรา ซึ่งพัฒนาบนเฟรมเวิร์ก vLLM ที่ล้ำสมัย สามารถทำงานร่วมกับ AI chips ของ AWS ได้ ความร่วมมือนี้ต่อยอดจากรากฐานด้านโอเพ่นซอร์สของ Red Hat โดยมีเป้าหมายเพื่อทำให้สามารถเข้าถึง Generative AI ได้ง่ายและคุ้มค่ามากขึ้นในสภาพแวดล้อมไฮบริดคลาวด์”

ขณะที่ Colin Brace รองประธาน Annapurna Labs ของ AWS ระบุว่า “องค์กรต่างต้องการโซลูชันที่มีประสิทธิภาพที่เหนือชั้น คุ้มค่าการลงทุน และมีตัวเลือกที่เหมาะสมในการดำเนินงานเพื่อใช้กับเวิร์กโหลด AI ที่มีความสำคัญต่อภารกิจหลัก AWS ได้ออกแบบชิป Trainium และ Inferentia เพื่อทำให้การอนุมานและการเทรน AI มีประสิทธิภาพสูง เข้าถึงได้ง่ายขึ้น และคุ้มค่ามากขึ้น ความร่วมมือของเรากับ Red Hat ช่วยให้ลูกค้ามีแนวทางที่ได้รับการสนับสนุนในการปรับใช้ Generative AI ในระดับองค์กร โดยผสานความยืดหยุ่นของโอเพ่นซอร์สเข้ากับโครงสร้างพื้นฐานของ AWS และตัวเร่งความเร็ว AI ที่ออกแบบมาโดยเฉพาะ”

สำหรับความพร้อมในการใช้งาน ปัจจุบัน AWS Neuron community operator เปิดให้ใช้งานแล้วบน Red Hat OpenShift OperatorHub ส่วน Red Hat AI Inference Server ที่รองรับชิป AI ของ AWS คาดว่าจะเปิดใช้งานในเวอร์ชัน Developer Preview ในเดือนมกราคม 2569 เพื่อให้เหล่านักพัฒนาได้เริ่มทดสอบและวางรากฐานการทำงานก่อนเข้าสู่การใช้งานเต็มรูปแบบต่อไป

Advertisement
Continue Reading
Advertisement