Nutanix Enterprise AI provides an easy-to-use, unified generative AI experience on-premises, at the edge, and now in public clouds
Nutanix (NASDAQ: NTNX), a leader in hybrid multicloud computing, today announced that it extended the company’s AI infrastructure platform with a new cloud native offering, Nutanix Enterprise AI (NAI), that can be deployed on any Kubernetes platform, at the edge, in core data centers, and on public cloud services like AWS EKS, Azure AKS, and Google GKE. The NAI offering delivers a consistent hybrid multicloud operating model for accelerated AI workloads, enabling organizations to leverage their models and data in a secure location of their choice while improving return on investment (ROI). Leveraging NVIDIA NIM for optimized performance of foundation models, Nutanix Enterprise AI helps organizations securely deploy, run, and scale inference endpoints for large language models (LLMs) to support the deployment of generative AI (GenAI) applications in minutes, not days or weeks.
Generative AI is an inherently hybrid workload, with new applications often built in the public cloud, fine-tuning of models using private data occurring on-premises, and inferencing deployed closest to the business logic, which could be at the edge, on-premises or in the public cloud. This distributed hybrid GenAI workflow can present challenges for organizations concerned about complexity, data privacy, security, and cost.
Nutanix Enterprise AI provides a consistent multicloud operating model and a simple way to securely deploy, scale, and run LLMs with NVIDIA NIM optimized inference microservices as well as open foundation models from Hugging Face. This enables customers to stand up enterprise GenAI infrastructure with the resiliency, day 2 operations, and security they require for business-critical applications, on-premises or on AWS Elastic Kubernetes Service (EKS), Azure Managed Kubernetes Service (AKS), and Google Kubernetes Engine (GKE).
Additionally, Nutanix Enterprise AI delivers a transparent and predictable pricing model based on infrastructure resources, which is important for customers looking to maximize ROI from their GenAI investments. This is in contrast to hard-to-predict usage or token-based pricing.
Nutanix Enterprise AI is a component of Nutanix GPT-in-a-Box 2.0. GPT-in-a-Box also includes Nutanix Cloud Infrastructure, Nutanix Kubernetes Platform, and Nutanix Unified Storage along with services to support customer configuration and sizing needs for on-premises training and inferencing. For customers looking to deploy in public cloud, Nutanix Enterprise AI can be deployed in any Kubernetes environment but is operationally consistent with on-premises deployments.
“With Nutanix Enterprise AI, we’re helping our customers simply and securely run GenAI applications on-premises or in public clouds. Nutanix Enterprise AI can run on any Kubernetes platform and allows their AI applications to run in their secure location, with a predictable cost model,” said Thomas Cornely, SVP, Product Management, Nutanix.
Nutanix Enterprise AI can be deployed with the NVIDIA full-stack AI platform and is validated with the NVIDIA AI Enterprise software platform, including NVIDIA NIM, a set of easy-to-use microservices designed for secure, reliable deployment of high-performance AI model inferencing. Nutanix-GPT-in-a-Box is also an NVIDIA-Certified System, also ensuring reliability of performance.
“Generative AI workloads are inherently hybrid, with training, customization, and inference occurring across public clouds, on-premises systems, and edge locations,” said Justin Boitano, vice president of enterprise AI at NVIDIA. “Integrating NVIDIA NIM into Nutanix Enterprise AI provides a consistent multicloud model with secure APIs, enabling customers to deploy AI across diverse environments with the high performance and security needed for business-critical applications.”
Nutanix Enterprise AI can help customers:
- Address AI skill shortages. Simplicity, choice, and built-in features mean IT admins can be AI admins, accelerating AI development by data scientists and developers adapting quickly using the latest models and NVIDIA accelerated computing.
- Remove barriers to building an AI-ready platform. Many organizations looking to adopt GenAI struggle with building the right platform to support AI workloads, including maintaining consistency across their on-premises infrastructure and multiple public clouds. Nutanix Enterprise AI addresses this with a simple UI-driven workflow that can help customers deploy and test LLM inference endpoints in minutes, offering customer choice with support for NVIDIA NIM microservices which run anywhere, ensuring optimized model performance across cloud and on prem environments. Hugging Face and other model standards are also supported. Additionally, native integration with Nutanix Kubernetes Platform keeps alignment with the ability to leverage the entire Nutanix Cloud Platform or provide customers with the option to run on any Kubernetes runtime, including AWS EKS, Azure AKS, or Google Cloud GKE with NVIDIA accelerated computing.
- Mitigate data privacy and security concerns. Helping mitigate privacy and security risks is built into Nutanix Enterprise AI by enabling customers to run models and data on compute resources they control. Additionally, Nutanix Enterprise AI delivers an intuitive dashboard for troubleshooting, observability, and utilization of resources used for LLMs, as well as quick and secure role-based access controls (RBAC) to ensure LLM accessibility is controllable and understood. Organizations requiring hardened security will also be able to deploy in air-gapped or dark-site environments.
- Bring enterprise infrastructure to GenAI workloads. Customers running Nutanix Cloud Platform for business-critical applications can now bring the same resiliency, Day 2 operations, and security to GenAI workloads for an enterprise infrastructure experience.
Key use cases for customers leveraging Nutanix Enterprise AI include: enhancing customer experience with GenAI through analysis of customer feedback and documents; accelerating code and content creation by leveraging co-pilots and intelligent document processing; leveraging fine-tuning models on domain-specific data to accelerate code and content generation; strengthening security, including leveraging AI models for fraud detection, threat detection, alert enrichment, and automatic policy creation; and improving analytics by leveraging fine-tuned models on private data.
Nutanix Enterprise AI, running on-premises, at the edge or in public cloud, and Nutanix GPT-in-a-Box 2.0 are currently available to customers. For more information, please visit Nutanix.com/enterprise-ai.
Supporting Quotes:
- “Thanks to the deep collaboration between the Nutanix and Hugging Face teams, customers of Nutanix Enterprise AI are able to seamlessly deploy the most popular open models in an easy to use, fully tested stack – now also on public clouds,” said Jeff Boudier, Head of Product at Hugging Face
- “By providing a consistent experience from the enterprise to public cloud, Nutanix Enterprise AI aims to provide a user-friendly infrastructure platform to support organizations at every step of their AI journey, from public cloud to the edge,” said Dave Pearson, Infrastructure Research VP at IDC.
Nutanix Enterprise AI มอบประสบการณ์การใช้งาน Generative AI ที่ใช้งานง่าย และครบวงจร ทั้งการใช้กับระบบที่ติดตั้งภายในองค์กร ที่ edge และ ล่าสุดบนพับลิคคลาวด์
นูทานิคซ์ (Nutanix) (NASDAQ: NTNX) ผู้นำด้านไฮบริดมัลติคลาวด์คอมพิวติ้ง ประกาศขยายแพลตฟอร์มโครงสร้างพื้นฐาน AI ของบริษัทฯ ด้วยผลิตภัณฑ์ใหม่ด้านคลาวด์เนทีฟที่เรียกว่า Nutanix Enterprise AI (NAI) โดยสามารถนำไปใช้ได้กับแพลตฟอร์ม Kubernetes ใดก็ได้บนทุกสภาพแวดล้อม ไม่ว่าจะเป็นที่ edge ในดาต้าเซ็นเตอร์หลัก หรือบนบริการพับลิคคลาวด์ ต่าง ๆ เช่น AWS EKS, Azure AKS, และ Google GKE
NAI มอบโมเดลการทำงานแบบไฮบริดมัลติคลาวด์ที่สอดคล้องกับการเร่งการประมวลผล AI ช่วยให้องค์กรสามารถใช้ประโยชน์จากโมเดล และข้อมูลขององค์กรบนโลเคชันที่ปลอดภัยได้ตามที่ต้องการ ในขณะเดียวกันก็ช่วยเพิ่มผลตอบแทนจากการลงทุน (ROI) นอกจากนี้ Nutanix Enterprise AI ใช้ NVIDIA NIM เพื่อปรับประสิทธิภาพให้เหมาะสมกับโมเดลพื้นฐานต่าง ๆ จึงสามารถช่วยให้องค์กรสามารถติดตั้งและขยายจุดปลายทาง (inference endpoints) สำหรับโมเดลภาษาขนาดใหญ่ (LLMs) เพื่อให้สามารถใช้แอปพลิเคชัน generative AI (GenAI) ได้ในหลักวินาที ไม่ใช่หลายวันหรือหลายสัปดาห์อีกต่อไป
Generative AI เป็นเวิร์กโหลดไฮบริดโดยเนื้อแท้ โดยการพัฒนาแอปพลิเคชันใหม่ ๆ มักเริ่มต้นบนระบบพับลิคคลาวด์ การปรับแต่งโมเดลด้วยข้อมูลส่วนตัวจะทำในองค์กร และการประมวลผลจะเกิดขึ้นใกล้กับการทำธุรกิจ ซึ่งอาจเป็นที่ edge ในองค์กร หรือบนระบบพับลิคคลาวด์ วิธีการแบบไฮบริดที่กระจายนี้อาจสร้างความท้าทายให้กับองค์กรในเรื่องความซับซ้อน ความเป็นส่วนตัวของข้อมูล ความปลอดภัย และค่าใช้จ่าย
Nutanix Enterprise AI มอบรูปแบบการทำงานแบบมัลติคลาวด์ที่สอดคล้องกัน และมอบวิธีง่าย ๆ ให้สามารถใช้งาน สเกล และรัน LLMs ได้อย่างปลอดภัย ด้วย NVIDIA NIM ซึ่งเป็นไมโครเซอร์วิสด้านการอนุมานที่มีประสิทธิภาพ รวมถึงโมเดลพื้นฐานแบบเปิดต่าง ๆ จาก Hugging Face ซึ่งช่วยให้ลูกค้าสามารถใช้โครงสร้างพื้นฐาน GenAI ระดับองค์กรได้ด้วยความยืดหยุ่น สามารถดำเนินงานด้านต่าง ๆ หลังจากนำแอปพลิเคชันไปใช้แล้ว (day 2 operations) และมีความปลอดภัยในการใช้แอปพลิเคชันสำคัญทางธุรกิจตามที่องค์กรต้องการ ทั้งแอปพลิเคชันที่รันอยู่ในระบบที่ติดตั้งในองค์กร หรือบน AWS Elastic Kubernetes Service (EKS), Azure Managed Kubernetes Service (AKS), และ Google Kubernetes Engine (GKE)
นอกจากนี้ Nutanix Enterprise AI ยังนำเสนอรูปแบบการคิดราคาที่โปร่งใสและคาดการณ์ได้ โดยอิงตามทรัพยากรโครงสร้างพื้นฐานต่าง ๆ ซึ่งเป็นสิ่งสำคัญสำหรับลูกค้าที่ต้องการเพิ่ม ROI จากการลงทุนด้าน GenAI ให้ได้สูงสุด ซึ่งตรงข้ามกับการคิดราคาจากการใช้งานที่คาดการณ์ได้ยากหรือการกำหนดราคาตามโทเค็น
Nutanix Enterprise AI เป็นส่วนหนึ่งของ Nutanix GPT-in-a-Box 2.0 ซึ่ง GPT-in-a-Box นั้นประกอบด้วย Nutanix Cloud Infrastructure, Nutanix Kubernetes Platform, และ Nutanix Unified Storage และมาพร้อมบริการด้านต่าง ๆ ที่ช่วยให้ลูกค้าสามารถกำหนดค่าและขนาดสำหรับการฝึกอบรมและการอนุมาน AI ในองค์กรได้ตามต้องการ
นายโทมัส คอร์เนลลี่ รองประธานอาวุโสฝ่ายการจัดการผลิตภัณฑ์ของนูทานิคซ์ กล่าวว่า “Nutanix Enterprise AI ช่วยลูกค้ารันแอปพลิเคชัน GenAI ได้อย่างง่ายดายและปลอดภัย ทั้งในระบบภายในองค์กรหรือบนพับลิคคลาวด์ Nutanix Enterprise AI สามารถรองรับแพลตฟอร์ม Kubernetes ใด ๆ ก็ได้ และช่วยให้แอปพลิเคชัน AI รันอยู่บนโลเคชันที่ปลอดภัย ด้วยรูปแบบค่าใช้จ่ายที่คาดการณ์ได้”
Nutanix Enterprise AI สามารถนำไปใช้กับแพลตฟอร์ม AI แบบฟลูสแต็กของ NVIDIA ได้ และผ่านการตรวจสอบการใช้งานกับแพลตฟอร์มซอฟต์แวร์ NVIDIA AI Enterprise ซึ่งรวมถึง NVIDIA NIM ซึ่งเป็นชุดไมโครเซอร์วิสที่ใช้งานง่ายและได้รับการออกแบบมาเพื่อรองรับการปรับใช้และอนุมานโมเดล AI ประสิทธิภาพสูงได้อย่างปลอดภัยและเชื่อถือได้
นายจัสติน โบอิตาโน รองประธานฝ่าย Enterprise AI ของ NVIDIA กล่าวว่า “เวิร์กโหลด Generative AI เป็นไฮบริดโดยธรรมชาติอยู่แล้ว ด้วยการเทรน การปรับแต่ง และการอนุมาน ที่ทำได้ทั้งบนพับลิคคลาวด์ต่าง ๆ ในระบบภายในองค์กร และที่ edge การผสานรวม NVIDIA NIM เข้ากับ Nutanix Enterprise AI เป็นการมอบโมเดลมัลติคลาวด์ที่สอดคล้องกันและ APIs ที่ปลอดภัยให้ลูกค้า ช่วยให้ลูกค้าใช้ AI บนสภาพแวดล้อมที่ต่างกันได้ด้วยประสิทธิภาพและความปลอดภัยสูง ตามที่แอปพลิเคชันสำคัญทางธุรกิจจำเป็นต้องใช้”
Nutanix Enterprise AI ช่วยลูกค้าดังนี้
- จัดการกับปัญหาการขาดแคลนบุคลากรที่มีทักษะด้าน AI: ความเรียบง่าย ทางเลือกที่มีให้ และฟีเจอร์ต่าง ๆ ที่ติดตั้งมาเรียบร้อย ช่วยให้ผู้ดูแลระบบไอทีสามารถเป็นผู้ดูแลด้าน AI ได้ ช่วยเร่งการพัฒนา AI โดยนักวิทยาศาสตร์ข้อมูลและนักพัฒนาซอฟต์แวร์ ด้วยการใช้โมเดลล่าสุดต่าง ๆ และการเร่งการประมวลผลบนกราฟิกการ์ด NVIDIA
- ลดอุปสรรคด้านการสร้างแพลตฟอร์มที่พร้อมใช้กับ AI: องค์กรจำนวนมากที่ต้องการใช้ GenAI มักประสบปัญหาในการสร้างแพลตฟอร์มที่เหมาะสมสำหรับรองรับเวิร์กโหลด AI โดยเฉพาะการรักษาความสอดคล้องระหว่างโครงสร้างพื้นฐานในองค์กรและพับลิคคลาวด์หลายแห่ง Nutanix Enterprise AI จัดการปัญหานี้ด้วยเวิร์กโฟลว์แบบ UI-driven ที่ใช้งานง่าย ช่วยให้ลูกค้าปรับใช้และทดสอบ LLM inference endpoints ได้ในเวลาไม่กี่นาที นอกจากนี้ยังรองรับไมโครเซอร์วิส NVIDIA NIM ที่สามารถรันที่ใดก็ได้ ช่วยให้มั่นใจได้ว่าโมเดลจะได้รับการปรับประสิทธิภาพให้เหมาะสมกับการใช้งานทั้งบนสภาพแวดล้อมคลาวด์และในระบบที่ติดตั้งอยู่ภายในองค์กร ทั้งยังรองรับ Hugging Face และโมเดลมาตรฐานต่าง ๆ นอกจากนี้ การบูรณาการอย่างเป็นเนื้อเดียวกันกับ Nutanix Kubernetes Platform ยังช่วยให้สามารถใช้คุณประโยชน์ที่มีอยู่ใน Nutanix Cloud Platform ทั้งหมด หรือมอบทางเลือกให้ลูกค้าสามารถรันบนรันไทม์ของ Kubernetes ใด ๆ ก็ได้
ซึ่งรวมถึง AWS EKS, Azure AKS, หรือ Google Cloud GKE ด้วยการเร่งการประมวลผลบนกราฟิกการ์ด NVIDIA
- บรรเทาความกังวลเรื่องความเป็นส่วนตัวและความปลอดภัยของข้อมูล Nutanix Enterprise AI ช่วยลดความเสี่ยงด้านความเป็นส่วนตัวและความปลอดภัย โดยการช่วยให้ลูกค้ารันโมเดลและข้อมูลต่าง ๆ บนทรัพยากรประมวลผลที่ควบคุมได้ด้วยตนเอง นอกจากนี้ Nutanix Enterprise AI ยังมีแดชบอร์ดที่ใช้งานง่าย เพื่อใช้แก้ปัญหา ตรวจสอบ และใช้ทรัพยากรที่ใช้สำหรับ LLMs รวมถึงสามารถควบคุมการเข้าใช้งานตามบทบาท (RBAC) ได้อย่างปลอดภัยและรวดเร็ว เพื่อให้มั่นใจว่าสามารถควบคุมและเข้าใจการเข้าใช้ LLM ได้ องค์กรที่ต้องการความปลอดภัยที่แน่นหนา ทั้งยังสามารถนำไปใช้ในสภาพแวดล้อมที่มีการตัดการเชื่อมต่อกับเครือข่ายที่ไม่ปลอดภัย (air-gapped) หรือไซต์แบบสแตนด์อโลนที่เตรียมไว้แต่ไม่เผยแพร่ (dark-site) ได้
- นำโครงสร้างพื้นฐานไอทีระดับองค์กรไปใช้กับเวิร์กโหลด GenAI ลูกค้าที่กำลังใช้ Nutanix Cloud Platform กับแอปพลิเคชันสำคัญทางธุรกิจ สามารถนำความยืดหยุ่น, Day 2 operations, และความปลอดภัยไปใช้กับเวิร์กโหลด GenAI ไปใช้กับโครงสร้างพื้นฐานขององค์กรได้
ตัวอย่างการใช้ประโยชน์จาก Nutanix Enterprise AI
- เพิ่มประสบการณ์ลูกค้าด้วย GenAI ที่ทำการวิเคราะห์ความคิดเห็นตอบกลับจากลูกค้าและเอกสารต่าง ๆ
- เร่งความเร็วในการสร้างโค้ดและคอนเทนต์ด้วยการใช้ co-pilots และการประมวลผลเอกสารอัจฉริยะ
- ใช้ประโยชน์จากโมเดลที่ได้รับการปรับแต่งอย่างละเอียดต่าง ๆ บน domain-specific data เพื่อเร่งการสร้างโค้ดและคอนเทนต์
- สร้างความปลอดภัยที่รัดกุมมากขึ้น ซึ่งรวมถึงการใช้ประโยชน์จากโมเดล AI ต่าง ๆ ในการตรวจจับการฉ้อโกง ตรวจจับภัยคุกคาม การแจ้งเตือนที่สมบูรณ์ และการสร้างนโยบายอัตโนมัติ
- เพิ่มประสิทธิภาพด้านการวิเคราะห์ต่าง ๆ ผ่านการใช้โมเดลเกี่ยวกับข้อมูลส่วนตัวต่าง ๆ ที่ได้รับการปรับแต่งอย่างละเอียด
Nutanix Enterprise AI ที่สามารถรันได้ทั้งในระบบภายในองค์กร ที่ edge หรือบนพับลิคคลาวด์และ Nutanix GPT-in-a-Box 2.0 พร้อมให้บริการแก่ลูกค้าแล้ว สำหรับข้อมูลเพิ่มเติม สามารถเยี่ยมชมเว็บไซต์ของเราได้ที่ Nutanix.com/enterprise-ai
คำกล่าวสนับสนุน
- นายเจฟฟ์ บูดิเยร์ หัวหน้าฝ่ายผลิตภัณฑ์ของ Hugging Face กล่าวว่า “ความร่วมมืออย่างแนบแน่นระหว่างทีม Nutanix และ Hugging Face ช่วยให้ลูกค้าของ Nutanix Enterprise AI สามารถใช้งานโอเพ่นโมเดลยอดนิยมได้อย่างราบรื่นในสแต็กที่ใช้งานง่ายและผ่านการทดสอบอย่างเต็มรูปแบบ ซึ่งขณะนี้ใช้ได้บนพับลิคคลาวด์แล้วด้วย”
- นายเดฟ เพียร์สัน รองประธานฝ่ายวิจัยโครงสร้างพื้นฐานของ IDC กล่าวว่า “Nutanix Enterprise AI มุ่งมั่นมอบแพลตฟอร์มโครงสร้างพื้นฐานที่ใช้งานง่าย ด้วยการมอบประสบการณ์การใช้งานที่สอดคล้องกันจากองค์กรไปสู่พับลิคคลาวด์เพื่อสนับสนุนองค์กรต่าง ๆ ในทุกย่างก้าวของการใช้ AI ตั้งแต่การใช้บนพับลิคคลาวด์ไปจนถึงที่ edge”