Introducing GMI Cloud: New On-Demand Ins…
GMI Cloud, with roots in Taiwan, uses its supply chain advantage to grant companies instant and affordable NVIDIA GPU compute power for navigating the race to adopt AI
[메타웹데일리] AI 및 머신러닝 워크로드를 위해 설계된 새로운 GPU 클라우드 플랫폼인 GMI 클라우드 (https://cts.businesswire.com/ct/CT?id=smartlink&url=https%3A%2F%2Fgmicloud.ai%2F&esheet=53993911&lan=en-US&anchor=GMI+Cloud&index=1&md5=27630ca0b811c2745dfa705ecf68657a)(GMI Cloud)가 엔비디아 GPU에 대한 액세스를 가속화하고 있다. 오늘부터 제공되는 새로운 온디맨드 클라우드 컴퓨팅 서비스는 AI를 활용하고 프로토타이핑에서 생산까지 가능성을 타진하는 데 진지하게 임하고 있는 기업들을 위해 만들어졌다. 사용자는 GMI 클라우드의 온디맨드 GPU 컴퓨팅 리소스에 거의 즉각적으로 액세스할 수 있다.
컴퓨팅에 대한 수요 급증
현재 AI 컴퓨팅 파워에 대한 수요가 급증함에 따라 기업들은 접근 방법에서 전략적이 되어야 한다. 빠르게 발전하는 지형 속에서 조직들은 25~50%의 계약금을 지불하고 3년 계약을 체결해야만 6~12개월 동안 GPU 인프라에 액세스할 수 있다는 약속을 받는다. AI의 변화로 인해 기업들은 보다 유연한 컴퓨팅 파워를 필요로 하는 상황에 내몰렸다.
인스턴트 GPU, 무한한 AI
리얼텍 세미컨덕터스(Realtek Semiconductors)(TPE: 2379) 및 GMI 테크놀로지스(GMI Technologies)(TPE: 3312)는 물론 대만의 강력한 공급망 에코시스템과의 연계를 활용하여 GMI 클라우드(GMI Cloud)는 더 빠른 배포와 더 높은 운영 효율성을 보장할 수 있다. 물리적으로 대만에 존재하기 때문에 비 대만 GPU 공급업체와 비교해 GPU 인도 시간이 수개월에서 며칠로 단축된다. GMI 클라우드는 이 시장에서 가장 경쟁력 있는 신규 진입자가 될 전망이다.
GMI 클라우드 설립자 겸 최고경영자 알렉스 예(Alex Yeh)는 “우리의 임무는 즉각적이고 효율적인 GPU 클라우드를 통해 인류가 AI 포부를 실현할 역량을 강화하는 것”이라며 “우리는 단순히 클라우드를 구축하는 것이 아니라 AI 시대의 근간을 만들고 있으며, GMI 클라우드는 개발자와 데이터 과학자가 엔비디아 GPU를 활용하는 방식과 모든 인류가 AI에서 혜택을 얻는 방식을 혁신하는 데 전념하고 있다”고 밝혔다.
본 서비스의 중요성
기술을 선도하는 기업들은 AI 성장의 물결이 일으키는 기회를 포착하고 있으며, 모든 규모의 조직들이 컴퓨팅 파워에 액세스하는 데 있어 벽에 부딪히고 있다.
예를 들어 스타트업은 대규모 GPU 설치에 대한 계약금을 지불할 예산을 확보하거나 장기적인 예측을 할 수 없고, 견인력에 따라 확장하거나 축소할 수 있는 유연성이 필요하다. 이렇게 하려면 경쟁력 있는 AI 인재를 고용하는 데 사용할 수 있는 자본을 묶어 두는 대신 GPU 비용을 운영비로 지출하는 옵션이 필요하다. 온디맨드 액세스는 인프라를 설정하는 특별한 기술 없이도 GPU 컴퓨팅에 액세스해야 하는 팀에게 즉각적이고 비용 효율적이며 확장 가능한 옵션을 제공한다.
대기업 역시 장애물에 직면해 있다. 예를 들어 엔터프라이즈 데이터 과학팀은 AI의 물결이 지나쳐 버리기 전에 경쟁사보다 앞서 나가기 위해 AI 애플리케이션을 실험하고 프로토타이핑하여 평가할 수 있는 유연성이 필요하다. 하지만 모든 기업이 대규모 컴퓨팅 파워 보유에 요구되는 장기 계약과 검증되지 않은 자본 지출을 감당할 준비가 되어 있지는 않다. 즉각적인 GPU 액세스의 유연성 덕분에 이러한 데이터 사이언스 팀은 큰 투자 위험 없이도 대규모 데이터 세트를 처리하거나 모델을 미세 튜닝해야 하는 다수의 프로토타이핑 프로젝트를 실행할 수 있다.
지금 시작하세요
GMI 클라우드는 엔비디아로 구동되는 GPU 클라우드 플랫폼으로, AI 및 ML 워크로드를 위해 특별히 설계된 풍부한 쿠버네티스(Kubernetes) 관리형 사전 로드 소프트웨어 스택을 갖추고 있다. 여기에는 엔비디아 TensorRT로 사전 구축된 이미지가 포함되어 있으며, 곧 엔비디아 트리톤(NVIDIA Triton)과 같은 추론 서버를 포함한 모든 엔비디아 사전 구축 컨테이너를 지원할 예정이다. 엔비디아 H100 텐서 코어 GPU(NVIDIA H100 Tensor Core GPU)를 시간당 4.39달러의 경쟁력 있는 가격으로 제공하는 GMI 클라우드는 대규모 업체에 비해 합리적인 가격의 온디맨드 액세스를 제공한다. 대형 클라우드 제공업체들은 대규모 예약 패키지에 사용자를 가두어 두기 위해 온디맨드에 최대 4배의 비용을 청구하고 있다. 인스턴스 유형과 크기는 라마3(Llama3) 8b, 70b, 믹스트럴(Mixtral) 8x7b, 구글 젬마(Google Gemma), 스테이블 디퓨전(Stable Diffusion) 등 다양한 크기의 모델에 대해 배포, 미세 튜닝 및 추론을 효율적으로 수행할 수 있도록 설계되었다.
GMI 클라우드 소개
즉각적인 GPU 가용성과 무한한 AI 가능성이 만나 탄생한 GMI 클라우드( GMI Cloud)는 리얼텍 세미컨덕터와 GMI 테크놀로지에서 분사(shoot-off)하여 설립된 벤처 지원 디지털 인프라 회사이다. 선도적인 AI 네이티브 GPU 클라우드이므로 AI 및 ML 워크로드에 맞추어 꼼꼼하게 최적화된 최신 GPU에 빠르게 액세스할 수 있다. 당사의 플랫폼은 스타트업, 연구자, 기업 모두의 역동적인 요구사항을 충족하도록 설계되어 원활한 확장성과 최고 수준의 성능을 보장한다. GMI 클라우드를 통해 온디맨드 GPU의 성능을 경험하고 무한한 AI 잠재력을 활용하면 더 빠르고 스마트하며 비용 효율적인 혁신을 추진할 수 있다. 웹사이트: gmicloud.ai.
이 보도자료는 해당 기업에서 원하는 언어로 작성한 원문을 한국어로 번역한 것이다. 그러므로 번역문의 정확한 사실 확인을 위해서는 원문 대조 절차를 거쳐야 한다. 처음 작성된 원문만이 공식적인 효력을 갖는 발표로 인정되며 모든 법적 책임은 원문에 한해 유효하다.
언론연락처: GMI 클라우드(GMI Cloud) 칼리 본(Carly Bourne)
이 뉴스는 기업·기관·단체가 뉴스와이어를 통해 배포한 보도자료입니다.GMI Cloud (https://cts.businesswire.com/ct/CT?id=smartlink&url=https%3A%2F%2Fgmicloud.ai%2F&esheet=53993911&newsitemid=20240516003832&lan=en-US&anchor=GMI+Cloud&index=1&md5=27630ca0b811c2745dfa705ecf68657a), the emerging GPU cloud platform designed for AI and ML workloads, is accelerating access to NVIDIA GPUs. Its new On-Demand cloud compute offering, available today, is built for companies that are serious about leveraging AI and unlocking the door from prototyping to production. Users can access GMI Cloud’s On-Demand GPU computing resources almost instantaneously.
The Surge in Demand for Compute
The current surge in demand for AI compute power requires companies to be strategic in their approach. In a fast-evolving landscape, organizations are being asked to pay a 25-50% down payment and sign up for a 3-year contract with the promise of getting access to GPU infrastructure in 6-12 months. The AI shift has forced companies to need more flexible computing power.
Instant GPUs, Infinite AI
Leveraging its ties to Realtek Semiconductors (TPE: 2379) and GMI Technologies (TPE: 3312) as well as Taiwan’s robust supply chain ecosystem, GMI Cloud is able to ensure quicker deployment and higher efficiency in operations. The physical presence in Taiwan cuts the GPU delivery time down from months to days compared to non-Taiwanese GPU providers. GMI Cloud is poised to become the most competitive new entrant in this market.
“Our mission is to empower humanity’s AI ambitions with instant, efficient GPU cloud,” said Alex Yeh, Founder and CEO of GMI Cloud. “We’re not just building a cloud—we’re creating the backbone of the AI era. GMI Cloud is dedicated to transforming how developers and data scientists leverage NVIDIA GPUs and how all humans benefit from AI.”
Why It Matters
Technology leaders are seizing the opportunities presented by the growing AI wave, and organizations of all sizes are hitting walls when it comes to accessing compute power.
Startups, for example, don’t have the budget or long-term forecasting to pay a down payment for a large GPU installation. They need the flexibility to scale up or down based on their traction. This requires the option to pay for GPU as an operating expense rather than locking in capital that could be spent on hiring competitive AI talent. On-Demand access provides an instant, cost-effective, and scalable option for teams that need access to GPU compute, without requiring special skills to set up the infrastructure.
Large enterprises face hurdles as well. Enterprise data science teams, for example, require the flexibility to experiment, prototype, and evaluate AI applications to get ahead of competitors before the AI wave passes them by. However, not every enterprise is ready to commit to the long-term contracts and unproven capital expenditures required for larger compute reserves. The flexibility of instant GPU access allows those data science teams to run several prototyping projects that require processing large datasets or fine-tuning models without taking significant investment risks.
Get Started Now
GMI Cloud is a GPU cloud platform, powered by NVIDIA, with a rich Kubernetes-managed preloaded software stack designed specifically for AI and ML workloads which includes prebuilt images with NVIDIA TensorRT and will soon support all NVIDIA prebuilt containers including inference servers like NVIDIA Triton. With competitive pricing offered at $4.39/hour for NVIDIA H100 Tensor Core GPUs, GMI Cloud offers affordable on-demand access compared to larger organizations charging up to 4X that cost for on-demand in an effort to lock users into larger reserve packages. The instance type and size is purposefully designed to efficiently deploy, fine-tune, and inference models ranging in size from Llama3 8b, 70b, Mixtral 8x7b, Google Gemma, Stable Diffusion, and more.
About GMI Cloud
Instant GPU availability meets infinite AI possibilities with GMI Cloud, a venture-backed digital infrastructure company formed as an offshoot of Realtek Semiconductor and GMI Technology. As the leading AI-native GPU cloud, we provide rapid access to the latest GPUs meticulously optimized for AI and ML workloads. Our platform ensures seamless scalability and top-tier performance, designed to cater to the dynamic needs of startups, researchers, and enterprises alike. With GMI Cloud, experience the power of on-demand GPUs and unlock unlimited AI potential, enabling you to innovate faster, smarter, and more cost-effectively. To learn more, visit gmicloud.ai.
View source version on businesswire.com: https://www.businesswire.com/news/home/20240516003832/en/
언론연락처: GMI Cloud Carly Bourne
이 뉴스는 기업·기관·단체가 뉴스와이어를 통해 배포한 보도자료입니다.