홈페이지 Enterprise 대규모 언어 모델용 HPE GreenLake로 더 많은 조직에 AI 제공

대규모 언어 모델용 HPE GreenLake로 더 많은 조직에 AI 제공

by 조던 라누스

거대 기술 기업인 Hewlett Packard Enterprise(HPE)는 대규모 언어 모델(LLM)용 HPE GreenLake를 출시하여 AI 클라우드 환경에서 첫 발을 내디뎠습니다. 이 최첨단 클라우드 서비스는 신생 기업부터 Fortune지 선정 500대 기업에 이르기까지 모든 규모의 기업에 광범위한 AI 모델 교육, 조정 및 배포 기능을 제공하는 것을 목표로 합니다.

기술 대기업인 HPE(Hewlett Packard Enterprise)가 AI 클라우드 환경에서 첫 발을 내디뎠습니다. 대규모 언어 모델(LLM)용 HPE GreenLake. 이 최첨단 클라우드 서비스는 신생 기업부터 Fortune지 선정 500대 기업에 이르기까지 모든 규모의 기업에 광범위한 AI 모델 교육, 조정 및 배포 기능을 제공하는 것을 목표로 합니다.

대규모 언어 모델용 HPE GreenLake

대규모 언어 모델용 HPE GreenLake: 정의

많은 전문 AI 애플리케이션 중 첫 번째인 LLM용 HPE GreenLake는 대부분 친환경 에너지로 구동되는 최상위 슈퍼컴퓨터 및 AI 소프트웨어에서 실행됩니다. 기후 모델링, 의료, 생명 과학 등과 같은 산업으로 서비스를 확장할 계획이 진행 중입니다.

용어에 익숙하지 않은 경우 HPE GreenLake의 Luminous와 같은 대규모 언어 모델은 주어진 입력을 기반으로 인간과 유사한 텍스트를 이해하고 생성할 수 있는 고급 AI 모델입니다. 방대한 양의 데이터에 대해 훈련된 이러한 모델은 관련성 있고 상황에 맞는 응답을 생성할 수 있으므로 수많은 애플리케이션에서 매우 유용합니다.

대규모 언어 모델용 HPE GreenLake AI 출시

AI 챗봇을 통한 고객 서비스 간소화부터 의료 기록 스캔 및 해석을 통한 의료 전문가 지원에 이르기까지 LLM은 다양한 부문에서 효율성과 혁신을 주도할 수 있습니다. HPE 제품의 출현으로 모든 규모의 비즈니스에서 이 정교한 기술에 더 쉽게 액세스할 수 있습니다. HPE의 비전은 대규모이지만 LLM은 그런 식으로 시작할 필요가 없으며 종종 그렇지 않습니다. 시작하는 방법에 대한 기사를 참조하십시오. 메타 라마 드리겠습니다.

HPE의 CEO인 Antonio Neri는 AI의 영향을 웹, 모바일, 클라우드와 같은 혁신적인 기술과 비교했습니다. 그는 주로 대규모 정부 연구실과 클라우드 거대 기업의 손이 닿는 분야인 AI 민주화에 대한 HPE의 약속을 표명했습니다. 우리는 대부분의 AI 도구가 대규모 HPC 및 엔터프라이즈 데이터 센터 외부에서 액세스할 수 없다는 사실을 자주 한탄했습니다. Neri의 AI 민주화 계획에 박수를 보내지만 HPE가 이 목표를 얼마나 잘 실행할지는 두고 볼 일입니다.

대규모 언어 모델용 HPE GreenLake가 돋보이는 이유

워크로드를 병렬로 실행하는 일반적인 범용 클라우드 제품과 달리 LLM용 HPE GreenLake는 전체 컴퓨팅 용량에서 하나의 대규모 AI 교육 및 시뮬레이션 워크로드를 실행하도록 설계된 AI 네이티브 아키텍처에서 실행됩니다. 이 방법을 사용하면 수백 또는 수천 개의 CPU 또는 GPU에서 많은 AI 및 HPC 작업을 한 번에 처리할 수 있으므로 AI 교육 효율성과 모델 생성의 정밀도가 향상됩니다.

이 서비스는 Aleph Alpha가 사전 학습한 언어 모델인 Luminous에 대한 액세스를 제공합니다. 클라이언트는 데이터로 이 모델을 개인화하여 귀중한 실시간 통찰력을 얻을 수 있습니다. Aleph Alpha의 "Luminous" 사전 교육 모델이 LLM용 HPE GreenLake 제품의 핵심 부분이므로 이는 이 제품에서 중요합니다. Aleph Alpha의 CEO인 Jonas Andrulis는 HPE의 슈퍼컴퓨터와 AI 소프트웨어로 Luminous를 교육하는 이점을 강조했습니다.

HPE Cray XD 슈퍼컴퓨터의 성능 활용

LLM용 HPE GreenLake는 전 세계에서 가장 강력하고 친환경적인 시스템인 HPE Cray XD 슈퍼컴퓨터에서 실행됩니다. HPE Cray 프로그래밍 환경 소프트웨어 제품군을 사용하면 HPC 및 AI 애플리케이션이 최적화됩니다. 결과적으로 고객은 슈퍼컴퓨터를 구입하고 유지 관리할 필요가 없습니다.

HPE는 LLM용 HPE GreenLake 주문을 받고 있습니다. 그들은 2023년 말까지 북미에서 시작하여 유럽에서 더 많은 가용성을 기대합니다.

잠재적 이점 및 시사점

대규모 언어 모델용 HPE GreenLake의 등장으로 기업이 데이터를 처리하고 의사 결정을 내리는 방식이 바뀔 수 있습니다. 예를 들어 LLM은 의료 기록 및 환자 데이터를 검토하여 의사의 진단 및 치료를 지원할 수 있습니다. 금융 분야에서는 시장 추세 예측을 개선하여 분석가가 더 나은 선택을 하도록 안내할 수 있습니다.

LLM은 또한 다양한 쿼리를 처리하기 위해 AI 고객 서비스 에이전트를 개발하여 고객 서비스를 향상시킬 수 있습니다. 이렇게 하면 상담원이 더 복잡한 문제를 해결하는 데 시간을 할애할 수 있습니다. 제조 및 운송과 같은 산업에서 LLM은 비효율성을 식별하고 개선 사항을 제안하여 효율성을 높이고 비용을 절감할 수 있습니다.

이 서비스의 잠재적인 영향을 고려할 때 단순한 개념 증명에서 본격적인 프로덕션으로의 빠른 전환은 LLM용 HPE GreenLake의 가장 중요한 이점 중 하나를 나타냅니다. 이러한 신속한 구현은 의사 결정 프로세스를 가속화하고 귀중한 자원을 보존하며 보다 혁신적이고 효율적인 비즈니스 관행을 이끌어 업계를 혁신할 수 있습니다.

LLM용 HPE GreenLake의 강력한 기능을 통해 기업은 더 이상 테스트에 많은 시간을 투자할 필요가 없습니다. 그들은 개념화에서 AI 모델 배포로 신속하게 이동하여 각 시장에서 경쟁 우위를 제공할 수 있습니다.

LLM용 HPE GreenLake의 지속 가능성 기능도 주목할 만합니다. 거의 100% 재생 가능 에너지를 사용함으로써 HPE는 탄소 배출과의 싸움에 동참하여 AI 부문에서 친환경 컴퓨팅에 대한 새로운 벤치마크를 설정합니다.

엔터프라이즈 AI의 밝은 지평

LLM용 HPE GreenLake를 도입하는 것은 AI 대중화를 향한 중요한 단계입니다. 모든 비즈니스에 대규모 언어 모델에 대한 액세스를 제공함으로써 HPE는 여러 분야에서 성장과 혁신을 촉진합니다. AI가 계속 진화하고 일상 생활에 통합됨에 따라 LLM용 HPE GreenLake와 같은 서비스는 이러한 변화를 주도하는 데 중요한 역할을 할 것입니다.

LLM용 HPE GreenLake

StorageReview에 참여

뉴스레터 | 유튜브 | 팟캐스트 iTunes/스포티 파이 | 인스타그램 | 트위터 | 틱톡 서비스 | RSS 피드