HPE는 ‘HPE 디스커버 바르셀로나 2024’에서 HPE 그린레이크(HPE GreenLake) 클라우드의 새 솔루션과 옵션을 발표했다. 새로워진 HPE 그린레이크 클라우드를 통해 고객은 복잡한 하이브리드 IT 환경의 관리를 간소화하고 비즈니스에 민첩성과 혁신을 가져올 수 있다고 HPE는 강조했다. HPE VM 에센셜 소프트웨어는 하이브리드 환경에서 가상화된 워크로드를 관리하기 위한 위한 통합된 환경을 제공해 고객에게 선택과 유연성을 가져다준다. 새 솔루션을 통해 기존의 가상화 워크로드를 HPE VM 에센셜 하이퍼바이저와 통합해 관리 복잡성을 줄일 수 있다. HPE VM 에센셜은 주요 스토리지 프로토콜, 분산 워크로드 배치, 고가용성(HA), 라이브 마이그레이션, 통합된 데이터 보호 등을 지원하며 HPE 그린레이크 클라우드와 HPE VM 에센셜을 도입함으로써 기업은 최대 5배의 총소유비용(TCO) 절감 효과를 누릴 수 있다. 새로운 오브젝트 스토리지 ‘HPE 알레트라 스토리지 MP X10000’는 기업이 더 빠르게 데이터를 저장하고 검색할 수 있도록 하는 뛰어난 성능과 대규모 확장성을 제공한다. 엑사바이트 규모를 위해 설계된 X10000은 경쟁 제품 대비 최
HPE는 미국 애틀란타에서 열린 ‘슈퍼컴퓨팅 2024(SC24)’에서 미국 에너지부(DOE) 로렌스 리버모어 국립 연구소(Lawrence Livermore National Laboratory, LLNL)에 세계에서 가장 빠른 슈퍼컴퓨터인 ‘엘 캐피탄(El Capitan)’을 구축했다고 21일 밝혔다. 트리시 댐크로거 HPE HPC 및 AI 인프라 솔루션 부문 수석 부사장 겸 총괄은 “엘 캐피탄은 엑사스케일 슈퍼컴퓨팅의 중요한 이정표를 세웠다”며 “엘 캐피탄은 뛰어난 성능과 에너지 효율성으로 AI 기반 과학적 발견을 가속화하고 국가 안보를 강화하는 동시에 재생 가능 에너지 분야에서 새로운 기회를 창출할 수 있는 역량을 갖추고 있다”고 설명했다. 그는 “미국 에너지부, 국가핵안보국, LLNL 및 AMD와의 강력한 파트너십과 수년간의 연구개발 결과로 이루어진 이 성과를 자랑스럽게 생각하며, 엘 캐피탄이 이끌어낼 미래의 성과와 엔지니어링 혁신이 기대된다”고 말했다. 세계에서 가장 빠른 슈퍼컴퓨터인 엘 캐피탄은 미국이 국가 안보 분야에서 경쟁력을 유지할 수 있도록 지원한다. 국가핵안보국(NNSA)의 연구 기관(LLNL, 샌디아 국립 연구소, 로스앨러모스 국립 연구소)
HPE가 최신 AI 시스템 제조 시설에서 열린 ‘AI 데이(AI Day)’ 행사에서 대규모 AI 배포 시 에너지 및 비용 효율성을 극대화할 수 있는 업계 최초의 100% 팬리스 직접 수냉 방식(Fanless Direct Liquid Cooling, Fanless DLC) 시스템 아키텍처를 발표했다. 이번 행사를 통해 HPE는 기업, 정부, 서비스 제공업체, 모델 제작자 등 다양한 분야에서 AI 전문성과 리더십을 선보였다. 차세대 가속기의 효율성이 향상되고 있지만 AI 채택의 증가로 전력 소비는 계속해서 늘어나 기존의 냉각 기술의 한계를 초과하고 있다. 이에 따라 대규모 AI 워크로드를 운영하는 조직들은 더 효율적인 냉각 기술을 필요로 하고 있다. HPE 관계자는 “차세대 AI 시스템을 냉각하는 최적의 방법은 HPE의 업계 선도적인 DLC를 활용하는 것”이라며 “이 중요한 냉각 기술 덕분에 HPE의 시스템은 세계에서 가장 에너지 효율적인 슈퍼컴퓨터를 선정하는 Green500 리스트의 상위 10대 슈퍼컴퓨터 중 7대를 제공했다”고 강조했다. 100% 팬리스 직접 수냉 방식 아키텍처는 하이브리드 직접 수냉 방식만을 사용할 때보다 서버 블레이드당 냉각 전력 소비를
HPE는 2024 가트너 매직 쿼드런트 SD-WAN 부문에서 HPE 아루바 네트워킹이 리더로 선정됐다고 21일 밝혔다. 이로써 HPE는 7년 연속 가트너의 리더스 쿼드런트(the Leaders Quadrant by Gartner)에 이름을 올렸다. 또한 2024 가트너 피어 인사이트 SD-WAN을 위한 고객의 소리 부문에서 ‘고객의 선택(Customers’ Choice)’으로도 선정됐다. 가트너는 각 기업에 대한 요약과 강점 및 주의사항에 대한 평가가 포함된 SD-WAN 매직 쿼드런트 보고서에서 ‘비전 완성도’와 ‘실행 능력’이라는 두 가지 주요 기준에 따라 기업들을 평가했다. 데이비드 휴즈 HPE 아루바 네트워킹의 최고 제품 책임자는 “HPE 아루바 네트워킹이 7년 연속 리더로 선정된 것은 혁신적인 성능 최적화, 클라우드 온램프, 임베디드 및 파트너 통합 보안 역량을 통해 사용자와 디바이스를 보호하면서 통합 SASE 아키텍처의 기반을 구축할 수 있는 강력한 위치에 있음을 보여준다”고 말했다. 한편 HPE는 2023년 클라우드 보안 제공업체인 액시스 세큐리티를 인수하며 보안 네트워킹 시장에서 SD-WAN 리더십을 더욱 확장했다. 엣지커넥트 SD-WAN(Edg
HPE는 5세대 AMD 에픽(EPYC) 프로세서와 AMD 인스팅트(Instinct) MI325X 가속기를 탑재한 복합 AI 모델 학습용 HPE 프로라이언트 컴퓨트 XD685(HPE ProLiant Compute XD685) 서버를 출시했다. 새로운 HPE 시스템은 대규모 언어 모델(LLM) 학습, 자연어 처리 및 멀티 모달 학습을 위한 고성능의 에너지 효율적 인공지능(AI) 클러스터를 신속하게 배포할 수 있도록 최적화됐다. AI의 잠재력을 실현하고 인력 생산성, 의료, 기후 과학 등 다양한 분야에서 획기적인 성과를 이끌어내기 위한 경쟁이 치열해지고 있다. 이러한 잠재력을 극대화하기 위해 AI 서비스 제공업체, 정부, 대규모 모델 개발자들은 신속하게 시장에 출시할 수 있는 유연하고 고성능의 솔루션을 필요로 한다. 트리시 댐크로거 HPE HPC 및 AI 인프라 솔루션 부문 수석 부사장 및 책임자는 “대규모 언어 모델을 효율적으로 학습하려면 뛰어난 확장성, 대규모 병렬 컴퓨팅 성능, 그리고 HPE의 고성능 컴퓨팅 솔루션만이 제공할 수 있는 독보적인 서비스가 필요하다”며 “AMD와 협력해 HPE 프로라이언트 컴퓨트 XD685로 AI 모델 개발자 시장의 수요에 부응하
HPE가 ‘HPE 프로라이언트 DL145 Gen 11 서버’(HPE ProLiant DL145 Gen11 server)를 출시했다고 30일 밝혔다. 이 제품은 엣지 애플리케이션 및 워크로드의 성능을 개선하고 소매업과 제조업을 비롯한 분산된 조직에 원활한 배포와 실시간 서비스를 제공한다. 다양한 엣지 환경에 맞게 설계된 HPE 프로라이언트 DL145 Gen11은 매장, 병원, 은행, 공장 라인 등 고성능이 요구되는 환경에 적합하다. 또한 먼지가 많은 공간에서도 사용할 수 있도록 공기 필터링, 높은 에너지 효율성, 진동 내구성 및 데이터센터 서버보다 조용한 성능 등 다양한 엔지니어링 기능을 제공한다. 프로라이언트 DL145 Gen11의 유연한 배치 덕분에 분산된 조직들은 데이터센터용 서버를 엣지에 배포하는 복잡한 과정을 거치지 않고도 엣지 이니셔티브를 손쉽게 실행할 수 있다고 회사는 설명했다. 크리스타 새터웨이트 HPE 컴퓨트 수석 부사장 및 총괄은 “엣지 환경에 최적화된 HPE 프로라이언트 DL145는 견고하고 컴팩트한 크기와 조용한 작동 소음, 뛰어난 전력 효율성 덕분에 작은 공간에서도 많은 처리 능력을 제공한다”며 “또한 분산된 위치에 있는 기업이 근처에
HPE는 자사의 보안 중심 인공지능(AI) 기반 네트워크 관리 솔루션인 HPE 아루바 네트워킹 센트럴(HPE Aruba Networking Central)에 새로운 기능을 확장한다고 25일 발표했다. 이번 확장에는 시스코, 주니퍼 네트웍스 및 팔로알토 네트웍스와 같은 업계 공급업체의 타사 네트워크 디바이스 모니터링을 위한 옵스램프(OpsRamp) 통합을 포함, 새로운 AI 인사이트와 역량이 추가됐다. 또한 빠르게 성장하는 고객 기반에서 얻은 AI 인사이트를 기반으로 개선된 네트워크 디바이스 구성 엔진, 확장된 네트워크 옵저버빌리티 및 AI 생성 네트워크 최적화 등 새로운 기능이 HPE 아루바 네트워킹 센트럴에서 제공된다. 데이비드 휴즈 HPE 아루바 네트워킹 최고 제품 및 기술 책임자는 “HPE 아루바 네트워킹 센트럴은 차세대 클라우드 네이티브 관리 기능을 통해 AI 네트워킹을 가속화하고 AI 기반 인사이트로 네트워크 자동화를 개선하도록 설계됐다”며 “이는 현재뿐만 아니라 고객의 요구가 변화하는 미래에도 대응할 수 있다”고 강조했다. 또한 “네트워킹 및 보안 가시성을 위한 AI 기반 인사이트를 광범위한 업계 공급업체로 확장함으로써 고객들이 네트워크를 제어하고
바이브컴퍼니(이하 바이브)가 HPE-엔비디아-동국시스템즈가 공동 주최한 ‘HPE KorLLM 론칭 세미나’에서 최신 LLM 동향을 소개하고 기업의 AI 혁신을 지원하는 자사 AI 솔루션을 소개했다고 13일 밝혔다. 이번 행사는 지난 12일 그랜드 인터컨티넨탈 서울 파르나스에서 AI 기술 도입에 관심도가 높은 기업 관계자 약 100여 명이 자리한 가운데 성황리에 개최됐다. 이번 행사는 HPE, 동국시스템즈, 바이브의 각사 전문가들이 자리해 어떤 AI 기술을 도입해야 하며 동종 업계의 도입 사례와 비용 등 전반적인 궁금증을 해소하기 위해 마련됐다. 세미나에는 바이브컴퍼니의 CTO인 윤준태 부사장이 참석해 '생성형 AI 트렌드와 AI 비즈니스 모델의 현황과 전망'을 주제로 발표를 진행했다. 윤 부사장은 "블룸버그 인텔리전스 경제연구소에 따르면 생성AI 시장 규모가 2032년에는 1조3000억 달러에 이르며 AI 시스템 학습에 필요한 인프라와 AI 기기, 광고 등의 수요로 10년간 매년 42%씩 성장할 것으로 예측했다"며 "현재 전 산업 분야에서 AI 기술이 도입되어 활용되고 있으며 특히 요약 기술, 기업 지식 관리 기술 등 업무 능률을 높여줄 수 있는 AI 기술
HPE는 동국시스템즈, 바이브컴퍼니와 협력해 국내 시장에 최적화된 맞춤형 온프레미스 AI 솔루션을 필요로 하는 기업들을 위해 한국어 대규모언어모델(LLM)을 개발한다고 22일 밝혔다. 최근 기업 고객들이 방대한 고객 데이터를 활용하면서 AI 추론 솔루션 시장이 빠르게 성장하고 있다. 이에 3사는 한국어의 고유한 특성을 고려해 국내 기업 고객들을 위한 혁신적이고 통합된 한국어 LLM 개발에 집중하고 있다. 기업들이 LLM을 활용한 애플리케이션을 배포할 수 있도록 이번 협력은 AI 워크로드를 지원할 수 있는 엔비디아 H100 텐서 코어 GPU를 탑재한 HPE 크레이 XD670과 엔비디아 L40S GPU를 탑재한 HPE 프로라이언트 DL380a Gen11 서버를 기반으로 한다. HPE 크레이 XD670은 대규모 AI 모델의 학습과 조정에 맞게 설계되고 최적화돼 있으며, HPE 프로라이언트 DL380a Gen11 서버는 고집적도 메모리와 빠른 데이터 전송 속도로 까다로운 애플리케이션 실행을 위한 AI 추론 작업을 지원할 예정이다. 바이브컴퍼니는 ▲생성형 AI 기반 모델인 ‘바이브젬(VAIV GeM)’ ▲검색증강생성(RAG) 기술을 바탕으로 한 자동 Q&A 시
AI 자동화 솔루션 전문기업 이든티앤에스(대표: 김연기)는 지난 16일 서울 힐튼 가든 인 강남에서 HPE(Hewlett Packard Enterprise)와 함께 ‘디지털 리더 세미나’를 성공적으로 개최했다고 밝혔다. 이번 세미나는 식음료 디지털 리더 커뮤니티를 대상으로 진행됐으며, △HPE 이청영 매니저의 ‘기업 고객에 최적화된 HPE 스토리지 포트폴리오’를 시작으로, △HPE 김일근 매니저의 ‘HPE 빅데이터 플랫폼 Ezmeral 소개’, △이든티앤에스 최효석 이사의 ‘LLM 기반의 AI Automation’, △이든티앤에스 양상헌 상무의 ‘오픈소스 가상화 솔루션 Proxmox 소개’ 등 총 4개의 세션으로 구성됐다. 이든티앤에스 김연기 대표는 “이번 세미나는 식음료 산업의 디지털 전환에 대한 인사이트를 공유하는 매우 뜻깊은 시간이었다”며, “AI 자동화 솔루션을 통해 고객의 비즈니스 운영을 최적화하고 더 나은 성과를 지원할 수 있도록 혁신적인 솔루션 개발에 최선을 다하겠다”고 말했다. 세미나에는 30여 명이 참석했으며, 행사가 끝난 후에는 LLM 기반의 업무 자동화 솔루션에 대한 현장 컨설팅도 진행되어 참석자들로부터 큰 호응을 얻었다. 헬로티 임근난
HPE가 데이터 중심의 지속 가능하고 책임감 있는 기술 솔루션을 창출하기 위해 지난 한 해(회계연도 2023년 기준) 실천한 기업의 비즈니스 전략과 노력을 담은 ‘2023 리빙 프로그레스 리포트(2023 Living Progress Report)’를 발간했다. 안토니오 네리 HPE 회장 겸 CEO는 “번영하는 지속가능한 사회란 식량과 의료 서비스와 같은 기본적인 요구들이 지구 내 생태계 안에서 충족되면서 동시에 보안과 프라이버시가 보장되는 사회”라며 “이를 이끄는 힘은 결국 기술이며 HPE는 윤리적이고 지속 가능한 방식으로 혁신을 추진하여 미래를 가속할 수 있도록 노력하고 있다”고 말했다. HPE는 2040년까지 자사의 전 벨류체인에서 탄소중립을 실현한 기업으로 거듭나기 위해 노력하고 있다. 이 목표는 과학기반 감축목표 이니셔티브(SBTi)에서 인정한 다양한 목표들과 마찬가지로 기후 과학에 기초하고 있으며 HPE의 넷제로 로드맵에 뒷받침되고 있다. HPE는 SBTi의 넷제로 표준에 2040년, 혹은 그 이전까지의 탄소중립 달성 목표를 인정받은 최초의 글로벌 IT 기업 중 하나다. 먼저 HPE는 통제하의 사내 탄소 배출량을 주로 청정 에너지로의 전환을 통해 줄
HPE는 미국 라스베이거스에서 개최한 연례행사 ‘HPE 디스커버 2024(HPE Discover 2024)’에서 새로운 ‘HPE 기반 엔비디아 AI 컴퓨팅(NVIDIA AI Computing by HPE) 포트폴리오’를 출시했다. 이는 HPE가 기업 고객들이 생성형 AI(GenAI)의 도입을 가속화할 수 있도록 엔비디아와 협력해 공동 개발한 AI 솔루션 및 고투마켓(Go-to-market) 포트폴리오다. 포트폴리오의 주요 제공 서비스 중 하나는 HPE 프라이빗 클라우드 AI다. 이 HPE 프라이빗 클라우드 AI는 엔비디아의 AI 컴퓨팅, 네트워킹과 소프트웨어를 HPE의 AI 스토리지, 컴퓨팅, 및 HPE 그린레이크 클라우드와 가장 견고하게 통합한 최초의 솔루이다. 모든 규모의 기업이 에너지 효율적이고 빠르며 유연한 방식으로 생성형 AI 애플리케이션을 지속 가능하게 개발하고 배포할 수 있도록 한다. 새로운 옵스램프 AI 코파일럿을 통해 IT 운영이 워크로드 및 IT 효율성을 향상시킬 수 있도록 지원하는 HPE 프라이빗 클라우드는 전체 수명주기 관리를 포함한 셀프 서비스 클라우드 경험을 제공하며, 다양한 AI 워크로드와 사용 사례를 지원하기 위해 4가지 사이즈의
AI 자동화 솔루션 전문기업 이든티앤에스는 지난 13일 양재 엘타워에서 패션 IT협회를 대상으로 AI 자동화 관련 최신 IT 기술 동향과 HPE의 솔루션을 소개하는 ‘HPE-이든티앤에스 패션 IT협회 세미나’를 개최했다. 이번 세미나는 이든티앤에스 김동연 전무의 인사말로 시작됐으며, 총 6개의 세션으로 진행됐다. HPE의 이청영 매니저와 김일근 매니저는 각각 ‘기업 고객을 위해 최적화된 HPE 스토리지 포트폴리오'와 'HPE 빅데이터 플랫폼 Ezmeral 소개’를 주제로 발표를 진행했다. 특히 이든티앤에스 최용석 이사의 ‘LLM 기반의 AI Automation’ 세션은 참석자들의 큰 관심을 받았다. 최용석 이사는 자체 개발한 대형 언어 모델(LLM) 기반의 AI 자동화 기술을 소개하며, 이 기술이 NIA 주최의 ‘Open Ko-LLM 리더보드’ 파인튜닝(Fine tuning) 부문에서 1위를 차지한 성과를 강조했다. 또한 LLM 기반 AI 에이전트 ‘알피’의 다양한 업무 자동화 사례를 공유했다. 이든티앤에스 양상헌 상무는 ‘오픈소스 가상화 솔루션 Proxmox 소개’ 세션을 통해 ‘Proxmox’ 솔루션의 기능과 장점을 설명했다. 김연기 이든티앤에스 대표는
HPE는 지난 13일(현지시간) 미국에서 열린 ‘국제 슈퍼컴퓨팅 컨퍼런스(ISC High Performance 2024, ISC 2024)’에서 미국 에너지부 산하 아르곤 국립 연구소(Argonne National Laboratory)에 인텔과 협력해 세계 두 번째 엑사스케일 슈퍼컴퓨터 오로라(Aurora)를 공급했다고 밝혔다. 오로라는 시스템의 87%만 가동한 상태에서 1.012 엑사플롭(exaflop)에 도달하며 가장 강력한 슈퍼컴퓨터 차트인 ‘TOP500’에서 검증된 전 세계 두 번째로 빠른 슈퍼컴퓨터로 등재됐다. 또한 오로라는 HPE가 두 번째로 제작한 엑사스케일 시스템일 뿐만 아니라 세계 최대의 인공지능 지원(AI-capable) 시스템으로 HPC 및 AI 워크로드 처리 성능을 측정하는 HPL 혼합 정밀도(Mixed-Precision, MxP) 벤치마크에서 전체 시스템의 89%만을 가동한 상태에서 10.6 엑사플롭을 달성하며 1위를 차지했다. 트리시 댐크로거 HPC 및 AI 인프라 솔루션 담당 수석 부사장 겸 총괄은 “오로라는 세계가 당면한 가장 어려운 문제들을 해결하고 획기적인 과학 기술을 발견하기 위한 대규모 컴퓨팅 역량을 제공할 수 있으며, 이
HPE가 한국을 포함해 전 세계 14개국 기업들의 AI 여정 현황을 짚어보는 설문조사 결과를 담은 ‘AI 이점 설계(Architect an AI Advantage)’ 보고서를 20일 발표했다. 이번 설문조사는 전 세계 14개국 2000명 이상의 IT 리더를 대상으로 진행됐다. 설문조사에 참여한 전 세계 기업 내 IT 리더 중 절반에 못 미치는 44%만이 ‘자신의 기업이 인공지능(AI)의 이점을 실현할 준비가 됐다’고 응답했다. 이는 실제 AI 도입 과정과 지표가 유기적으로 연결돼 있지 않는 등 AI 전략 내 중대한 격차가 존재함을 보여주며 결과적으로 파편적인 접근방식을 취하게 돼 실제 AI 도입 시 문제가 악화될 수 있음을 시사한다고 HPE는 설명했다. 보고서에 따르면 전 세계적으로 AI에 대한 투자가 증가하고 있지만 기업들은 낮은 데이터 성숙도, 네트워킹 및 컴퓨팅 프로비저닝의 결함 가능성, 주요 윤리 원칙 및 컴플라이언스 고려 사항 등 성공적인 AI 도입 결과에 영향을 미치는 핵심 영역을 간과하고 있는 것으로 나타났다. 또한 향후 투자수익률(ROI)에 부정적인 영향을 미칠 수 있는 전략과 이해도 간의 격차도 발견했다. 실비아 훅스 HPE 아루바 네트워크