스노우플레이크가 엔비디아와의 파트너십을 강화한다고 21일 발표했다. 인공지능(AI)을 활용해 기업 고객의 생산성을 높일 수 있도록 지원하는 것으로 스노우플레이크의 데이터 기반과 안정성 높은 데이터 클라우드의 AI 기술을 풀스택 엔비디아 가속 플랫폼에 결합할 수 있게 된다. 양사는 AI의 생산성과 비즈니스 속도를 높이고 여러 산업군에 걸쳐 새로운 비즈니스 기회를 확대하도록 설계된 인프라와 컴퓨팅 기술을 결합해 안전하고 강력한 기능을 제공한다. 슈리다 라마스워미 스노우플레이크 CEO는 “스노우플레이크는 엔비디아와의 협력으로 신뢰할 수 있는 기업 데이터를 위한 안전하고 확장 가능하며 사용이 용이한 플랫폼을 제공하게 됐다”며 “특히 기술 전문성에 상관없이 모든 사용자가 AI를 사용할 수 있게 해 누구나 AI 기술 혜택을 얻도록 지원한다”고 말했다. 젠슨 황 엔비디아 창립자 겸 CEO는 “엔비디아 가속 컴퓨팅 및 소프트웨어를 스노우플레이크의 데이터 플랫폼에 적용함으로써 고객이 기업 전용의 생성형 AI 애플리케이션을 구축, 배포 및 관리할 수 있게 된다”며 “이로써 고객들은 AI를 현업에서 쉽게 도입해 사용할 수 있게 한다”고 전했다. 지난해 6월 스노우플레이크와 엔비
[첨단 헬로티] 매스웍스가 인공지능 응용 프로그램 가속화를 위해 미트랩과 엔비디아 텐서RT(TensorRT)를 통합한다고 발표했다. 양사의 협력으로 엔지니어 및 과학자들은 매트랩에서 보다 높은 성능 및 효율성을 갖춘 새로운 인공지능(AI) 및 딥러닝 모델을 개발할 수 있게 됐다. 매트랩은 딥러닝 모델을 신속하게 학습, 검증 및 배포하기 위한 완전한 워크플로우를 제공한다. 엔지니어는 추가 프로그래밍 없이 GPU 리소스를 사용할 수 있으므로 성능 튜닝보다는 응용 프로그램 개발에 더욱 집중할 수 있다. 엔비디아 텐서RT와 GPU 코더의 통합은 매트랩에서 개발된 딥러닝 모델이 높은 처리량 및 낮은 지연 시간으로 엔비디아 GPU에서 실행될 수 있도록 있도록 한다. 텐서플로우(TensorFlow)와 비교해, 매트랩에서 생성된 쿠다(CUDA) 코드는 텐서RT와 결합돼 딥러닝 예측에 있어 5배 향상된 성능으로 알렉스넷(Alexnet)을 배포하고, 1.25배 향상된 성능으로 VGG-16을 배포할 수 있다. 데이비드 리치 이사는 “이미지, 스피치, 센서 및 사물인터넷(IoT) 기술이 빠르게 발전함에 따라 딥러닝 모델의 복잡성이 점차 증가하고 있어 엔지니어에게 엄청난