OEM 설계 복잡성, 검증, 소프트웨어 개발 노력, 비용 줄일 것으로 기대 NXP 반도체가 핵심 팩 레벨 기능을 단일 장치에 통합한 배터리 정션 박스 집적 회로(IC)인 'MC33777'을 발표했다. MC33777 배터리 정션 박스 IC는 NXP 전기화 시스템 솔루션 포트폴리오의 최신 제품이다. 이 포트폴리오는 차량 안전을 유지하면서 주행 거리를 연장하기 위해 유연하고 정밀하게 전기차 에너지 흐름을 관리한다. NXP 전기화 시스템 솔루션 포트폴리오에는 MC33777 외에도 배터리 셀 컨트롤러, 배터리 게이트웨이 IC, 생산 등급 소프트웨어, 안전 문서가 포함된다. MC33777은 여러 개의 개별 부품, 외부 액추에이터, 프로세싱 지원이 필요한 기존의 팩 레벨 모니터링 솔루션과 달리, 필수 배터리 관리 시스템(BMS) 기능을 통합했다. 이는 OEM의 설계 복잡성, 검증, 소프트웨어 개발 노력, 비용을 크게 줄이면서 시스템의 전반적인 성능을 향상한다. 이 최첨단 IC는 8마이크로초 단위로 배터리 전류와 전압을 지속적으로 모니터링해 고전압 배터리를 과전류로부터 보호할 수 있다. 예를 들어, 특정 전류 임계값이 초과할 때까지 대기하지 않아도 구성 가능한 광범위 매트
윤성호 대표, ‘AI는 어떻게 제조 생산성을 혁신하는가’ 주제로 기조강연 진행 마키나락스가 양재 엘타워에서 열린 제7회 소부장미래포럼의 기조 강연을 진행했다고 27일(금) 밝혔다. 설립 1주년을 기념해 소부장 산업 생태계 강화를 위한 논의의 장으로 마련된 이번 포럼에는 안덕근 산업통산자원부 장관을 비롯해 100여명의 산학 리더들이 참석했다. 산업통상자원부 안덕근 장관은 축사를 통해 “제조 기업의 지속적인 혁신, 특히 제조업의 근간인 소부장 산업 리더의 노력을 바탕으로 우리나라가 세계적인 제조 경쟁력을 갖출 수 있었다"며 "앞으로 AI를 기반으로 반도체, 배터리와 같은 핵심 산업에서 초격차를 만도록 정부 역시 적극적인 지원을 확대할 것"이라고 전했다. 마키나락스 윤성호 대표는 이번 포럼에서 ‘AI는 어떻게 제조 생산성을 혁신하는가’를 주제로 기조강연을 진행했다. 윤 대표는 제조 현장에서 기업이 AI 도입 과정에서 겪는 실질적인 어려움과 이를 극복한 기업 성공 사례를 통해 제조 현장에서 AI가 창출하는 가치에 대한 인사이트를 공유했다. 윤성호 대표는 “중국의 가격 공세에 대응하고, 제품의 품질을 높이기 위한 전략으로서 대한민국 제조의 중추적인 역할을 맡고 있는
최신 구글 제미나이 모델 제품군을 버텍스 AI 플랫폼에서 제공할 예정 구글 클라우드는 전 세계 고객의 생성형 AI 대규모 활용 사례를 소개하는 글로벌 온라인 행사 ‘제미나이 앳 워크’에서 새로운 제품 혁신을 비롯한 업계 최고 수준의 AI 포트폴리오 업데이트를 발표했다. 이번 업데이트를 통해 구글 클라우드는 기업이 생성형 AI를 활용해 아이디어를 실제 운영 단계로 전환할 수 있도록 최신 구글 제미나이 모델 제품군을 버텍스 AI 플랫폼에서 제공한다. 또한 구글 클라우드의 선도적인 컨택 센터 AI 솔루션과 새로운 생성형 AI 기능을 결합한 고객 인게이지먼트 제품군을 신규 출시한다. 구글 워크스페이스용 제미나이에는 새로운 엔터프라이즈급 데이터 보호 기능이 도입될 예정이다. 구글 클라우드는 성능, 지연 시간, 비용의 한계를 뛰어넘어 고객에게 엔터프라이즈 사례 구축에 적합한 최상의 모델을 제공한다. 이번 행사에서 구글 클라우드는 제미나이 1.5 프로와 제미나이 플래시의 업데이트 버전을 정식으로 출시했으며, 버텍스 AI에서 활용할 수 있다고 발표했다. 제미나이 1.5 프로와 제미나이 플래시 모델의 수학 능력, 장문의 컨텍스트 이해 및 시각화 기능 등이 개선됐으며, 제미나
AI 인프라에 일반적으로 사용되는 가상화 컴퓨팅의 오버헤드 제거해 AMD는 오라클 클라우드 인프라스트럭처(OCI)가 자사의 최신 OCI 컴퓨트 슈퍼클러스터 인스턴스인 BM.GPU.MI300X.8의 구동을 위해 ROCm 오픈 소프트웨어와 'AMD 인스팅트 MI300X' 가속기를 채택했다고 밝혔다. AMD MI300X를 탑재한 OCI 슈퍼클러스터는 수천억 개의 파라미터로 구성 가능한 AI 모델에서 OCI의 다른 가속기와 동일한 초고속 네트워크 패브릭 기술을 활용해 단일 클러스터에서 최대 1만6384개의 GPU를 지원한다. 업계 최고 수준의 메모리 용량 및 대역폭을 제공하고, 높은 처리량을 필요로 하는 대규모 언어 모델(LLM) 추론 및 트레이닝을 포함한 까다로운 AI 워크로드 실행이 가능하도록 설계된 OCI 베어 메탈 인스턴스는 이미 파이어워크 AI 등의 기업에서 채택된 바 있다. AMD 데이터 센터 GPU 비즈니스 기업 부사장 겸 총괄 매니저인 앤드류 디크만(Andrew Dieckmann)은 “AMD 인스팅트 MI300X 및 ROCm 오픈 소프트웨어는 OCI AI 워크로드와 같이 중요도가 높은 분야를 지원하며, 이를 통해 신뢰할 수 있는 솔루션으로서 성장을 이
HBM3E 8단 제품을 업계 최초로 고객에게 납품한 지 6개월 만에 기술력 재입증 SK하이닉스가 26일인 오늘 현존 HBM 최대 용량인 36GB를 구현한 HBM3E 12단 신제품을 세계 최초로 양산하기 시작했다고 밝혔다. 기존 HBM3E의 최대 용량은 3GB D램 단품 칩 8개를 수직 적층한 24GB였다. SK하이닉스는 양산 제품을 연내 고객사에 공급할 예정으로, 지난 3월 HBM3E 8단 제품을 업계 최초로 고객에게 납품한 지 6개월 만에 또 한 번 압도적인 기술력을 증명했다. SK하이닉스는 “당사는 2013년 세계 최초로 HBM 1세대(HBM1)를 출시한 데 이어 HBM 5세대(HBM3E)까지 전 세대 라인업을 개발해 시장에 공급해 온 유일한 기업”이라며 “높아지는 AI 기업의 눈높이에 맞춘 12단 신제품도 가장 먼저 양산에 성공해 AI 메모리 시장에서 독보적인 지위를 이어가고 있다”고 강조했다. SK하이닉스는 HBM3E 12단 제품이 AI 메모리에 필수적인 속도, 용량, 안정성 등 모든 부문에서 세계 최고 수준을 충족시켰다고 설명했다. 우선 이번 제품의 동작 속도를 현존 메모리 최고 속도인 9.6Gbps로 높였다. 이는 이번 제품 4개를 탑재한 단일 G
HBM(High Bandwidth Memory) 기술력이 고도화함에 따라, HBM 시장의 지형도가 변화하고 있다. 최근 HBM 상용화 과정을 살펴보면, HBM 5세대인 HBM3에서 HBM3E 8단 그리고 HBM3E 12단까지 도달했다. 현재 HBM 시장은 SK하이닉스를 선두로 삼성전자와 마이크론 테크놀로지(이하 마이크론) 등 기존 메모리 반도체 기업들의 삼파전 양상으로 굳어지고 있다. HBM 시장 확대가 예상되는 가운데, 이들의 주도권 싸움은 더욱 치열해질 것으로 보인다. HBM 시장이 확대될 수밖에 없는 이유 HBM은 최신 AI 알고리즘과 머신러닝 작업에서 데이터 전송 속도와 처리 효율성을 극대화하는 데 중요한 역할을 한다. HBM은 기존 D램 메모리와 비교할 때 현저하게 높은 대역폭을 제공하며, AI 모델 학습과 추론에 필수적인 고속 데이터 처리를 수행한다. 특히 AI 칩에 사용되는 그래픽처리장치(GPU)에 대거 탑재되면서, HBM은 상한가를 누리고 있다. 또한, 일반 D램에 비해 가격이 약 4배가량 높은 고부가 제품이이기에, 메모리 반도체 기업의 차세대 먹거리로 낙점됐다. 욜그룹의 조사에 따르면, 세계 HBM 시장 규모는 올해 141억 달러(약 19조
미디어브릿지 기능으로 언론과의 관계 형성 맟 배포 성과 손쉽게 파악 스타씨드가 '퓰리처 AI 2.0’으로 대규모 기능을 업데이트하며 유료 멤버십 플랜을 도입한다고 26일 밝혔다. 이번에 도입된 유료 멤버십은 무료 플랜부터 시작해 다양한 금액대의 옵션을 제공한다. 퓰리처 AI는 다양한 LLM을 활용해 간단한 키워드 입력만으로 홍보에 최적화한 보도자료를 작성하는 AI툴이다. 지속적인 프롬프트 최적화와 고객 피드백 데이터를 기반으로 서비스 품질을 향상하고 있다. 한국어 외에도 영어, 일본어, 프랑스어 등 총 4개 국어로 교차 생성이 가능하다. 이번 유료화를 통해서는 가장 최신의 LLM 기술을 도입해 전문적인 결과물을 쉽게 얻게 됐다. 이번 업데이트에서는 7개 이상의 LLM 적용, 커스텀 이미지 적용 기능, 기사 커버리지 성과 분석 및 PR 활동 기록 기능인 ‘미디어브릿지’로 언론과의 관계 형성과 배포 성과를 한눈에 파악·분석하는 것이 특징이다. 미디어브릿지 기능은 1만 명 이상 기자의 주요 기사 작성 분야부터 기사 게재 시간까지 다양한 데이터를 AI로 분석해 제공한다. 또한, 기자와의 미팅 기록을 추가하고 관심 있는 기자를 등록하는 등 사용자는 자신의 일정 관리와
저전력 고효율 NPU 기반의 AI 솔루션 시장 본격 확대 예고해 리벨리온이 코오롱베니트와 AI 분야 기술 협력 및 시장 확대를 위한 협약을 체결했다고 26일 밝혔다. 이번 협약 체결로 양사는 AI 솔루션 및 인프라 노하우와 IT 파트너 네트워크를 활용해 기술적·사업적 시너지를 만들어가며, 저전력 고효율 NPU 기반의 AI 솔루션 시장을 본격적으로 확대할 계획이다. 먼저 현장 실증 프로젝트로 시장 확대를 위한 검증에 돌입한다. 양사는 리벨리온의 NPU를 기반으로 비전 AI 등 AI를 접목한 현장 실증 프로젝트를 수행한다. 이어 NPU 기반 하드웨어와 소프트웨어를 구성하고 이를 활용해 비전 및 LLM(Large Language Model), 멀티모달 모델을 아우르는 AI 솔루션을 선보일 계획이다. 향후 서비스 모델 발굴과 성공적인 사업화를 위해서도 힘을 모은다. 국가 R&D 과제 참여 등으로 시장성 확보에 나서는 한편, NPU 및 AI 관련 분야에서 시장 저변 확대를 위해 각 사의 국내외 네트워크를 활용해 양사가 개발한 기술 및 서비스 모델을 확산하는 것이 목표다. 리벨리온은 올해 양산에 나선 AI 반도체 ‘아톰(ATOM)’을 기반으로 본격적으로 AI반도
5대 첨단전략산업 분야 중심으로 총 27곳을 3기 기업에 선정해 마키나락스가 방위사업청이 주관하는 ‘방산혁신기업 100’ 프로젝트 3기의 인공지능 분야에 선정됐다고 26일 밝혔다. 국방 분야에서 활용 가능한 엔터프라이즈 AI 플랫폼 제공 기업으로는 유일하게 선정됐다. 방산혁신기업 100은 4차 산업혁명으로 인한 미래 전장의 변화 및 최근 통상환경 변화에 대비하기 위해 2026년까지 국방 첨단전략산업분야의 우수 중소·벤처기업 100개를 선정해 집중 육성하는 사업이다. 올해는 우주, 인공지능, 반도체, 로봇, 드론 등 5대 첨단전략산업 분야 중심으로 총 27곳을 3기 기업에 선정했다. 마키나락스는 산업에 특화된 AI 기술력과 자체 개발한 AI 플랫폼 ‘런웨이’의 우수성을 인정받아 인공지능 분야에 선정됐다. 클릭 기반의 간편한 UI로 사용자의 편의를 보장하는 런웨이는 지난해부터 국방과학연구소에서 시범 도입해 사용 중인 AI 플랫폼이다. 마키나락스는 방산혁신기업 100 선정으로 런웨이를 확장 제공하며 국방 AI 도입 파트너로 자리매김할 예정이다. 런웨이는 군사 작전에 필요한 해결 방식을 AI가 추천하고 제공되는 가이드에 따라 클릭만으로 결과를 확인해 배포할 수 있는
기존 ACMI를 최신 AI 기반의 개선된 신규 체계로 전환 구축하고자 추진 코난테크놀로지가 앞선 기술력으로 국방의 AI 시스템 구축을 선도하고 있다. 코난테크놀로지는 13일 공군 전력지원체계사업단의 ‘AI 기반 ACMI 수집분석체계 구축 사업’의 우선협상자로 선정됐다. 사업비는 15억 원대며, 사업기간은 3개월간으로 올해 12월까지다. 이번 사업은 노후화된 기존의 공중전투기동훈련체계(Air Combat Maneuvering Instrumentation, 이하 ACMI)를 최신 AI 기반의 개선된 신규 체계로 전환 구축하고자 추진됐다. 이에 따라 공군의 항공기 및 전투기 훈련 과정에서 ACMI 임무데이터를 분류 및 구조화함으로써 조종사들의 공중전 훈련능력을 향상시키고, 나아가 AI 기반 모의비행훈련체계와 유·무인 복합전투체계 등 국방혁신 4.0 실현을 가속할 것으로 기대된다. 최신 STT 기술을 통해 조종사의 음성데이터를 변환하는 과업도 포함된다. 비행 훈련 중 지상통제소와 조종사간 음성교신내용이 녹음된 파일에 대해 AI 학습을 통해 그 내용을 문자데이터로 변환해주는 역할로서, 코난테크놀로지의 딥러닝 기반 음성인식 엔진이 도입된다. 김영섬 대표이사는 “AI 기
엔비디아 비롯해 아마존, 앤트로픽, 애플, 구글, IBM, 메타, 마이크로소프트, 오픈AI 참여해 엔비디아가 미국 정부의 글로벌 AI 포용성을 위한 파트너십(Partnership for Global Inclusivity on AI, PGIAI) 출범에 동참한다고 밝혔다. 엔비디아는 이를 통해 개발도상국에 딥러닝 인스티튜트 교육, GPU 크레딧, 하드웨어와 소프트웨어 보조금을 제공할 예정이다. 지난 23일(현지 시간) 뉴욕에서 열린 유엔 총회에서 앤서니 블링컨(Anthony Blinken) 미 국무장관이 이번 파트너십을 발표했다. 이는 전 세계의 지속 가능한 발전을 촉진하기 위해 AI의 잠재력을 활용하는 것을 목표로 한다. 엔비디아 정부 담당 부사장인 네드 핀클(Ned Finkle)은 “AI는 차세대 산업 혁명을 주도하고 있다. 또한, 지속 가능한 개발 목표에 의미 있는 진전을 이룰 수 있는 놀라운 잠재력을 제공한다. 엔비디아는 연구, 교육, 중소기업에 대한 지원 등을 통해 커뮤니티가 AI를 활용해 혁신할 수 있도록 힘을 실어주기 위해 최선을 다하고 있다”고 말했다. 이 파트너십에는 아마존, 앤트로픽, 애플, 구글, IBM, 메타, 마이크로소프트, 오픈AI가
시연존과 체험존으로 부스 구성해 다양한 AI 교육 서비스 선보여 엘리스그룹의 공교육 AI 교육 솔루션 브랜드 엘리스스쿨이 지난 23일부터 25일까지 서울 코엑스에서 열린 ‘2024 에듀테크 코리아 페어’에 참가해 성공적으로 전시를 운영했다. ‘AI가 이끄는 에듀테크의 미래’라는 주제로 열린 ‘2024 에듀테크 코리아 페어’는 교육부, 산업통상자원부, 한국디지털교육협회, 한국에듀테크산업협회가 주최했다. 엘리스스쿨은 시연존과 체험존으로 부스를 구성해 공교육 특화 전과목 올인원 AI코스웨어인 ‘엘리스스쿨 AI코스웨어’, 전국 초∙중∙고 교원들의 디지털 역량 강화를 위한 ‘엘리스스쿨 교육연수원’, 엘리스그룹이 개발한 AI 디지털교과서 프로토타입 영어, 정보 교과목 등 AI 시대에 달라질 학교 교육 현장을 미리 경험할 수 있는 다양한 AI 교육 서비스와 제품을 선보였다. 시연존에서는 엘리스스쿨 교육연수원 프로그램에서 호평 받아온 연수 콘텐츠들을 압축적으로 보여주는 무료 교원 세미나 ‘엘리스 스마트 클래스’가 하루 5회씩 진행됐다. 엘리스그룹이 개발한 AI 디지털교과서 프로토타입의 주요 기능과 콘텐츠 안내에 더불어 AI 대시보드, AI 보조교사 등 대표 AI 기능을 수
카카오클라우드의 서비스형GPU, 응답속도·안정성·비용 면에서 적합해 카카오엔터프라이즈가 26일 AI 스타트업 스캐터랩이 카카오클라우드 기반으로 최근 출시한 인터랙티브 AI 콘텐츠 플랫폼 ‘제타(zeta)’를 서비스하고 있다고 밝혔다. 지난 4월 출시된 제타는 국내 최초로 AI와 함께 실시간으로 스토리를 창작할 수 있는 플랫폼이다. 사용자가 자신이 만들고 싶은 캐릭터의 이름, 이미지, 특징 등을 프롬프트에 입력하면 스캐터랩의 생성 AI 기술이 해당 내용을 스토리와 대화에 반영한다. 스캐터랩은 감성 대화에 탁월한 성능을 보이는 자체 AI 언어 모델을 파인튜닝해 제타에 적용했으며 지속적으로 모델 최적화 및 서빙 작업을 진행 중이다. 출시 이후 제타는 매달 2배 이상의 트래픽 증가세를 보였고 이에 더 많은 GPU가 필요하게 됐다. 스캐터랩은 사용자 접속량과 수요에 맞춰 GPU 사용량에 따라 가변적으로 조절할 수 있고 빠른 응답속도와 안정성, 가격 합리성을 모두 갖춘 카카오클라우드의 서비스형 GPU(GPUaaS)를 선택했다. 제타는 카카오클라우드의 클라우드 컴퓨팅 서비스인 Beyond Compute Service(BCS) 중 컴퓨팅 성능을 가속화하는 기술이 적용된 G
양사, 비즈니스 인프라 공유하고 기술적 상호 보완에 집중 베슬에이아이와 업스테이지가 글로벌 경쟁력을 강화하기 위한 전략적 파트너십(MOU)을 체결했다고 26일 발표했다. 이번 협약을 통해 양사는 비즈니스 인프라를 공유하고 기술적 상호 보완에 집중할 예정이다. 베슬에이아이의 'VESSL 플랫폼'을 업스테이지의 다양한 인프라와 통합해 AI 모델의 안정성과 호환성을 높이고, 비용 효율성을 강화해 국내외 기업의 AX 경쟁력을 확보하는 것을 목표로 한다. 베슬에이아이는 현재 AI 도입과 운영 전반을 지원하는 MLOps-LLMOps 플랫폼을 운영하며, 업스테이지는 자체 개발한 대형언어모델(LLM) ‘솔라’를 기반으로 기업 맞춤형 AI 모델을 구축하고 있다. 양사는 AI 공급 과정에서 중복되는 역할을 조정하고, 각자의 강점을 극대화해 기술적 시너지를 창출할 계획이다 양사는 미국과 한국을 중심으로 세일즈와 마케팅 등 비즈니스 측면에서도 협력할 예정이다. 대표적으로 규정 및 보안 문제로 기업이 선호하지만 초기 비용이 큰 온프레미스 방식의 AI 도입 시, 비용 효율적인 라이센스 제공으로 고객사의 부담을 줄여 경쟁력을 강화한다는 전략이다. 베슬에이아이 안재만 대표는 "다국어 L
'제온 6 P-코어'와 '가우디 3' AI 가속기로 AI 시스템 지원해 AI를 통한 업계 혁신이 계속되면서 기업들은 비용 효율적이면서도 빠르게 개발 및 배포할 수 있는 인프라를 필요로 하고 있다. 이러한 요구에 대응하기 위해 인텔은 오늘 '제온 6 P-코어'와 '가우디 3' AI 가속기를 출시하며, 최적의 와트당 성능과 더 낮은 총 소유 비용(TCO)을 제공해 강력한 AI 시스템을 지원하겠다고 밝혔다. 인텔 데이터센터 및 AI 사업 총괄 저스틴 호타드(Justin Hotard) 수석부사장은 "AI에 대한 수요가 데이터 센터의 대규모 변화를 이끌며, 업계는 하드웨어, 소프트웨어, 개발 도구에서 다양한 선택지를 원하고 있다"고 말하며, "제온 6 P-코어 프로세서 및 가우디 3 AI 가속기의 출시와 함께, 인텔은 고객이 더 높은 성능, 효율성, 보안을 갖춘 워크로드를 구현할 수 있도록 개방형 생태계를 지원하고 있다"고 강조했다. 한편, 인텔코리아는 9월 26일 서울 전경련회관에서 데이터센터용 신제품 출시 기자간담회를 갖고, 제온 6 P-코어와 가우디 3 신제품의 상세한 기술사항을 발표했다. 인텔 데이터센터 및 AI 사업부 한국 영업 총괄 나승주 상무는 “지난 6