어드밴스드 MR-MUF, 하이브리드 본딩 기술 모두 검토해 적용할 예정 SK하이닉스가 맞춤형 고대역폭 메모리(HBM)인 6세대 제품 HBM4에 맞춰 차세대 패키징 기술 개발에 속도를 낸다. HBM4 16단부터는 어드밴스드 MR-MUF, 하이브리드 본딩 기술을 모두 검토해 고객 니즈에 부합하는 최적의 방식을 쓰겠다는 계획이다. 이규제 SK하이닉스 PKG제품개발 담당 부사장은 자사 뉴스룸에 공개된 인터뷰에서 "커스텀 HBM에 맞춰 차세대 패키징 기술을 개발하겠다"며 "방열 성능이 우수한 기존 어드밴스드 MR-MUF를 지속적으로 고도화하는 한편, 하이브리드 본딩 등 새로운 기술을 확보할 계획"이라고 밝혔다. HBM은 D램을 여러 개를 쌓아 만든다. 적층 수가 많아질수록 방열, 휨 현상 등이 발생해 이를 해결할 패키징 기술이 필수적이다. 특히 하이브리드 본딩 기술은 16단 이상 HBM 제품에서 필요성이 커지고 있다. 하이브리드 본딩은 칩을 적층할 때 칩과 칩 사이에 범프를 형성하지 않고 직접 접합시키는 기술이다. 이 기술을 활용하면 칩 전체 두께가 얇아져 고단 적층이 가능해진다는 강점이 있다. 이 부사장은 "표준 규격에 따라 제품 두께는 유지하면서도 성능과 용량을
2분기 전 세계 실리콘 웨이퍼 출하량은 30억3500만in²로, 1분기 대비 7.1% 증가 올해 2분기 실리콘 웨이퍼 출하량이 직전 분기 대비 증가한 것으로 나타났다. 5일 국제반도체장비재료협회(SEMI)에 따르면, 2분기 전 세계 실리콘 웨이퍼 출하량은 30억3500만in²로, 1분기 대비 7.1% 증가했다. 작년 동기(33억3100만in²)보다 8.9% 줄어든 수치다. 1분기 실리콘 웨이퍼 시장은 팹 가동률 하락과 재고 조정으로 출하량이 역성장했으나, 2분기 들어 데이터 센터와 생성형 AI에 대한 수요로 회복세를 보였다. 새로운 팹이 건설되고 생산 능력이 확장됨에 따라 향후 시장 전망 또한 밝다고 SEMI는 내다봤다. 디스크 모양의 실리콘 웨이퍼는 1인치에서 12인치까지 다양한 직경으로 생산되며 반도체 칩 생산을 위한 기판 소재로 쓰인다. 헬로티 전자기술 기자 |
AI 시장 확대에 따른 온디바이스 AI 기기 급부상이 기회로 작용해 올해 2분기 삼성전자의 전체 영업이익의 60%를 반도체 사업을 담당하는 디바이스솔루션(DS)부문이 차지한 가운데 애플리케이션 프로세서(AP) 등을 맡는 시스템LSI의 실적 개선에도 이목이 쏠린다. 5일 업계에 따르면 삼성전자 DS부문은 올해 2분기 매출 28조5600억 원, 영업이익 6조4500억 원을 기록하며 반도체 부활을 알렸다. 반도체 사이클 업턴에 따라 메모리가 크게 선전한 것이 주효했다. 지난달 31일 2분기 실적발표 콘퍼런스콜에서도 고대역폭 메모리(HBM) 등 메모리 반도체에 시선이 집중됐다. 설계를 담당하는 시스템LSI도 점차 실적 기여도를 높여가고 있다. 메모리를 제외한 DS부문 시스템LSI·파운드리 매출은 2분기 6조8200억 원을 기록했다. 전년 동기(5조7600억 원)보다 1조600억 원 많아졌고, 직전분기(5조6500억 원)와 비교해도 1조1700억 원 상승한 수치다. 증권가에서는 오는 3·4분기에도 각각 7조∼8조 원의 매출을 낼 것으로 보고 있다. 권형석 삼성전자 시스템LSI사업부 상무는 2분기 실적 콘퍼런스콜에서 "시스템LSI는 2분기에 주요 부품 공급 증가로 실적
생성형 언어모델 적용으로 신속한 의사결정 지원 및 업무효율성 개선 추진 코난테크놀로지가 사이버&네트워크연구원과 협력해 국방부의 ‘군 인사업무 분야 대형언어모델(LLM) 적용방안 연구’를 수행한다. 코난테크놀로지는 2022년 12월 국방부의 ‘스마트 인재관리시스템’ 구축 사업을 계약한 바 있다. 군 인사분야에 AI와 빅데이터 기술을 접목한 스마트 인재관리시스템을 2025년까지 구축하는 사업으로, 이번 연구도 해당 사업과 관련 있다. 육군 인사사령부가 주관기관인 군 인사업무에 생성형 언어모델을 적용 방안에 대해 지난달 29일 사이버&네트워크연구원과 협력해 연구를 시작했다. 군 인사업무에는 정책수립(인사기획, 인사제도, 근무복지 정책), 인재선발(장교·부사관·군무원 모집 및 면접/평가), 인재관리(장병 입대 후 최초 병과·특기/보직 부여 및 보직 관리), 교육선발(군사교육 대상자 선정 및 성과관리), 진급관리(인사DB 및 각종 검증자료 활용 디지털 진급 관리), 전역지원(전직 교육, 컨설팅 등 취·창업지원에 관한 제반 업무 수행), 보훈지원(보훈대상자 관리 및 예비역 장병 지원업무 수행), 기록물 관리 등 여러 분야에서 중요 과업이 수반된다. 이렇듯
국내 AI 기업이 공개한 온디바이스 AI 중 첫번째 사업화 사례로 알려져 셀바스AI가 온디바이스 AI 음성합성 솔루션 ‘Selvy deepTTS On-Device’를 밀리의서재 서비스에 첫 상용화했다고 5일 밝혔다. 이는 국내 AI 기업들이 공개한 온디바이스 AI 중 첫번째 사업화 사례로, 셀바스AI만의 강점인 기술 개발, 제품화, 상용화로 이어지는 3단계 모두에서 경쟁력을 입증한 것으로 평가되고 있다. 구독자들은 밀리의서재가 보유한 콘텐츠를 자연스러운 AI 음성으로 들을 수 있게 됐다. 밀리의서재의 베스트셀러부터 월 1000권 이상의 신간에 적용될 뿐 아니라 소설, 에세이, 시, 자기계발, 경제경영 등 기존에 서비스하는 다양한 도서에도 AI 음성이 적용된다. 현재 안드로이드에서 사용할 수 있으며, 연내 iOS에도 적용할 계획이다. Selvy deepTTS On-Device는 딥러닝 기반 음성합성 신제품으로, AI가 사람처럼 자연스럽고 유창하게 전자책을 읽어준다. 인터넷 연결 없이도 사람의 호흡, 억양, 감성 등 다양한 음성 요소를 정교하게 구현하도록 모델링했다. 특히 음성합성 모델 구조 경량화와 함께 음성 데이터를 세밀하게 분석∙예측해 자연스럽고 정확한 음
데이터, 가속 컴퓨팅, 소프트웨어 도구 등 사용해 맞춤형 모델 생성 및 배포하도록 지원 엔비디아가 엔비디아 AI 파운드리로 AI의 역량을 활용하고자 하는 기업들이 특정 산업 요구에 맞는 맞춤형 모델을 구축할 수 있도록 지원한다고 밝혔다. 엔비디아 AI 파운드리는 기업이 데이터, 가속 컴퓨팅, 소프트웨어 도구 등을 사용해 맞춤형 모델을 생성하고 배포할 수 있도록 지원하는 서비스다. 이를 통해 기업은 생성형 AI 이니셔티브를 강화할 것으로 보인다. 엔비디아 AI 파운드리는 다른 기업이 AI 모델을 개발하고 맞춤화할 수 있도록 인프라와 도구를 제공한다. 기업들은 엔비디아 AI 파운드리 서비스를 통해 DGX 클라우드, 파운데이션 모델, 엔비디아 네모 소프트웨어, 엔비디아 전문 지식, 에코시스템 도구와 지원을 사용할 수 있다. 이는 마치 TSMC가 다른 기업이 설계한 칩을 제조하는 것과 같다. 가장 큰 차이점은 제품이다. TSMC는 실제 반도체 칩을 생산하는 반면, 엔비디아 AI 파운드리는 맞춤형 모델을 제작하는 데 도움을 준다. 두 기업 모두 혁신을 지원하고 방대한 도구와 파트너 에코시스템을 연결하고 있다. 기업은 AI 파운드리를 사용해 메타의 새로운 라마 3.1
데이터 센터는 AI 개발과 데이터 분석, 클라우드 컴퓨팅과 같은 기술의 핵심 인프라로 자리매김했다. 이 기술의 급격한 발전과 더불어 데이터 센터 수요도 기하급수적으로 증가하는 추세다. AI 개발을 주도하는 주요 국가들은 필수 지역에 데이터 센터 구축을 요구하며, 기업들은 그 전략에 부응해 데이터 센터를 구축하고 있다. 무엇보다 데이터 센터와 관련해 AI 연구 개발이 전력 소비를 크게 증가시키고 있어, 데이터 센터의 에너지 관리와 탄소중립은 어느 때보다 중요한 이슈로 부상하고 있다. AI 경쟁과 심화하는 전력 소비 최근 빅테크 사이에서 발표된 환경 보고서가 화제다. 이에 따르면, AI 인프라 구축 과다로 인한 기후변화 대처에 미숙했다는 내용이 골자다. 구글은 지난해 자사 온실가스 배출량이 전년 대비 13% 증가한 1430만t을 기록했다고 공개했다. 이는 5년 만에 온실가스 배출이 48% 증가했다는 것을 의미한다. 구글은 주 요인으로 데이터 센터 증가를 꼽았다. 구글은 2030년까지 탄소중립을 완성하는 것은 어려운 일이라며, AI가 미래 환경에 미칠 영향에 대해 불확실성이 존재한다고 밝혔다. 지난 5월 마이크로소프트(MS)는 데이터 센터로 인해 2020년 이후
HBM(High Bandwidth Memory)이 가진 시장 가치가 치솟고 있다. 최근 반도체 시장이 호황에 접어들면서, HBM은 AI 반도체에 필수 요소로 자리잡았다. 더욱이 HBM을 원하는 시장 수요가 점차 증가하는 추세다. HBM을 생산하는 주요 기업의 행보도 연일 뉴스거리다. HBM3E 납품을 시작한 SK하이닉스, 마이크론 테크놀로지와 아직 HBM3E 검증기간을 거치는 삼성전자가 그 주인공들이다. 업계에서는 주요 고객사로 납품되는 5세대 HBM3E을 넘어 6세대 HBM4의 향방을 점치고 있다. 수출, 고객 수요에서 영향력 확대되는 HBM 국내 수출 부문에서 큰 비중을 차지하는 분야는 단연 반도체다. 반도체 안에서도 메모리 반도체가 대부분을 차지하는 가운데, HBM 비중이 점차 확대되고 있다. 산업통상자원부 조사에 따르면, 6월 국내 반도체 수출액은 134억2000만 달러였으며, 이중 HBM을 포함한 메모리 반도체 수출액은 88억 달러로, 반도체 수출에서 65.8%를 차지한 것으로 알려졌다. 산업부는 시스템 반도체 수출이 상대적으로 더디게 증가하는 과정에서 메모리 반도체 수출이 빠르게 확대되고 있다고 언급했다. AI 성능 개선을 위해 요구되는 HBM의
라마 3.1 405B 포함해 다양한 규모와 기능에서 새로운 업데이트 모델 제공 인텔은 메타의 최신 대규모 언어 모델(LLM)인 라마 3.1에 데이터 센터, 엣지 및 클라이언트 AI 제품 전반에 걸친 성능 데이터 및 최적화를 제공한다고 밝혔다. 인텔은 ‘AI 에브리웨어’ 전략을 위해 AI 소프트웨어 생태계에 지속적으로 투자하며, 새로운 모델이 인텔의 AI 하드웨어에 최적화하도록 보장하고 있다. 메타는 지난 4월 라마 3 출시에 이어, 지난 23일(현지 시각) 현재까지 가장 성능이 뛰어난 모델인 라마 3.1을 출시했다. 라마 3.1은 공개적으로 사용 가능한 가장 큰 파운데이션 모델인 라마 3.1 405B(4050억 개 모델)를 포함해 다양한 규모와 기능에서 여러 새로운 업데이트 모델을 제공한다. 이 새로운 모델들은 파이토치 및 인텔 파이토치 익스텐션, 딥스피드, 허깅 페이스 옵티멈 라이브러리, vLLM 등 개방형 생태계 소프트웨어를 통해 인텔 AI 제품에서 활성화 및 최적화된다. 또한 생태계 전반에서 최고의 혁신을 활용하는 개방형, 멀티 벤더, 강력하고 컴포저블한 생성형AI 솔루션을 만들기 위한 LF AI 및 데이터 재단의 새로운 오픈 플랫폼 프로젝트인 OPEA
4개 분기 연속으로 예상치에 못 미치는 '어닝 미스' 기록해 테슬라가 2분기 시장의 기대에 못 미치는 부진한 실적을 낸 데다 일론 머스크 최고경영자(CEO)의 발표 내용도 실망스럽다는 평가가 나오면서 24일(현지시간) 주가가 10% 넘게 폭락했다. 이날 뉴욕증시에서 테슬라 주가는 전장보다 12.33% 내린 215.99달러에 마감했다. 장중 한때는 214.71달러(12.85%↓)까지 내리기도 했다. 앞서 테슬라 주가는 지난 4월 22일 138.80달러까지 떨어져 52주 신저가를 기록했다가 다음날 1분기 실적 발표에서 머스크가 밝힌 로보택시 사업 계획 등에 힘입어 상승세로 돌아섰다. 이후 11주간 주가는 74% 올라 연초와 비슷한 수준으로 회복했다. 전날 종가 기준 시가총액은 약 7858억 달러를 기록했다. 하지만 이날 하루 만에 주가가 10% 넘게 급락하면서 시총에서 약 969억 달러가 증발해 6888억 달러 수준으로 내려앉았다. 이달 들어 플러스로 전환했던 연중 주가 수익률도 이날 다시 마이너스(-) 13%로 돌아섰다. 테슬라는 전날 증시 마감 후 월가의 예상치보다 부진한 실적을 발표했다. 테슬라의 2분기 주당순이익은 0.52달러로 월가의 예상치인 0.62달
AI 투자가 예상보다 늘어나면서 수익성 우려가 제기된 데 따른 것으로 보여 구글 모회사 알파벳이 2분기 호실적 발표에도 24일(현지시간) 주가는 큰 폭으로 하락했다. 전날 실적을 발표한 전기차 업체 테슬라 주가도 두 자릿수 하락을 기록하면서 실적 발표를 앞둔 다른 빅테크 기업의 주가도 크게 내렸다. 이날 뉴욕 증시에서 알파벳 주가는 전날보다 5.03% 내린 174.37달러(24만 원)에 거래를 마쳤다. 종가 기준으로 지난달 3일(174.22달러) 이후 가장 낮은 수준이다. 구글 주가가 이날 큰 폭으로 내린 것은 전날 실적 발표에서 인공지능(AI) 투자가 예상보다 늘어나면서 수익성 우려가 제기된 데 따른 것으로 풀이된다. 구글의 2분기 매출은 지난해 같은 기간보다 14% 증가하며 네 분기 연속 두 자릿수 성장을 이어갔고, 순이익은 1년 전보다 29% 증가했다. 매출과 순이익 모두 월스트리트의 전망치를 충족했다. 그러나 2분기 자본 지출이 132억 달러로 증가했다고 밝혀 분석가들이 예상했던 122억 달러를 8% 초과했다. 생성형 AI 서비스를 지원하는 데 필요한 인프라에 투자가 늘어난 것이다. 알파벳은 이 지출을 통해 구글의 AI 프로그램과 컴퓨팅 수요를 지원했
SK하이닉스가 올해 2분기 고대역폭 메모리(HBM) 효과로 6년 만에 분기 영업이익 5조 원대를 기록했다. 최근 인공지능(AI) 시장 확대로 HBM 수요가 폭증한 데다, 고성능·고용량 낸드 수요도 크게 늘며 1분기에 이어 호실적을 냈다. SK하이닉스는 연결 기준 올해 2분기 영업이익이 5조4685억 원으로 지난해 동기(영업손실 2조8821억 원)와 비교해 흑자 전환한 것으로 잠정 집계됐다고 25일 공시했다. 반도체 슈퍼 호황기였던 2018년 2분기(5조5739억 원)와 3분기(6조4724억 원) 이후 6년 만에 5조 원대의 영업이익을 냈다. 연합인포맥스가 집계한 시장 전망치 5조5059억 원에도 부합했다. 매출은 16조4233억 원으로 작년 동기 대비 124.8% 증가했다. 매출은 분기 기준 역대 최대 실적으로, 기존 기록인 2022년 2분기 13조8110억 원을 크게 뛰어넘었다. 순이익은 4조1200억 원으로 흑자로 돌아섰다. 2분기 영업이익률은 전 분기보다 10%포인트 상승한 33%를 기록했다. SK하이닉스는 "HBM, eSSD 등 AI 메모리 수요 강세와 함께 D램과 낸드 제품 전반적으로 가격 상승세가 이어졌다"며 "이와 함께 프리미엄 제품 중심으로 판
공정성, 투명성, 책임성, 프라이버시 보호, 안정성을 5대 핵심 원칙 강조 인텔리빅스는 24일 오후 서울 백석예술대학교 비전센터에서 신뢰성과 윤리성을 핵심으로 한 자사 AI 윤리경영원칙을 선포했다고 밝혔다. 인텔리빅스 AI 윤리경영원칙은 2023년 제정된 세계 최초 인공지능(AI) 경영 시스템 국제규격인 ISO/IEC 42001 가이드라인에 맞춰 제정된 것으로 AI 기술을 개발하고 제공하는 과정에서 지켜야하는 원칙을 의미한다. AI 기술의 개발, 배포, 사용에 있어 윤리적 원칙과 기준을 확립해 인텔리빅스의 AI기술이 사회에 긍정적인 영향을 미치고, 부정적인 영향을 최소화를 목표로 한다. 자사 AI 기술의 책임 있는 사용을 촉진하고, 다양한 이해관계자가 인텔리빅스의 AI 시스템을 신뢰하도록 하기 위해 마련됐다. 인텔리빅스는 AI 윤리경영 도입을 위해 AI 경영매뉴얼을 수립했다. 이와 함께 물리보안 중소기업 최초로 한국표준협회(KSA)가 주관하는 ISO42001 인증 획득을 추진하고 있다고 밝혔다. ISO/IEC 42001이란 국제표준화기구(ISO)와 국제전기기술위원회(IEC)가 공동으로 제정한 인공지능 경영시스템 관련 글로벌 표준으로, 기업과 조직이 윤리적 책
이번 업데이트로 딥엘 글로벌 커뮤니케이션 강화 예상돼 딥엘이 자사 번역 서비스에 중국어 번체를 추가했다. 이로써 딥엘 번역기의 지원 언어는 총 33개로 늘어나, 더 많은 비즈니스와 기업이 정확한 AI 번역 서비스를 이용할 수 있게 됐다. 전 세계 3300만 명이 서면 상에서 중국어 번체를 주된 언어로 사용하는 만큼 딥엘은 이번 업데이트를 딥엘의 글로벌 커뮤니케이션을 강화하는 데 중요한 이정표가 될 것으로 보고 있다. 중국어 번체는 대만, 홍콩, 마카오와 같은 주요 시장에서 핵심 서면 커뮤니케이션 수단으로 활용되며 국제 비즈니스 관계에서 중요한 위치를 점하고 있다. 야렉 쿠틸로브스키(Jarek Kutylowski) 딥엘 창업자 겸 CEO는 "딥엘은 글로벌 무역에서 해당 지역이 가지는 중요성을 깊게 인지하고 있다”며, "중국어 번체 추가를 통해 해당 지역 기업의 사업 영역 확장을 도울 뿐 아니라 아시아에서 가장 영향력 있는 시장 진출을 희망하는 기업을 지원하게 됐다"고 덧붙였다. 딥엘은 AI 커뮤니케이션 기술을 선도하며 법률, 소매, 의료, 기술, 제조 등 다양한 산업 분야의 전 세계 10만 개 이상 기업, 정부 기관 및 기타 조직을 고객으로 두고 있다. 딥엘의
다양한 오픈소스 및 상용 모델 선택 가능 및 용도에 따라 변형해 IBM은 기업이 고품질, 고성능의 다양한 파운데이션 모델을 폭넓게 이용하고, 자사의 필요에 따라 맞춤형으로 배포하도록 하기 위한 노력의 일환으로 왓슨x에서 미스트랄 라지(Mistral Large) 모델을 제공한다고 발표했다. 인공지능(AI) 개발자를 위한 IBM의 기업용 AI 스튜디오인 왓슨x는 IBM의 그래니트(Granite) 모델 외에도 다양한 오픈소스 및 상용 모델 선택이 가능하며, 이를 용도에 따라 변형하거나 비즈니스 솔루션 및 애플리케이션과 통합해 사용할 수 있다. IBM은 이미 왓슨x 내에서 기업 환경에 적용할 수 있는 소규모 모델인 Mixtral-8x7B를 제공하고 있다. 이 모델은 IBM이 최적화한 모델로, 주어진 시간 동안 처리할 수 있는 데이터의 양이 기존 모델보다 50% 증가했다. 이번에 새롭게 추가된 미스트랄 라지는 서비스형 소프트웨어(SaaS)로 먼저 제공된다. 이제 왓슨x 고객은 추론과 다국어 기능이 필요한 복잡한 전사적 작업을 처리하도록 최적화한 미스트랄 AI의 가장 강력한 모델을 활용할 수 있다. 검색증강생성(RAG) 전문화를 통해 더 장시간의 채팅 상호작용과 대용량