) 기업들에 최신 GPU(그
페이지 정보
작성자 test 작성일25-03-20 00:38 조회2회관련링크
본문
서버 랙 등 개선… 온도 낮춰엔비디아는 작년 말부터 AI(인공지능) 기업들에 최신 GPU(그래픽 처리 장치) 블랙웰 기반 AI 가속기 ‘GB200’을 공급하기 시작했다.
GB200은엔비디아의 기존 주력 AI 가속기 H100보다 추론 능력은 5배, 데이터 처리 능력은 무려 18배나 빠르다.
GB200을 포함한 블랙웰 기반 AI.
엔비디아는 자사 인공지능(AI) 가속기 칩 이름을 특이하게 짓는 것으로 유명하다.
다른 제조사들이 알파벳과 숫자 조합으로 짓는 반면, ‘블랙웰’ ‘호퍼’ 등엔비디아의 AI 가속기는 특정 단어를 가져다 쓰기 때문이다.
엔비디아가 지난 18일 공개한 차세대 AI 가속기 ‘루빈’은 미국의 여성 과학자.
글로벌 첨단 인공지능(AI) 반도체의 약 90%를 장악하고 있는엔비디아의 연례 행사 ‘GTC 2025’가 열렸다.
AI 관련 개발자들이 모여 AI의 기술 방향에 대해 논의하는 자리다.
기조연설 무대에 나타난 젠슨 황엔비디아최고경영자(CEO)는 “첨단 AI의 시대엔 지금보다 100배 이상의 컴퓨팅 능력이 필요할 것”.
이어 ‘엔비디아에 HBM 납품은 언제 이뤄지느냐’는 질문에는 “빠르면 올해 2분기, 늦어도 하반기부터 HBM3E 12단 제품을 양산할 예정이다”라며 “내년에는 HBM4와 커스텀(고객 맞춤형) HBM을 낼 예정이며, HBM3에서의 실수를 반복하지 않겠다”고 했다.
이날 주총 안건으로 전 부회장과 송재혁 DS부문.
GTC 행사서 메모리칩 전시장 열어 SK하이닉스가엔비디아의 차세대 AI 가속기에 탑재될 6세대 고대역폭 메모리 ‘HBM4’를 공개했다.
http://hankookok-daejeon.co.kr/
SK하이닉스는 21일엔비디아가 주최한 AI 콘퍼런스 ‘GTC 2025’에 HBM4를 선보이면서 “HBM4 12단 샘플을 세계 최초로 주요 고객사에 공급했다”고 밝혔다.
딥시크 R1을 구동하려면 2만5000달러짜리엔비디아가속기 ‘H100’이 16개 필요하다.
반면 엑사원 딥 32B가 요구하는 H100은 단 한 개뿐이다.
AI가 연산을 위해 고려하는 매개변수의 숫자를 딥시크 R1의 20분의 1 이하 수준으로 줄인 효과다.
LG그룹은 다른 기업들이 자유롭게 쓸 수 있도록 엑사원 딥을.
SK하이닉스의 HBM4는엔비디아의 차세대 인공지능(AI) 반도체 ‘루빈’에 탑재될 전망이다.
HBM 샘플은 주요 고객사인엔비디아, 브로드컴 등에 전달된 것으로 알려졌다.
SK하이닉스는 2023년 4세대와 5세대 HBM 개발에 성공하며 HBM 시장에서 독보적인 선두를 이어오고 있다.
지난해 3월에는 HBM3E 8단.
인공지능(AI) 반도체 시장을 장악한엔비디아가 최대 연례 행사에서 공개한 청사진이 시장 기대치에 미치지 못했다는 평가가 나왔다.
젠슨 황엔비디아최고경영자(CEO)는 2028년까지 매년 최신 AI 반도체를 선보이겠다고 18일(현지시간) 공언했지만, 참신한 소재가 부족했다는 지적과 함께엔비디아.
엔비디아(NVDA) 역시 AI 칩 로드맵 발표 이후 개장 전 주가가 상승 중이다.
벤처글로벌(VG)의 경우 루이지애나 LNG 시설 관련 미 정부의 조건부 승인 소식에 시간 외 거래에서 주가가 급등했다.
고객사를 밝히지 않았지만,엔비디아·브로드컴 등 미국 빅테크 기업에 시제품을 제공한 것으로 업계는 보고 있다.
SK하이닉스는 “양산 준비.
당초 SK하이닉스는 2026년에 HBM4를 양산한다는 로드맵을 세웠지만, 최대 고객인엔비디아의 요청에 따라 개발 시기를 앞당겼다.
이번 HBM4 12단 제품은.
댓글목록
등록된 댓글이 없습니다.