[아이뉴스24 민혜정 기자] 삼성전자가 차세대 반도체 기술로 챗GPT 같은 생성형 인공지능(AI) 성능을 3배 이상 높일 수 있다고 자신했다.
29일 삼성전자에 따르면 이 회사는 최근 미국 캘리포니아에서 열린 AI 반도체 학회인 '멤콘 2023'에 참여해 차세대 메모리 솔루션을 대거 선보였다.
기조연설자로 나선 최진혁 삼성전자 미주법인 메모리연구소장(부사장)은 프로세서와 메모리 간 병목현상을 해결할 수 있는 삼성전자의 차세대 메모리 기술을 발표했다.
고성능 메모리에 연산 기능을 내장한 '지능형 메모리(HBM-PIM)', 연산 기능을 메모리 옆에 위치시킨 '프로세싱 니어 메모리(PNM)', 시스템의 메모리 용량을 테라바이트(TB)급까지 확장할 수 있는 '컴퓨터 익스프레스 링크(CXL) D램' 등이다.
멤콘은 AI 메모리 솔루션을 다루기 위해 올해 처음 열린 학회다. 삼성전자는 설립 멤버 자격으로 참석했다. 구글, 마이크로소프트 등 글로벌 IT 기업과 메모리, 디바이스 부문 다양한 업체들도 동참했다.
이번 행사에서 삼성전자는 챗GPT가 활성화되면서 데이터를 신속하게 처리할 수 있는 차세대 메모리 기술이 부상하고 있다고 강조했다.
삼성전자 관계자는 "챗GPT와 같은 AI 챗봇에 사용되는 GPT-3 언어 모델의 경우, 전체 연산 기능 가운데 PIM을 적용해 가속할 수 있는 부분이 80% 이상"이라며 "HBM-PIM을 적용해 성능 개선 효과를 계산해 본 결과, HBM을 사용 GPU 가속기를 활용했을 때보다 AI 모델의 성능이 약 3.4배 이상 향상됨을 확인했다"고 말했다.
이어 "CXL 기반 PNM 솔루션은 메모리 용량 추가가 용이한 CXL 인터페이스를 활용해 기존 GPU 가속기 대비 4배 용량으로 제공 가능하다"며 "다양한 고객 니즈에 맞는 AI 모델을 한 번에 처리하는데 적합하다"고 덧붙였다.
--comment--
첫 번째 댓글을 작성해 보세요.
댓글 바로가기