애플이 약 30분 만에 짧은 영상에서 디지털 인간 아바타를 만들 수 있는 생성 AI 기술인 이른바 휴즈(HUGS)에 대해 논의한 연구 논문을 공개했다. [사진=애플인사이더]
애플이 약 30분 만에 짧은 영상에서 디지털 인간 아바타를 만들 수 있는 생성 AI 기술인 이른바 휴즈(HUGS)에 대해 논의한 연구 논문을 공개했다. [사진=애플인사이더]

[뉴시안=조현선 기자]애플 연구진이 모바일용 생성형 AI(인공지능) 기술을 공개했다. 주요 경쟁사인 삼성전자도 차기 갤럭시 시리즈를 통해 'AI 스마트폰'의 탄생을 예고한 만큼 양사의 치열한 모바일 기술 경쟁이 예고된다.

21일(현지시각) AP통신 등 외신에 따르면 애플 연구진은 최근 머신러닝 연구 페이지를 통해 한 대의 카메라로 3D 애니메이션 아바타를 생성하는 AI 기술인 '휴즈(HUGS)'와 제한된 메모리를 활용해 LLM(대규모 언어 모델)을 활용할 수 있는 기술을 소개했다.

먼저 3D 애니메이션 아바타 생성 기술은 별도 장비 없이도 아이폰의 기본 카메라를 활용해 촬영한 동영상에서 사물이나 인물을 스캔해 아바타를 만드는 기능이다. 특히 최소 50~100프레임의 짧은 비디오로도 해당 기술을 구사할 수 있다. 이는 24fps 비디오의 2~4초 분량이다.

유사한 서비스인 뉴만, 비드2아바타 등에 비해 학습 및 렌더링 속도가 최대 100배 빠르다는 설명이다. 이를 통해 동영상으로 캐릭터를 만들고, 초당 60프레임의 아바타 애니메이션으로도 만들어 활용할 수 있다.

이는 애플이 내년 초 출시할 것으로 예상되는 '비전프로'에도 사용될 것으로 기대된다. 애플인사이더는 "애플은 3D 디지털 아바타 관련 개발을 지속해 왔는데, 이는 애플 비전 프로에 등장하는 고급 버전의 개념"이라며 "사용자가 헤드셋을 사용하면서 페이스타임 등 다양하게 사용되는 '디지털 페르소나'로 활용될 것"이라고 설명했다.

아울러 LLM 매개변수를 플래시 메모리에 저장해 추론하는 과정에서 부족한 디램(DRAM)으로 데이터 전송을 최소화하는 방법도 소개했다. 이를 통해 LLM에 포함된 매개변수의 크기와 무관하게 어떤 장치에서도 AI 기능을 활용하게 할 것이라고 애플은 설명했다. 통상 LLM은 수천억개의 파라미터를 기반으로 하는 탓에 일반적인 기기에서는 연산이 불가능하다.

애플은 이를 해결하기 위해 △윈도우(플래시 메모리 기반의 프레임워크 내 이전에 활성화된 뉴런을 재사용해 데이터 전송을 전략적으로 줄이는 기술) △행열 번들링(플래시 메모리의 순차적 데이터 액세스 강도에 맞춰 데이터 블록의 크기를 늘리는 기술) 등을 소개했다.

해당 기술을 사용하면 D램 크기의 최대 2배에 해당하는 LLM 모델을 실행할 수 있다. 시스템처리장치(CPU)의 추론 속도는 4~5배, 그래픽처리장치(GPU)는 20~25배 향상된 것으로 나타났다.  

한편 애플이 내년 하반기 출시할 것으로 예상되는 아이폰16 시리즈에 생성형 AI 탑재 가능성이 제기된 만큼 삼성전자의 AI 기술인 '삼성 가우스'가 탑재된 갤럭시S24 시리즈와의 양강구도가 예상된다. 앞서 삼성은 갤럭시S24 시리즈를 통해 실시간 통역 통화 기술 등을 선보일 것이라고 밝힌 바 있다.

저작권자 © 뉴시안 무단전재 및 재배포 금지