SKT 정예팀, A.X K1 기술 보고서 공개

글자 크기
SKT 정예팀, A.X K1 기술 보고서 공개
SK텔레콤 을지로 사옥사진SK텔레콤SK텔레콤 을지로 사옥.[사진=SK텔레콤]


SK텔레콤은 정예 개발팀이 매개변수 519B(5190억 개) 규모의 초거대 인공지능 모델 ‘A.X K1(에이닷엑스 케이원)’ 기술 보고서를 오픈소스 플랫폼 허깅페이스에 공개했다고 7일 밝혔다.

A.X K1은 약 4개월의 짧은 개발 기간과 제한된 GPU 자원 속에서 효율성을 극대화한 설계를 통해 완성된 국내 첫 500B 이상 초거대 모델이다. 대규모 매개변수를 갖췄음에도 주요 벤치마크에서 딥시크-V3.1 등 글로벌 초거대 오픈소스 모델과 유사하거나 더 높은 성능을 기록해 주목된다. 딥시크-V3.1은 2025년 8월 출시된 오픈소스 모델로 작업 효율성이 강점으로 꼽힌다.

통상 매개변수 규모가 커질수록 최적화 시간과 GPU 투입이 늘어나지만, A.X K1은 타 정예팀 대비 최소 2배 이상 큰 모델 규모에도 불구하고 높은 성능을 확보했다. SK텔레콤은 향후 추가 연구를 통해 더 많은 컴퓨팅 자원과 데이터를 투입해 성능을 고도화하고, 연내 멀티모달 기능을 추가한 뒤 조 단위 파라미터로 확장할 계획이다.

개발 과정에서 정예팀은 약 1000개의 GPU 자원을 활용해 학습을 진행했다. 학습 기간과 GPU 규모를 바탕으로 가능한 총 학습량을 추산하고, 투입 자원에 비례해 모델 성능이 향상된다는 스케일링 이론에 근거해 최대 모델 크기를 설계했다. 이에 따라 세계적으로도 독창적인 519B 매개변수 구조를 목표로 설정하고 약 10조 개의 데이터를 투입해 학습을 완료했다. 개발 기간 동안 상시 1000개 이상의 GPU를 활용했으며, 자원 대비 효과를 극대화하기 위해 학습 연산량을 수학적으로 설계하고 관리했다. 이번 모델은 정부 지원 없이 자체 GPU 조달만으로 개발을 마쳤다는 점에서도 의미가 크다.

학습에는 웹 데이터와 코드, 이공계 데이터, 추론 데이터 등 고품질 데이터가 활용됐다. 한국어 특화 PDF 문서를 파싱해 합성 데이터를 생성했으며, 난이도별 커리큘럼 학습 방식도 적용됐다.

성능 측면에서는 수학과 코딩 분야에서 두각을 나타냈다. 보고서에 따르면 A.X K1은 매개변수 685B의 딥시크-V3.1과 357B의 GLM-4.6 오픈소스 모델과 비교해 규모 대비 성능을 평가했다. 수학 벤치마크인 AIME25에서 89.8점을 기록해 딥시크-V3.1의 88.4점 대비 102% 수준의 성능을 보였다. AIME25는 미국 고등학생 수학 올림피아드 문제로 구성돼 인공지능의 창의적 문제 해결 능력을 평가한다.

실시간 코딩 능력을 측정하는 LiveCodeBench에서는 영어 기반 75.8점, 한국어 기반 73.1점을 기록했다. 이는 딥시크-V3.1의 영어 69.5점, 한국어 66.2점 대비 각각 109%, 110% 수준이다. LiveCodeBench는 최신 코딩 문제로 구성돼 사전 학습이 어려운 환경에서의 실제 코딩 역량을 검증하는 시험이다.

구조적으로는 전체 519B 파라미터 가운데 33B만 선택적으로 활성화하는 전문가 혼합(MoE) 방식을 채택해 훈련 안정성과 효율을 동시에 확보했다. MoE는 여러 전문가 모델 중 입력 데이터에 가장 적합한 전문가를 선택해 처리하는 구조다. 이와 함께 A.X K1은 최대 128K 토큰의 긴 문맥을 처리할 수 있어 한국어 기준 약 10만 단어 분량의 장문 문서도 한 번에 분석할 수 있다.
 
아주경제=최연재 기자 ch0221@ajunews.com

HOT 포토

더보기