SMEC: Rethinking Matryoshka Representation Learning for Retrieval Embedding Compression
Written By. Biao Zhang, Lixin Chen, Tong Liu 배경 및 문제 정의 LLM은 문맥을 잘 이해하고 표현하기 위해 고차원 임베딩(예: 1024~4096 차원)을 생성하지만 아래와 같은 문제 존재: 저장 비용 증가 실시간 검색 시 연산량 급증 차원의 저주(Curse of Dimensionality)로 인한 ...