word2vec

임베딩 1) Sparse Representation : one-hot encoding ex) 면도기 = [0, 0, 0, 0, ..,1, 0, 0, ..., 0], 차원의 개수는 아이템 전체 개수와 같다..! 벡터의 차원은 한없이 커지고 공간이 낭비된다는 특징 2) Dense Representation : 아이템 전체 개수보다 훨씬 작은 차원으로 표현됨..! 아이템의 의미를 여러개의 차원에 분산하여 표현한다 ex) 면도기 = [0.2, 1.4, -0.4, 1.2, 0.3] 워드 임베딩 단어를 정해진 사이즈의 dense vector로 나타내는것이다.!! one-hot encoding->dense representation [0,0,1,...,0]-> 3차원[0.2, 0.4, 0.4] 임베딩 시키면 단어간의..
xod22
'word2vec' 태그의 글 목록