Notice
														
												
											
												
												
													Recent Posts
													
											
												
												
													Recent Comments
													
											
												
												
													Link
													
											
									| 일 | 월 | 화 | 수 | 목 | 금 | 토 | 
|---|---|---|---|---|---|---|
| 1 | ||||||
| 2 | 3 | 4 | 5 | 6 | 7 | 8 | 
| 9 | 10 | 11 | 12 | 13 | 14 | 15 | 
| 16 | 17 | 18 | 19 | 20 | 21 | 22 | 
| 23 | 24 | 25 | 26 | 27 | 28 | 29 | 
| 30 | 
													Tags
													
											
												
												- 화상영어
 - #nlp
 - 해외취업컨퍼런스
 - 뉴노멀챌린지
 - #체험수업
 - 성내동장어
 - #영어발음교정
 - #영어공부
 - CommunicateWiththeWorld
 - 총각네장어
 - #링글
 - 영어공부
 - 링글리뷰
 - 강동구장어맛집
 - #Ringle
 - 링글커리어
 - #직장인영어
 - 오피스밋업
 - 장어랑고기같이
 - 링글
 - 영어공부법
 - Ringle
 - #링글후기
 - 영어시험
 - 링글경험담
 - 영어로전세계와소통하기
 - 영어회화
 - 둔촌역장어
 - 스몰토크
 - 소통챌린지
 
													Archives
													
											
												
												- Today
 
- Total
 
목록Lectures/CS224N (NLP) (1)
Soohyun’s Machine-learning
워드 벡터를 만드는데, 먼저 count-based vectors를 만든다. co-occurrence matrix를 만든다. 말 그대로 frequency 기준. 하지만 이 matrix는 sparse하고 매우 large하기 때문에 dimensionality reduction을 해준다. 세부적으로는, SVD (generalized PCA의 일종)를 해서 top-k의 principal components를 선택한다. 그 다음에 같이 등장하는 words간의 embeddings를 plotting. 그 다음으로는, distinc_words, 즉, 단어별로 서로 분리한다. return은 corpus에 있는 words (unique), 그리고 단어들의 개수, 두 개임. list 형태, 그리고 그 다음에는 co-occur..
				Lectures/CS224N (NLP)
				
				2020. 9. 28. 23:25