본문 바로가기

전체 글199

Pretrained model vs. Transfer learning **Pretrained model(사전학습된 모델)**은 이미 학습이 완료된 모델이고,**Transfer learning(전이학습)**은 그 pretrained model을 가져와서 내 문제에 맞게 다시 학습시키는 방법입니다.즉, pretrained model은 도구,transfer learning은 그 도구를 활용하는 방식이에요.---✅ 차이점 정리항목 Pretrained model Transfer learning의미 대규모 데이터셋으로 미리 학습된 모델 Pretrained model을 기반으로 특정 작업에 맞게 재학습예시 ImageNet으로 학습된 VGG16, BERT VGG16을 사용해 고양이/강아지 분류 모델 재학습역할 학습을 빠르게 시작할 수 있는 기반 제공 새로운 태스크에 맞게 모델을 맞춤화사.. 2025. 6. 9.
[GitHub] Add SSH Key 1. Create SSH Key (계속 엔터만 눌러주면 된다)2. GitHub에 등록하기방금 생성한 'id_rsa.pub'를 열어서, 복붙해주면 된다. 2025. 6. 9.
[Git] Removing Files git rm 을 실행하면해당 삭제가 스테이징 영역에 올라가며(즉, staged 삭제)만약 그 파일을 이미 수정했거나(Changes not staged for commit이 아닌) 스테이징한 상태의 파일을 삭제하려면-f 옵션을 붙여 강제로 삭제해야 함.이 강제 삭제 옵션은 “아직 스냅샷에 기록되지 않아 Git으로 복구할 수 없는” 데이터를 실수로 지우지 않도록 막아 주는 안전장치임. : Git은 “아직 커밋되지 않아 스냅샷에 기록되지 않은 데이터”를 실수로 지우는 것을 막기 위해, 수정·스테이지된 파일에 대해선 git rm만으로 삭제를 거부하는데, 이때 -f 옵션을 붙이면 이 안전장치를 무시하고 삭제할 수 있습니다.git rm --cached : 파일을 작업 디렉터리에는 남겨두고, 스테이징 영역(inde.. 2025. 6. 8.
[Git] Fast-forward MERGE "fast-forward 상황에서, 앞서 있는 브랜치가 뒤에 있는 브랜치를 merge하는 것이 가능한가?"예시를 기반으로 정확히 답변 드릴게요.---상황 예시 (다시 정리)# 1. 브랜치 b에서 커밋을 2개 쌓음* D ← d 브랜치 (앞서 있음, 더 새로운 커밋)* C* B ← b 브랜치 (과거 시점)* A이제 아래와 같이 두 가지 실험이 가능합니다:---✅ 1. git checkout b → git merge d이건 fast-forward merge입니다.결과: b 포인터가 D로 이동합니다. 새로운 병합 커밋은 생기지 않음.아주 정상적이고 자연스러운 경우입니다.---❓ 2. git checkout d → git merge b이 경우에는 아무 일도 안 일어납니다.왜냐하면 b는 이미 d의 과거 커밋(조.. 2025. 6. 8.
LSTM 2025. 6. 6.
[RNN] Parameter Sharing RNN이 시간(time) 축을 따라“항상 동일한”가중치 행렬 $W$를 쓰는 이유는 크게 두 가지입니다. 1. 파라미터의 공유(shared parameters) 2. 은닉 상태(hidden state)에 쌓인 문맥(context)이 두 가지가 결합되면, “주어(명사)를 받아 다음에 올 동사(verb)를 예측”할 때나 “동사를 받아 다음에 올 목적어(object)를 예측”할 때 모두 같은 $W$로 충분히 다른 문장 구조를 학습할 수 있습니다.RNN의 기본 수식과 가중치 공유가장 단순한 형태의 RNN(예: Vanilla RNN)에서는 매 시점 $t$에 다음 수식으로 은닉 상태 $h_t$를 계산합니다. $ \begin{aligned} h_t &= \phi\bigl(W_{xh}\,x_t \;+\; W_{hh}\,.. 2025. 6. 6.