본문 바로가기

전체 글199

[GSEA] Gene set enrichment analysis (GSEA),Pathway Enrichment analysis,Gene Ontology Enrichment analysis Gene set enrichment analysis (GSEA), Pathway Enrichment analysis, Gene Ontology Enrichment analysishttps://www.pnas.org/doi/10.1073/pnas.0506580102 2025. 4. 30.
[scRNA] Single-cell RNA-seq data analysis reveals functionallyrelevant biomarkers of early brain development andtheir regulatory footprints in human embryonic stemcells (hESCs) Single-cell RNA-seq data analysis reveals functionally relevant biomarkers of early brain development and their regulatory footprints in human embryonic stem cells (hESCs)https://academic.oup.com/bib/article/25/3/bbae230/7670713 2025. 4. 30.
GSE86982 Analysis Summary GSE86982 smartseq TPMSingle-cell RNA-seq data analysis reveals functionally relevant biomarkers of early brain development and their regulatory footprints in human embryonic stem cells (hESCs)https://academic.oup.com/bib/article/25/3/bbae230/7670713DATA AVAILABILITYAll data analyzed in this study were published previously [8] and available in NCBI Gene Expression Omnibus (accession no: GSE86982).. 2025. 4. 30.
Logistic Regression vs. Neural Network (with hidden layers) Logistic Regression$$\hat{y} = \sigma(w^T x + b)$$$w^T x + b$ : 선형 변환$\sigma(\cdot)$: 출력에서만 적용하는 비선형 함수 (sigmoid)❗ 중간에 hidden layer 없이 바로 출력층에 sigmoid만 존재 Logistic regression은 결정 경계가 선형이고,단지 출력값을 "확률값으로 해석하기 위해 sigmoid를 사용"했기 때문에"선형 모델"로 분류됩니다.Neural Network with hidden layer(s)$$\begin{aligned} h_1 &= \sigma(W_1 x + b_1) \\ \hat{y} &= \sigma(W_2 h_1 + b_2) \end{aligned}$$ 이 경우 입력 $x$ 는 $h_1$로 .. 2025. 4. 22.
likelihood function vs. probability function 핵심 개념 비교항목확률 함수 (Probability Function) 우도 함수 (Likelihood Function)입력(고정)모수(모델) θ데이터 x출력(변화)데이터 x의 확률값모수 θ 의 적합도해석주어진 모수로 특정 데이터가 나올 확률고정된 데이터를 주고, 그걸 가장 잘 설명하는 모수를 추정표기법P(x∣θ)L(θ∣x)=P(x∣θ)목적관측값의 확률 해석최적의 θ\theta를 찾기 위한 최적화 (MLE 등)Example상황:동전을 던졌을 때 앞면이 나올 확률이 θ\theta라고 하자.10번 던졌더니 7번 앞면, 3번 뒷면이 나왔다.확률 함수:만약 θ=0.5\theta = 0.5 라면, "앞면 7번 나올 확률은?" $$P(x = 7 \mid \theta = 0.5) = \binom{10}{7} \cdo.. 2025. 4. 22.
[Gini Index] Class Probability Graph Gini Index 공식:$$ Gini = 1 - \sum p_i^2 $$불순도 = 잘못 분류될 확률순수할 수록 (=한 쪽으로 치우칠 수록) → Gini Index는 낮다.모든 데이터가 하나의 클래스에 속하면 Gini Index는 0으로 최소가 된다.모든 데이터가 클래스 B이면: pB=1, 나머지 0 → Gini = 0.이런 상태는 더 이상 분할할 필요가 없고, **잎 노드(leaf node)**로 처리하면 됩니다.불순할 수록 (=모든 class가 동일할 수록) → Gini Index는 최댓값에 가까워진다.데이터가 모든 클래스에 균등하게 분포하면 Gini Index는 $1 - \frac{1}{J}$로 최대가 된다 오답 확률 = 1 - 정답확률의 총합 For 2-class class problem ($p.. 2025. 4. 21.