Collaborative Multilabel Classification (논문 읽기)
- Collaborative Multilabel Classification 논문에 대한 리뷰와 간단한 제 생각을 적은 포스팅입니다.
- 자세하고 정확한 내용은 논문을 참고해 주세요!
Collaborative Multilabel Classification
- 핵심 요약: multilabel classification 문제에서, label들 간의 관계를 고려하여 문제를 해결할 수 있는 방법을 제시
Weights
p개의 lable $y = (y_1, \cdots, y_p)$와 각 label의 embedding vector $e_1, \cdots, e_p$를 생각하자. 이때, embedding vector는 GLOVE를 통해 학습되며, 학습의 목표는 간단히
\[\begin{aligned} p(y_j|y_i) = e_j^\top e_i \end{aligned}\]로 표현할 수 있다.
- False negative weight
$W_{-lk} = e_l^\top e_k$ and $W_{-lk} > 0$ when $y_l, y_k$ are semantically similar.
- False positive weight
$W_{+lk} = 0$ if $l \neq k$, and $W_{+kk} = 1/p$
novel loss
- If $y_l=+1$ and $f_k(x)<0$
loss에 $I(y_l=+1) W_{-lk}$가 더해지는데, 먄약에 $y_l, y_k$가 semantically similar했다면, 더 큰 weight $W_{-lk}$가 novel loss에 더해지게된다. 즉, 현재 예측하려는 label $y_k$와 semantically similar한 label $y_l$가 존재한다면, $f_k(x)>0$으로 $y_k$가 존재하는 것으로 예측하도록 만든다.
- If $y_l=-1$ and $f_k(x)>0$
loss에 $I(y_l=-1) W_{+lk}$가 더해지는데, $W_{+lk}=0$이므로 novel loss에 영향을 주지 않게 된다. 즉, 현재 예측하려는 label $y_k$와 semantically similar한 label $y_l$가 존재하지 않는다면, label $y_k$를 어떻게 예측하는지는 중요하지 않음을 의미한다.
- If $y_k=+1$ and $f_k(x)<0$, If $y_k=-1$ and $f_k(x)>0$
이는 label $y_k$의 존재 여부에 대한 정확한 예측을 하도록 만드는 weight를 novel loss에 더해준다.
objective and conditional probability
false negative weight를 다음과 같이 conditional probability를 이용해 적을 수 있다.
$W_{-lk} = p(y_k \vert y_l)$ and $\sum_{k=1}^p W_{-lk} = 1$ (row sum equals 1)
objective
\[\begin{aligned} \min \sum_{k=1}^p \vert \delta_k(y) \vert I(\delta_k(y) \cdot f_k(x) < 0) \end{aligned}\]where
\[\begin{aligned} \delta_k(y) &= \sum_{l:y_l = +1} W_{-lk} - \sum_{l:y_l = -1} W_{+lk} \\ &= \sum_{l:y_l = +1} p(y_k \vert y_l) - (0 \text{ or } 1/p) \end{aligned}\]- $f_k(x) > 0$ and $\delta_k(y) < 0$
이므로 $\sum_{l:y_l = +1} p(y_k \vert y_l)$ 가 작다는 것의 의미는 label $y_k$가 label $y_l=+1$가 주어진 경우에 conditional probability가 작다는 것이다. 따라서, objective를 증가시켜 label $y_k$가 존재하지 않도록 $f_k(x) < 0$로 예측하도록 한다.
- $f_k(x) < 0$ and $\delta_k(y) > 0$
이므로 $\sum_{l:y_l = +1} p(y_k \vert y_l)$ 가 크다는 것의 의미는 label $y_k$가 label $y_l=+1$가 주어진 경우에 conditional probability가 크다는 것이다. 따라서, objective를 증가시켜 label $y_k$가 존재하도록 $f_k(x) > 0$로 예측하도록 한다.
surrogate loss and neural networks
목적함수의 $I(\delta_k(y) \cdot f_k(x) < 0)$는 미분이 불가능하므로, surrogate loss 중에 하나인 cross-entropy를 사용하여 모형을 적합한다.
\[\begin{aligned} \min \sum_{k=1}^p \vert \delta_k(y) \vert \Big( - \delta_k'(y) \log f_k(x) - (1 - \delta_k'(y)) \log (1 - f_k(x)) \Big) \end{aligned}\]where $\delta_k’(y) = 1$ if $\delta_k(y) > 0$ and otherwise, $\delta_k’(y) = 0$, and $f_k(x) \in [0, 1]$ is parameterized with neural networks.
Additional label information
feature data $x$가 존재하지 않는 additional label information들을 활용하기 위해, 논문에서는 다음과 같은 regularization term을 목적함수에 추가하였다.
\[\begin{aligned} \min \lambda \sum_{k=1}^p \ell (E_1(f_k(x)), E_2(y_k)) \end{aligned}\]where $E_1$은 가지고 있는 feature data에 대한 empirical expectation, $E_2$는 additional label들에 대한 empirical expectation, 그리고 $\ell$은 binary cross-entropy이다. 즉, $E_2(y_k)$은 가지고 있는 feature data들에 대한 expectation의 새로운 정답 label로, semi-supervised single-label classification에서 활용되는 pseudo labeling 기법으로 이해될 수 있다.
또한, 다음과 같은 수식전개를 통해 semi-supervised single-label classification에서 활용되는 consistency regularization 기법으로 이해될 수 있다.
\[\begin{aligned} E_y[y] &= \sum_y y \cdot p(y) \\ &= \sum_y \int y \cdot p(y \vert x) p(y) y dx \\ &= E_x E_{y \vert x} [y] \\ &= E_x [\pi(x)] \end{aligned}\]where $y \vert x \sim Multi(\pi(x))$.
따라서, 논문에서 사용된 regularization term에서 $ell$을 L2 norm loss로 수정하고, $E_1, E_2$를 empirical expectation이 아니라 $x$의 augmentation을 이용한 sampling을 통해 simulation한다면, 다음과 같이 consistency regularization으로 이해될 수 있다.
\[\begin{aligned} \min \ell (E_1(\pi(x)), E_2(\pi(x))) &= \| \pi(\alpha_1(x)) - \pi(\alpha_2(x)) \|^2 \end{aligned}\]where $\alpha_1, \alpha_2$는 서로다른 augmentation 함수이고 원래의 확률 예측함수 $f_k(x)$는 $\pi(x)$로 대체하여 이해될 수 있다. 여기서 중요한 가정은 바로 $\alpha(x)$가 여전히 원래의 feature data $x$가 이루는 공간에 포함되어야 한다는 것이다.
Reference
- Zhu, Y., Shen, X., Jiang, H., & Wong, W. H. (2021). Collaborative multilabel classification. Journal of the American Statistical Association, (just-accepted), 1-31.
Comments