엔트로피(Entropy의 개념)
- 엔트로피는 불확실성(Uncertainty)를 설명하는 수학적 아이디어
- 조금 더 자세히 설명하면, 확률분포가 갖는 정보의 확신도 혹은 정보량을 수치로 표현한 것
- 만약에 우리가 동전을 던진다고 할때, 앞면이 나올 확률100%, 뒷면이 나올 확률이 100%입니다. 이 경우 불확실성은 0
- 크로스엔트로피(Cross Entropy)
- 크로스 엔트로피는 실제 분포 q에 대하여 알지 못하는 상태에서, 모델링을 통하여 구한 분포인 p를 통하여 q 를 예측하는 것입니다. q와 p가 모두 들어가서 크로스 엔트로피라고 한다고 합니다.
- 머신러닝을 하는 경우에 실제 환경의 값과 q를, 예측값(관찰값) p를 모두 알고 있는 경우가 있습니다. 머신러닝의 모델은 몇%의 확률로 예측했는데, 실제 확률은 몇%야!라는 사실을 알고 있을 때 사용합니다.
- 크로스 엔트로피에서는 실제값과 예측값이 맞는 경우에는 0으로 수렴하고, 값이 틀릴경우에는 값이 커지기 때문에, 실제 값과 예측 값의 차이에 더 예민하게 반응하는 함수!

Reference
- [1] https://melonicedlatte.com/machinelearning/2019/12/20/204900.html
- [2] http://dmqm.korea.ac.kr/activity/seminar/326
엔트로피(Entropy)와 크로스 엔트로피(Cross-Entropy)의 쉬운 개념 설명 - Easy is Perfect
엔트로피는 머신러닝을 할 때, loss function(손실 함수) or cost function으로써 많이 사용됩니다. 용어에 대하여는 많이 들어보았지만 직관적으로 다가오지가 않아서 한 번 정리해보았습니다. 1. Entropy
melonicedlatte.com
고려대학교 DMQA 연구실
고려대학교 산업경영공학부 데이터마이닝 및 품질애널리틱스 연구실
dmqa.korea.ac.kr



'AI > AI 이론' 카테고리의 다른 글
250408_Batch Normalization과 Layer Normalization의 차이 (0) | 2025.04.08 |
---|---|
250311_텐서플로우기초 (0) | 2025.03.11 |
250310_딥러닝기초_01 (0) | 2025.03.10 |
Transformer 구조 (0) | 2025.01.10 |