예비 대학원생의 논문 리뷰 뽀개기

  • 홈
  • 태그
  • 방명록

2026/02/26 1

KEYWORD 인공지능(NLP)에서 Perplexity란

Perplexity를 Cross-Entropy부터 끝까지 촘촘히 설명0) 목표: “PPL = exp(Cross-Entropy)”가 무슨 뜻인지Language Model이 데이터(정답 토큰들)에 부여하는 확률이 좋을수록 Cross-Entropy가 작아지고그 Cross-Entropy를 지수로 변환한 것이 Perplexity(PPL)라서 PPL도 같이 작아진다즉 “PPL은 확률예측 품질을 숫자로 재는 방법”이며, Cross-Entropy를 직관적 스케일(‘유효 선택지 수’)로 바꾼 것이다.1) 먼저: 모델이 뭘 예측하는가문장(토큰 시퀀스)을 \(x_{1:T}\)라고 하자.\(x_1, x_2, \dots, x_T\)는 토큰들이다.Autoregressive LM은 매 시점 \(t\)에“이전 토큰 \(x_{가 주어..

딥러닝 논문/랭귀지 딥러닝 논문 2026.02.26
이전
1
다음
더보기
프로필사진

예비 대학원생의 논문 리뷰 뽀개기

서울대 경제학과 22학번 이지원의 블로그 입니다.

  • 분류 전체보기 (61)
    • 수학 (8)
    • 경제학 논문 (1)
    • 딥러닝 논문 (44)
      • 랭귀지 딥러닝 논문 (7)
      • 비전 딥러닝 논문 (7)
      • VLM(비전 랭귀지 모델) 딥러닝 논문 (7)
      • VLA(비전 랭귀지 액션) 딥러닝 논문 (2)
      • 시계열 딥러닝 논문 (13)
      • 강화학습 (2)
    • 랩세미나 랩미팅 (1)

Tag

최근글과 인기글

  • 최근글
  • 인기글

최근댓글

공지사항

페이스북 트위터 플러그인

  • Facebook
  • Twitter

Archives

Calendar

«   2026/02   »
일 월 화 수 목 금 토
1 2 3 4 5 6 7
8 9 10 11 12 13 14
15 16 17 18 19 20 21
22 23 24 25 26 27 28

방문자수Total

  • Today :
  • Yesterday :

Copyright © AXZ Corp. All rights reserved.

티스토리툴바