레플리
글 수 281

GPT-2를 사용한 텍스트 압축 기법

조회 수 471 추천 수 0 2021.02.19 15:06:49


K-001.png

 

https://gpc.dle.pw/

 

 

 

GPT-2를 텍스트 압축에 사용했다고 합니다. 언어모델은 앞의 문장에서 다음에 나올 단어를 확률로 예측합니다. 이 정보를 산술부호화라는 기법을 통해 압축했습니다. 좀 더 기술적인 내용은 웹페이지의 설명을 참조 바랍니다.

 

List of Articles
제목 글쓴이 날짜 조회 수
GPT-3로 NPC와 대화를 할 수 있는 게임 시뮬레이터 깊은바다 2021-02-22 1456
GPT-2를 사용한 텍스트 압축 기법 file 깊은바다 2021-02-19 471
딥러닝 자연어처리 라이브러리 - Pororo file 깊은바다 2021-02-03 1526
스캐터랩의 오픈도메인 챗봇 루다 육아일기 - 모델의 구조 및 동작방식 file 깊은바다 2020-12-30 1190
일상대화 챗봇 레플리카(Replika)의 구현 방식 file 깊은바다 2020-12-22 1500
좋은 응답을 골라내는 모델 만들기 - 핑퐁의 답변매칭 알고리즘 깊은바다 2020-12-10 552
GPT-3를 헬스케어 서비스에 적용했을 때의 문제점들 깊은바다 2020-11-04 706
스캐터랩의 핑퐁팀, 새로운 생성 모델 챗봇 데모 공개 깊은바다 2020-11-02 897
카카오미니의 명령어 분류 방법 깊은바다 2020-10-23 259
딥러닝으로 동네생활 게시글 필터링하기 깊은바다 2020-10-06 397
KoNLPy를 이용하여 Huggingface Transformers 학습하기 깊은바다 2020-09-20 1567
GPT-3 패러다임을 바꿀 미친 성능의 인공지능 등장 및 활용 사례 10가지 깊은바다 2020-09-14 797
GPT3 유료화 가격 공개 file 깊은바다 2020-09-04 1746
GPT-3의 다섯 가지 한계 깊은바다 2020-08-23 1048
그림으로 아주 쉽게 설명한, The Illustrated GPT-2 깊은바다 2020-08-15 2753