Seq2Seq (Sequence-to-Sequence)정의:Seq2Seq는 입력 시퀀스를 받아서 출력 시퀀스로 변환하는 딥러닝 기반 모델 구조로, 기계 번역, 문장 요약, 질의응답 등 입력과 출력 길이가 다를 수 있는 시퀀스 간 변환 문제에 사용됨.구조 구성1. Encoder역할: 입력 문장 전체를 순차적으로 읽고, 그 의미를 하나의 벡터(h = hidden state)에 요약 및 압축함.과정:각 입력 단어를 임베딩(embedding) 벡터로 변환RNN/LSTM/GRU 등의 순환 구조를 통해 순차적으로 처리마지막 hidden state는 입력 문장의 **의미 요약 벡터(context vector)**로 사용됨출력: 문장의 의미를 함축한 고정 길이 벡터 (보통 마지막 hidden state)📎 보충 설명..
SK 네트웍스 family AI 캠프/수업 내용 복습
2025. 5. 1. 13:05
공지사항
최근에 올라온 글
최근에 달린 댓글
- Total
- Today
- Yesterday
링크
TAG
- 12기
- one-shot
- few-shot
- C++
- sk네트웍스ai캠프
- 전처리
- 중복인클루드
- 주간회고
- 모의테스트
- 임베딩
- 회고록
- zero-shot
- sk네트웍스family
- #include
- sk네트웍스familyai캠프12기
- Docker
- sk네트웍스familyai캠프
- 최종프로젝트
- AWS
- Langchain
- openai
- FastAPI
- Fine-tuning
- ai캠프
- Rag
- 토익공부
- Unity
- 어셈블
- 헤더가드
- 전문가를위한C++
| 일 | 월 | 화 | 수 | 목 | 금 | 토 |
|---|---|---|---|---|---|---|
| 1 | 2 | 3 | 4 | 5 | 6 | 7 |
| 8 | 9 | 10 | 11 | 12 | 13 | 14 |
| 15 | 16 | 17 | 18 | 19 | 20 | 21 |
| 22 | 23 | 24 | 25 | 26 | 27 | 28 |
| 29 | 30 | 31 |
글 보관함
250x250
반응형
