[ SK 네트웍스 Family AI 캠프 수업 내용 복습 ] 벡터 데이터 베이스( 벡터 DB의 이해, 벡터 DB를 활용한 검색 )-2 2025-05-14
프롬프트 엔지니어링 응용 (LangChain)MoE (Mixture of Experts)**Mixture of Experts(MoE)**는 대규모 언어 모델(LLM)의 연산 효율을 극대화하기 위한 아키텍처 설계 방식 중 하나입니다.1. 기존 LLM과의 차이점기존 LLM (예: GPT, PaLM 등)모든 입력에 대해 전체 파라미터(모델의 모든 층과 유닛)를 항상 사용합니다.파라미터 수가 많을수록 연산량이 커지고, 학습 및 추론 비용이 높아집니다.MoE 기반 LLM (예: Mixtral 8x7B)모델 내 여러 개의 전문가 네트워크(Experts)가 존재합니다.입력에 따라 그 중 일부 전문가만 선택되어 활성화됩니다.예: 8개의 전문가 중 2개만 활성화되면 7B x 2 = 14B 파라미터만 사용 → 전체 56B..
SK 네트웍스 family AI 캠프/수업 내용 복습
2025. 5. 16. 17:13
공지사항
최근에 올라온 글
최근에 달린 댓글
- Total
- Today
- Yesterday
링크
TAG
- 임베딩
- sk네트웍스family
- FastAPI
- sk네트웍스familyai캠프12기
- 토익공부
- #include
- Unity
- 최종프로젝트
- 전처리
- C++
- 주간회고
- 회고록
- sk네트웍스ai캠프
- 중복인클루드
- AWS
- 모의테스트
- 12기
- 전문가를위한C++
- 어셈블
- openai
- few-shot
- 헤더가드
- zero-shot
- Docker
- one-shot
- Fine-tuning
- Langchain
- Rag
- ai캠프
- sk네트웍스familyai캠프
| 일 | 월 | 화 | 수 | 목 | 금 | 토 |
|---|---|---|---|---|---|---|
| 1 | 2 | 3 | 4 | 5 | 6 | 7 |
| 8 | 9 | 10 | 11 | 12 | 13 | 14 |
| 15 | 16 | 17 | 18 | 19 | 20 | 21 |
| 22 | 23 | 24 | 25 | 26 | 27 | 28 |
| 29 | 30 | 31 |
글 보관함
250x250
반응형
