Prompt란?Prompt는 LLM(Large Language Model, 대형 언어 모델)에 전달되는 입력을 의미합니다.이 입력은 다음과 같은 구성 요소를 포함할 수 있습니다:질문 (Question): 모델에게 알고 싶은 정보나 답변을 직접적으로 요청예: "AI란 무엇인가요?"지시 (Instruction): 모델에게 특정 작업을 수행하도록 명령예: "다음 문장을 영어로 번역하세요."문맥 (Context): 모델이 보다 정확한 출력을 생성할 수 있도록 제공하는 배경 정보예: "이 글은 초등학생을 대상으로 합니다."Prompt의 역할Prompt는 단순한 입력 그 이상으로, 모델의 출력을 유도하는 역할을 합니다.즉, 모델이 어떤 방식으로 응답할지 결정짓는 핵심 요소입니다.예시Prompt 형태예시모델 출력 예..
import osfrom openai import OpenAI # OpenAI 라이브러리에서 OpenAI 클래스 임포트# 환경 변수에 OpenAI API 키를 설정os.environ["OPENAI_API_KEY"] = "sk-proj-..." # 보안을 위해 실제 사용 시 노출 금지# OpenAI 클라이언트 객체 생성client = OpenAI( api_key=os.environ.get("OPENAI_API_KEY") # 환경 변수에서 API 키를 가져옴)# ChatGPT API 호출: 사용자 메시지에 대한 응답 생성completion = client.chat.completions.create( model="gpt-3.5-turbo", # 사용할 언어 모델 지정 messages=[..
Transformer 기반 NMT 성능 병목과 개선 전략1. 신경망 기계번역(NMT)의 핵심 모델 이슈1.1 긴 시퀀스 처리Transformer는 어텐션 메커니즘을 기반으로 하므로, 입력 시퀀스가 길어질수록 연산량과 메모리 사용량이 급격히 증가함.어텐션은 입력 토큰 간의 모든 쌍에 대해 연산하므로 계산 복잡도는 O(n²).결과적으로 문장이 길수록 중요한 정보를 잃거나 문맥 파악이 어려워질 수 있음.1.2 희소 단어(Sparse Vocabulary) 문제고유명사, 전문용어 등 드물게 등장하는 단어는 학습 데이터에 충분히 등장하지 않아 번역 품질이 저하됨.희소 단어는 어휘 확장성 문제와도 연결됨.해결을 위해 BPE(Byte Pair Encoding)와 같은 서브워드 분할 기법이 자주 사용됨.1.3 언어쌍 간..
- Total
- Today
- Yesterday
- 회고록
- Docker
- sk네트웍스ai캠프
- 최종프로젝트
- sk네트웍스familyai캠프
- Rag
- openai
- 전처리
- sk네트웍스family
- #include
- 중복인클루드
- 어셈블
- few-shot
- Unity
- 주간회고
- 임베딩
- C++
- one-shot
- Langchain
- 전문가를위한C++
- 12기
- Fine-tuning
- sk네트웍스familyai캠프12기
- AWS
- ai캠프
- 모의테스트
- FastAPI
- 헤더가드
- 토익공부
- zero-shot
| 일 | 월 | 화 | 수 | 목 | 금 | 토 |
|---|---|---|---|---|---|---|
| 1 | 2 | 3 | 4 | |||
| 5 | 6 | 7 | 8 | 9 | 10 | 11 |
| 12 | 13 | 14 | 15 | 16 | 17 | 18 |
| 19 | 20 | 21 | 22 | 23 | 24 | 25 |
| 26 | 27 | 28 | 29 | 30 |
