본문 바로가기 메뉴 바로가기

야쿠이야기

프로필사진
  • 글쓰기
  • 관리
  • 태그
  • 방명록
  • RSS

야쿠이야기

必死則生 必生則死

검색하기 폼
  • 분류 전체보기 (360)
    • 나의이야기 (8)
    • 나의아들 (5)
    • 웹개발 (275)
      • Php (90)
      • Linux (43)
      • Server (1)
      • Tools (18)
      • Jquery (10)
      • Javascript (61)
      • HTML&CSS (12)
      • Java (11)
      • DataBase (29)
    • 모바일 (9)
    • 요리 (6)
    • 여러가지 (40)
  • 방명록

2026/01/14 (1)
fastapi openai llm 요청과 응답

FastAPI를 사용하여 OpenAI LLM(ChatGPT 모델 등)에 요청을 보내고 응답을 받는 서버를 구축하는 것은 매우 인기 있는 조합입니다.FastAPI의 비동기(Asynchronous) 처리 능력과 OpenAI Python SDK의 비동기 클라이언트(AsyncOpenAI)를 결합하면, 외부 API 호출 대기 시간 동안 서버가 차단(blocking)되지 않아 높은 성능을 유지할 수 있습니다.다음은 단계별 구현 가이드입니다.1. 사전 준비 및 환경 설정먼저 필요한 라이브러리를 설치하고 환경 변수를 설정해야 합니다.필수 라이브러리 설치:pip install fastapi uvicorn openai python-dotenvfastapi: 웹 프레임워크• uvicorn: ASGI 서버 (FastAPI 실..

카테고리 없음 2026. 1. 14. 07:59
이전 1 다음
이전 다음
D-DAY
최근에 올라온 글
최근에 달린 댓글
Total
Today
Yesterday
링크
  • 네오미르
  • 아톰양
  • bloodguy
  • White Life Story :: White Life…
TAG
  • 아들
  • jquery Custom Event
  • jQuery
  • 코엑스
  • 아이폰 발행
  • selectbox
  • events
  • zen coding
  • 사랑이
  • 아이폰
  • SlideShow
  • 할머니
more
«   2026/01   »
일 월 화 수 목 금 토
1 2 3
4 5 6 7 8 9 10
11 12 13 14 15 16 17
18 19 20 21 22 23 24
25 26 27 28 29 30 31
글 보관함

Blog is powered by Tistory / Designed by Tistory

티스토리툴바