🤖
RAG를 활용한 LLM Application 개발 (feat. LangChain)
인프런 강의 바로가기 ↗️
  • RAG를 활용한 LLM Application 개발 (feat. LangChain)
  • 1. 강의의 목적과 대상
    • 1.1 우리가 만들어낼 결과물로 보는 강의의 목적
    • 1.2 강의자료
  • 2. 본격적인 개발 전 필요한 배경지식
    • 2.1 Retrieval Augmented Generation(RAG)란?
    • 2.2 Vector Database와 Embedding Model 성능 비교
  • 3. LangChain을 활용한 Retrieval Augmented Generation(RAG) 구성
    • 3.1 환경 설정과 LangChain의 ChatOpenAI를 활용한 검증
    • 3.2 LangChain과 Chroma를 활용한 RAG 구성
    • 3.3 LangChain 없이 구성하는 RAG의 불편함
    • 3.4 LangChain을 활용한 Vector Database 변경 (Chroma ➡️ Pinecone)
    • 3.5 Retrieval 효율 개선을 위한 데이터 전처리
    • 3.6 Retrieval 효율 개선을 위한 키워드 사전 활용
  • 4. Streamlit을 활용한 ChatBot 구현
    • 4.1 Streamlit 설치와 user message 작성
    • 4.2 LangChain으로 작성한 코드를 활용한 LLM 답변 생성
    • 4.3 Chat History추가와 streaming 구현
    • 4.4 Few Shot을 활용한 답변 정확도 향상과 포맷 수정
    • 4.5 Streamlit Cloud를 활용한 서비스 배포
  • 5. 서비스 배포했다고 끝이 아니다
    • 5.1 LangSmith를 활용한 LLM Evaluation
    • 5.2 이제는 AI Agent의 시대
Powered by GitBook
On this page
  1. 3. LangChain을 활용한 Retrieval Augmented Generation(RAG) 구성

3.2 LangChain과 Chroma를 활용한 RAG 구성

Previous3.1 환경 설정과 LangChain의 ChatOpenAI를 활용한 검증Next3.3 LangChain 없이 구성하는 RAG의 불편함

Last updated 11 months ago

  • LangChain에는 다양한 ↗️ 들이 있고, 그중 가장 연동하기 편한 ↗️ 를 사용함

    • 연동하기 편하지만 in-memory 라서 불편함이 있음

    • 오픈소스라서 무료로 사용이 가능하기 때문에 테스트 하기에 매우 적합함

  • LangChain에서 다양한 ↗️ 들도 쉽게 연동할 수 있음

    • 강의에서는 ↗️ 을 활용하기 위해 ↗️ 클래스 활용

    • 다른 Embedding Model을 사용하고 싶다면 LangChain에 아마 연동 가능하도록 되어있을 것

    • 요즘 한국어에서 잘 작동한다고 알려진 ↗️ 를 사용하고 싶다면 ↗️ 활용 가능

Vector Store
Chroma
Embedding Model
OpenAI Embedding
OpenAIEmbeddings
Cohere
CohereEmbeddings