본문 바로가기
AI 개발

💡 AI 개발을 위한 2025년 필수 개념 15가지

by 데이터 AI 벌집 2025. 7. 3.
반응형

💡 AI 개발을 위한 2025년 필수 개념 15가지

1. 대형 언어 모델 (Large Language Models, LLMs)

정의:
대형 언어 모델은 인터넷, 책, 논문, 코드 등으로 구성된 대규모 말뭉치를 바탕으로 학습된 신경망 모델입니다. 입력된 문장을 바탕으로 다음에 올 단어(토큰)를 예측하는 방식으로 작동합니다.

 

작동 원리:
LLM은 대부분 트랜스포머(decoder-only) 기반 모델로, 문맥을 고려하여 다음 토큰의 확률 분포를 생성합니다. 이 분포에서 샘플링하여 문장을 만들어냅니다. 수십억 개 이상의 파라미터를 학습하여 범용적인 자연어 이해 및 생성 능력을 갖습니다.

 

금융 예시:

  • GPT-4 API를 이용해 실적 발표문 요약 자동화
  • "5년간의 애널리스트 레포트를 요약해서 핵심 리스크 요인을 뽑아줘" 같은 분석 자동화
  • 포트폴리오 설명서 자동 생성: “이 포트폴리오의 주요 종목과 리스크를 요약해줘”

중요성:
금융 보고서 자동 요약, 뉴스 해석, 리스크 분석, 고객 질의응답 자동화 등에서 강력한 생산성 도구로 작용하며, 코딩 없이도 고급 NLP 작업이 가능해집니다.


2. 트랜스포머 아키텍처 (Transformer Architecture)

정의:
2017년 구글에서 발표한 트랜스포머는 순차적(recurrent) 구조가 아닌 자기 주의 메커니즘(Self-Attention)을 기반으로 하는 딥러닝 아키텍처입니다.

 

작동 원리:
모든 토큰이 서로를 참조하면서 중요도를 계산하여 문맥을 형성합니다. 덕분에 문장 내에서 장기적인 의존 관계도 빠르게 학습 가능합니다. LLM은 보통 디코더 전용 구조를 사용합니다.

 

금융 예시:

  • 금융 시계열 데이터를 언어처럼 처리해 뉴스 + 가격 정보를 함께 학습하는 Transformer 구조 설계
  • BERT 기반의 금융 문서 분류기 구축 (예: SEC 보고서 위험 등급 분류)

중요성:
트랜스포머는 오늘날의 모든 생성형 AI 기술의 기반입니다. 금융 도메인에선 문서 처리, 멀티모달 학습, 알고리즘 트레이딩 신호 해석에도 활용됩니다.


3. 프롬프트 엔지니어링 (Prompt Engineering)

정의:
LLM에게 적절한 질문이나 지시어(prompt)를 줘서 원하는 결과를 유도하는 기법입니다. 단순한 문장 설계가 아닌, 입력 형식, 문맥 흐름, 역할 부여 등이 포함됩니다.

 

작동 원리:
모델은 제공된 문장의 흐름과 의미를 바탕으로 다음 토큰을 예측합니다. 따라서 문장을 어떻게 구성하느냐에 따라 전혀 다른 출력을 얻게 됩니다. Role 지정(system/user), 예시 추가(few-shot), 온도 설정 등을 통해 미세 제어 가능합니다.

 

금융 예시:

  • "다음은 애널리스트 리포트 전문입니다. 핵심 투자 포인트 3가지를 뽑아줘."
  • "시황 뉴스 10개를 기반으로 오늘 시장의 주요 테마를 요약해줘."

중요성:
프롬프트의 품질이 곧 결과의 품질을 결정합니다. 특히 파인튜닝이 어려운 금융 환경에서는 프롬프트 설계가 실질적인 성능 개선의 핵심입니다.


4. 파인튜닝 (Fine-Tuning)

정의:
사전학습된 LLM을 특정 도메인 데이터(예: 금융 보고서, 증권 뉴스)로 재학습시켜 성능을 개선하는 과정입니다.

 

작동 원리:
입력-출력 쌍을 포함한 도메인 특화 데이터를 사용해 supervised learning을 수행합니다. 파라미터의 일부만 조정하는 LoRA 방식 등을 통해 소규모 자원으로도 학습이 가능합니다.

 

금융 예시:

  • 증권사 리포트 요약 모델을 구축하기 위해 5000개 리포트를 fine-tune
  • 고객 상담 데이터로 fine-tuning하여 챗봇의 도메인 정확도 향상

중요성:
고유한 전문성(예: 금융 법률, ESG 리스크 등)을 요구하는 영역에서 LLM의 정확성과 신뢰도를 높일 수 있는 유일한 방법입니다.


5. 임베딩 (Embeddings)

정의:
텍스트를 의미 기반의 고차원 벡터로 표현한 것. 유사한 의미를 가진 문장은 가까운 벡터를 가집니다.

 

작동 원리:
특정 모델(text-embedding-ada-002 등)을 이용하여 입력 문장을 1536차원의 벡터로 변환. 이 벡터들 사이의 거리를 측정하여 유사도 판단이 가능합니다.

 

금융 예시:

  • 수천 개의 뉴스 제목을 벡터화하여 시장 이슈 클러스터링
  • 투자자의 질문을 임베딩 후 FAQ DB에서 가장 유사한 답변 추천

중요성:
RAG, 검색, 추천, 클러스터링 등 금융에서 필요한 의미 기반 정보 검색에 핵심 기술입니다.

 

6. 검색 기반 생성 (Retrieval-Augmented Generation, RAG)

정의:
RAG는 LLM의 응답 정확도를 높이기 위해 외부 문서를 검색하고 그 내용을 바탕으로 답변을 생성하는 프레임워크입니다.

 

작동 원리:
① 사용자 쿼리를 임베딩 → ② 벡터 데이터베이스에서 유사 문서 검색 → ③ 검색된 문서를 프롬프트에 넣고 LLM이 응답 생성 → ④ 실제 데이터에 기반한 응답 제공. LangChain, LlamaIndex 등이 이를 자동화해줍니다.

 

금융 예시:

  • 실시간 뉴스 DB에서 “TSLA 관련 오늘의 리스크 요인을 알려줘” 요청 시, 벡터 검색으로 관련 기사를 불러와 요약
  • “이 보고서에 따르면 MSFT의 매출 성장은 어떤 요인 때문인가요?” → 보고서에서 직접 인용한 답변 생성

중요성:
모델이 훈련되지 않은 최신 정보(예: 오늘 아침 뉴스)를 바탕으로도 정확한 답변을 제공할 수 있게 하며, 환각(hallucination)을 줄이는 핵심 기술입니다.


7. 토큰 (Tokens)

정의:
LLM이 처리하는 텍스트 단위. 보통 단어보다 작고, 서브워드 또는 문자 조합으로 구성됩니다.

 

작동 원리:
텍스트는 토크나이저를 거쳐 고유한 숫자 ID로 변환됩니다. 예: “TSLA is up 3.5%” → [‘TS’, ‘LA’, ‘is’, ‘up’, ‘3.5’, ‘%’] 등 6~7개의 토큰으로 나뉠 수 있습니다. 모델은 이 숫자 배열을 처리합니다.

 

금융 예시:

  • 긴 리포트를 요약할 때 “토큰 수 초과 오류”가 발생 → tiktoken으로 문서 분할
  • 뉴스 10개를 하나의 프롬프트에 넣을 수 있는지 사전 계산

중요성:
API 비용, 응답 속도, 컨텍스트 제한 등 실무에서 반드시 고려해야 할 핵심 단위입니다.


8. 환각 (Hallucination)

정의:
LLM이 사실이 아닌 내용을 그럴듯하게 생성하는 현상. 사용자에게 잘못된 정보를 줄 수 있는 위험한 출력입니다.

 

작동 원리:
모델은 훈련된 데이터가 부족한 주제나, 잘못된 프롬프트 흐름일 경우 논리적으로 보이는 문장을 생성합니다. 확률적 예측 기반이기 때문입니다.

 

금융 예시:

  • “AAPL이 2023년 1분기에 적자를 기록했다”고 출력 (사실 아님)
  • “이 보고서에 따르면…”으로 시작하며 실제 문서에 없는 인용을 만들어냄

중요성:
특히 재무 데이터, 리스크 보고서, 투자 판단에 사용될 경우 심각한 오판을 유도할 수 있어 반드시 RAG 또는 팩트체크 도구와 병행 사용해야 합니다.


9. 제로샷 학습 (Zero-Shot Learning)

정의:
모델이 특정 작업에 대해 예제를 보지 않고도 명령만으로 작업을 수행하는 능력입니다.

 

작동 원리:
LLM은 다양한 작업에 대한 텍스트 형식을 이미 학습했기 때문에, “지금 이 문장을 요약해줘” 같은 요청도 무리 없이 처리합니다. 훈련 데이터에 없던 작업도 명령어로 수행 가능합니다.

 

금융 예시:

  • “이메일을 요약해줘 → 영어로 번역해줘 → 투자 리포트 형식으로 바꿔줘”를 연속적으로 실행
  • “다음 회계 데이터를 표로 정리해줘” → 실제 표 형식 출력

중요성:
데이터가 부족한 실무 환경에서도 빠르게 고성능 프로토타입을 만들 수 있게 해주는 핵심 기술입니다.


10. 사고의 흐름 유도 (Chain-of-Thought Prompting)

정의:
모델이 중간 사고 과정을 명시적으로 거치도록 유도하는 프롬프트 설계 기법입니다.

 

작동 원리:
“하나씩 생각해보자”, “1단계 → 2단계 → 결론” 등의 구조를 프롬프트에 삽입하여, 모델이 단계별 reasoning을 수행하게 유도합니다.

 

금융 예시:

  • "왜 AAPL은 2024년에 PER이 높아졌는가?" → ① 실적 성장률 확인 → ② 경쟁사 비교 → ③ 주가 상승 반영 → 결론
  • 금융 수학 문제 풀이에 단계별 reasoning 강제

중요성:
복잡한 문제(재무 분석, 리스크 요인 추적 등)에서 정확도 향상, 추론 과정 검토, 결정 타당성 확보 등에 유리합니다.

 

11. 컨텍스트 윈도우 (Context Window)

정의:
LLM이 한 번에 ‘기억’할 수 있는 최대 텍스트(토큰) 길이입니다. 프롬프트 + 응답 모두 포함됩니다.

 

작동 원리:
GPT-3.5는 4,096토큰, GPT-4는 8,192 또는 32,768 토큰을 기억할 수 있습니다. 이를 초과하면 앞쪽 텍스트가 잘려 나가며 모델은 과거 문맥을 잊어버립니다.

 

금융 예시:

  • 100페이지 분량의 PDF 리포트 요약 시, 8k 윈도우 모델은 문서를 10장 단위로 나눠 요약
  • 멀티턴 대화형 챗봇에서 “너 그 얘기 전에 했잖아!”가 안 되는 이유 → 문맥 탈락

중요성:
문서 요약, 대화형 에이전트, 시계열 데이터 해석 등에서 컨텍스트 한계를 고려하지 않으면 오류가 발생합니다.


12. 온도 (Temperature)

정의:
출력의 창의성 또는 무작위성을 제어하는 하이퍼파라미터입니다.

 

작동 원리:
0에 가까울수록 가장 확률 높은 토큰만 선택하여 보수적이고 반복적인 결과, 1에 가까울수록 다양한 토큰이 샘플링되어 창의적인 결과가 나옵니다.

 

금융 예시:

  • 뉴스 요약에서는 temperature=0 → 객관적 요약 강조
  • 금융 브랜딩 콘텐츠 자동 생성 → temperature=0.8로 톤/스타일 다양화

중요성:
사용자 경험(UX) 조정, 모델의 신뢰도 조절, 브레인스토밍 vs 사실 요약 등 상황에 맞는 세부 설정이 가능합니다.


13. 벡터 데이터베이스 (Vector Database)

정의:
임베딩된 벡터 데이터를 저장하고, 쿼리 벡터와의 거리 기반으로 유사 문서를 검색하는 특화된 데이터베이스입니다.

 

작동 원리:
입력 텍스트를 임베딩 후 저장 → 질의 시 쿼리 벡터를 생성해 코사인 유사도 등으로 가까운 벡터를 반환합니다.

 

금융 예시:

  • 최근 10년치 애널리스트 리포트를 Weaviate에 저장 → “경기침체 관련 코멘트가 많은 리포트 찾아줘”
  • 고객 질의에 가장 유사한 과거 응답을 Pinecone에서 검색

중요성:
RAG, 검색, QA 시스템의 필수 요소이며, 비정형 문서 자산이 많은 금융 업계에서 특히 중요합니다.


14. 함수 호출 / 도구 사용 (Function Calling / Tool Use)

정의:
LLM이 JSON 형식으로 외부 API를 호출하거나 계산기, 플러그인 등의 도구를 사용하는 능력입니다.

 

작동 원리:
프롬프트에 함수 설명을 넣으면, 모델이 JSON 형식으로 함수를 호출하고, 반환값을 기반으로 추가 추론을 수행합니다.

 

금융 예시:

  • “오늘의 환율을 기준으로 이 투자안의 원화 환산 수익률을 계산해줘” → 외부 환율 API 호출
  • “이 종목의 최신 뉴스 알려줘” → 뉴스 플러그인 호출

중요성:
모델이 ‘지식 생성’에서 ‘행동’으로 확장되며, 실무 자동화의 핵심 축을 담당합니다.


15. 에이전틱 AI (Agentic AI)

정의:
단순 응답형 AI를 넘어서, 목표 기반으로 스스로 계획하고 도구를 사용하며 연속 작업을 수행하는 인공지능입니다.

 

작동 원리:
“목표 → 계획 수립 → 하위 작업 분할 → 도구 호출 → 검토 및 반복”의 루프를 자율적으로 수행. LangGraph, CrewAI, AutoGPT 등이 대표 도구입니다.

 

금융 예시:

  • “5개 종목에 대한 실적 발표문을 모두 분석하고, 요약 및 투자 의견 도출”을 자동으로 수행하는 금융 분석 에이전트
  • 매일 아침 뉴스 → 시장 테마 → 포트폴리오 점검 → 투자 제안 루틴을 수행하는 AI 어시스턴트

중요성:
실질적인 투자 분석 자동화, 리포트 작성, 금융 리서치의 대체 또는 보조 역할을 할 수 있는 차세대 AI 시스템의 핵심 철학입니다.

반응형