AI 용어 모음

AI 용어들을 정리했습니다. AI 기업들과 업무를 진행하게 될때 알아야 할 키워드입니다. 아래 용어들은 다양한 유튜브 영상 등을 시청하며 나온 키워드들을 중심으로 선정했습니다.

AI 용어 모음

번호용어분류설명기타
1인공지능 (Artificial Intelligence)개념– 기계가 사람처럼 사고하거나 판단하는 것처럼 보이는 기술
– 입력을 받아 출력을 계산하는 복잡한 시스템
챗봇, 얼굴 인식, 자율주행
2머신러닝 (Machine Learning)개념– 인공지능의 하위 분야로 데이터를 통해 스스로 규칙을 학습하는 AI 기술
– 사람이 직접 규칙을 만들지 않아도 됨
이메일 스팸 분류, 추천 시스템
3딥러닝 (Deep Learning)모델 구조– 머신러닝의 하위 분야로 인공신경망을 기반으로 한 머신러닝 기법
– 복잡한 데이터 구조와 패턴 학습에 강함
– 현재 유행하는 LMM 등 대부분의 AI 기술에 딥러닝이 사용됨
음성 인식, 이미지 분류, 자율주행
4파운데이션 모델 (Foundation Model)모델– 대규모 데이터로 사전 학습되어 다양한 작업에 범용적으로 적용 가능한 모델
– 다양한 하위 작업에 전이 학습 가능
GPT, PaLM, LLaMAStanford에서 2021년 제안된 개념
5생성 모델 (Generative Model)모델– 기존 데이터를 학습하여 새로운 데이터를 생성하는 AI
– 현실적인 텍스트나 이미지 생성 가능
딥페이크, 이미지 생성 AI
6LLM (Large Language Model)모델– 대규모 텍스트 데이터를 학습하여 문맥과 언어 구조를 이해하는 모델
– 다양한 언어 태스크에 활용됨
GPT, Claude, 번역기Transformer 구조 기반
7LMM (Large Multimodal Model)모델– 텍스트, 이미지, 음성 등 다양한 모달을 함께 처리하는 대형 모델
– 멀티모달 기반의 이해와 생성 능력 보유
GPT-4V, Gemini
8LAM (Large Action Model)모델– 사용자의 명령을 이해하고 여러 앱/툴에서 직접 행동을 수행하는 AI
– 도구 실행형 AI
OpenAI GPT-4 + 액션 툴
9할루시네이션 (Hallucination)문제 현상– AI가 실제와 다른 그럴듯한 허위 정보를 생성하는 현상
– 생성형 AI의 주요 문제 중 하나
사실 아닌 내용을 진짜처럼 생성
10오버피팅 (Overfitting)문제 현상– 학습 데이터에만 너무 맞춰져서 새로운 데이터에 성능이 떨어지는 현상
– 일반화 능력 부족 상태
기출문제만 외운 학생
11AX (AI eXperience)활용 전략– 사용자 경험을 중심으로 한 AI 설계 개념
– UX에 AI 기능이 자연스럽게 녹아들도록 설계
AI 추천, AI 자동 입력 기능
12RAG (Retrieval-Augmented Generation)AI 아키텍처– 검색 시스템과 생성형 AI를 결합해 문서를 참고하며 응답 생성
– 외부 지식 활용으로 최신성 보완
PDF 검색 + GPT 응답
13자연어 처리(NLP : Natural Language Processing)기술 분야– 인간 언어를 이해하고 처리하는 기술 분야
– 문장 분석, 요약, 번역 등 다양한 작업 포함
ChatGPT, 번역기
14인공신경망 (Artificial Neural Network)모델 구조– 뇌의 뉴런 구조를 모방한 계산 구조
– 딥러닝의 기본 단위가 되는 모델
– 입력, 은닉, 출력층으로 구성
– 인공신경망’은 ‘뉴럴 네트워크’와 같은 뜻이며, 용어만 다르게 사용됨
이미지 분류, 음성 인식1950년대 개념 등장, 1980년대 재조명
15트랜스포머 (Transformer)모델 구조– 문장 내 단어 간 관계를 효율적으로 학습하는 모델 구조
– 병렬 처리에 유리하고 LLM의 기반이 되는 구조
GPT, BERT2017년 Google 논문 ‘Attention is All You Need’에서 제안
16아키텍처 (Architecture)모델 구조– AI 모델의 구조적 설계 방식
– 레이어 수, 연결 방식, 연산 흐름 등을 포함
트랜스포머, CNN, RNN
17파라미터 (Parameter)모델 구성– 모델이 학습한 내용이 저장된 가중치 값
– 모델의 ‘기억’ 역할
수백억 개 파라미터를 가진 GPT-3
18피드포워드 (Feedforward)모델 흐름– 입력 → 은닉층 → 출력층으로 순방향 흐름
– 순환 없이 단방향으로 계산 진행
MLP 구조
19전이 학습 (Transfer Learning)학습 전략– 기존에 학습한 모델을 다른 유사한 작업에 재사용하는 기법
– 학습 시간을 단축하고 데이터가 부족한 상황에서 유용
이미지넷 모델을 활용해 의료 영상 진단
20파인튜닝 (Fine-tuning)학습 전략– 전이 학습된 모델을 특정 작업에 맞게 미세 조정하는 방식
– 소량의 도메인 특화 데이터로 성능 향상 가능
GPT에 고객 대응 대화 데이터를 추가 학습
21사전학습 (Pretraining)학습 전략– 대량의 일반 데이터를 먼저 학습해 언어나 이미지의 일반 지식을 습득하는 단계
– 이후 특정 작업에 파인튜닝
위키피디아를 기반으로 LLM 학습
22지도 학습 (Supervised Learning)학습 방식– 입력과 정답 라벨이 함께 제공되는 데이터를 기반으로 학습
– 분류 및 회귀 문제에 주로 사용됨
고양이/개 이미지 분류, 이메일 스팸 필터링
23강화 학습 (Reinforcement Learning)학습 방식– 정답 없이 보상을 통해 최적의 행동을 학습하는 방식
– 시도와 실패를 반복하며 전략을 발전시킴
게임 AI, 로봇 팔 제어
24비지도 학습 (Unsupervised Learning)학습 방식– 정답 라벨 없이 데이터 내 구조나 패턴을 학습하는 방식
– 데이터 분류, 군집화 등에 활용됨
고객 세그먼트 분석, 뉴스 기사 분류
25모방 학습 (Imitation Learning)학습 방식– 전문가의 행동을 관찰하고 이를 모방하며 학습
– 지도 학습과 강화 학습의 중간 형태
자율주행차가 운전 패턴 학습
26역전파 (Backpropagation)학습 방식– 출력과 실제값의 차이를 계산해 가중치를 조정하는 알고리즘
– 딥러닝 학습의 핵심
딥러닝 학습 중 오차 전파
27인간 피드백을 반영한 강화학습(RHF : Reinforcement Learning with Human Feedback)학습 전략– 사람의 평가 결과를 학습에 반영하여, AI가 더 인간 친화적인 응답을 생성하도록 유도하는 강화 학습 기법
– LLM 응답 품질 개선에 사용
ChatGPT 학습 과정 중 사용
28로지스틱 회귀 (Logistic Regression)기초 모델– 확률을 기반으로 이진 분류를 수행하는 기본적인 머신러닝 모델
– 학습이 빠르고 해석이 쉬움
스팸 메일 분류
29선형 회귀 (Linear Regression)기초 모델– 입력 변수와 출력 변수 간의 선형 관계를 모델링하는 회귀 모델
– 가장 기본적인 예측 모델 중 하나
집값 예측
30활성화 함수 (Activation Function)계산 구성요소– 뉴런의 출력 신호를 결정하는 비선형 함수
– 딥러닝의 비선형 표현력을 가능하게 함
ReLU, Sigmoid
31어텐션 (Attention)계산 구조– 입력 중 중요한 부분에 가중치를 부여해 집중하는 메커니즘
– 문맥 이해, 번역, 요약 등에 활용
문장에서 핵심 단어 집중
32Self-Attention계산 구조– 트랜스포머 모델에서 각 단어가 문장 내 다른 단어와의 관계를 스스로 파악하는 메커니즘. 문맥 이해에 핵심 역할문장 내 단어 간 관계 분석
33벡터 (Vector)데이터 구조– 숫자들의 1차원 배열로, AI 연산의 기본 단위
– 단어, 이미지, 음성 등 다양한 형태로 변환 가능
[1.2, -0.3, 5.1]
34텐서 (Tensor)데이터 구조– 벡터, 행렬보다 확장된 3차원 이상의 다차원 배열 구조
– 딥러닝에서 입력, 출력, 가중치 등 모든 데이터를 텐서로 처리
이미지(가로, 세로, 채널) = 3차원 텐서
35행렬 (Matrix)데이터 구조– 숫자들이 2차원으로 정렬된 배열
– 벡터보다 구조가 복잡하며, 이미지/연산 등 다양한 형태로 활용
이미지 픽셀 배열
36정규화 기법 (Regularization)데이터 처리– 모델의 복잡도를 제어해 과적합을 방지하는 기법
– 파라미터 크기를 제한해 학습 안정성과 속도 향상에 기여
L1/L2 정규화, 드롭아웃
37샘플링 (Sampling)데이터 처리– 전체 데이터 중 일부를 선택해 처리하거나 추출하는 방식
– 학습 속도와 효율 향상에 사용
미니배치 학습, 확률 기반 텍스트 생성
38희석 (Diffusion)생성 모델 방식– 이미지나 음성을 점차 무작위로 흐리게 한 뒤 이를 되살려 생성하는 방식
– 이미지, 오디오 등에서 활용
Stable Diffusion, DALL·E
39하이퍼파라미터 (Hyperparameter)설정값– 사람이 사전에 설정하는 학습 관련 변수들
– 모델의 학습 방식과 성능에 큰 영향
학습률, 배치 크기, 레이어 수
40학습률 (Learning Rate)설정값– 경사 하강법에서 파라미터를 얼마나 크게 조정할지 결정하는 값
– 너무 크면 발산, 너무 작으면 수렴이 느려짐
0.1, 0.01, 0.001 등
41오픈소스 (Open Source)소프트웨어 라이선스– 누구나 사용할 수 있도록 소스 코드를 공개한 소프트웨어
– AI 모델도 오픈소스로 공개되며 연구·개발에 기여
LLaMA, BLOOM
42추론 (Inference)실행 단계– 학습된 모델이 새로운 입력에 대해 결과를 예측하는 과정
– 실제 서비스 단계에서 사용되는 기능
챗봇에 질문을 넣으면 답을 반환
43토큰 (Token)언어 처리 단위– AI 모델이 문장을 처리하기 위해 나누는 가장 작은 단위로 단어, 음절, 문자 등으로 분할 가능‘안녕하세요’ → [안, 녕, 하, 세, 요]
44프롬프트 (Prompt)입력 방식– 생성형 AI에게 입력하는 지시 또는 질문
– 모델이 어떤 응답을 생성할지 결정하는 주요 요소
“이메일 제목 써줘”, “5줄 요약해줘”
45소버린 AI (Sovereign AI)정책/전략– 특정 국가나 조직이 독립적으로 개발, 통제하는 AI 시스템
– 데이터 주권과 보안, 전략적 자율성을 위한 접근
중국, 러시아의 자체 LLM 개발
46경사 하강법 (Gradient Descent)최적화 방법– 손실 함수를 최소화하도록 파라미터를 조정하는 알고리즘
– 학습의 핵심 최적화 기법
학습 중 가중치 조정
47모델 평가 지표평가기준– 모델의 성능을 수치적으로 평가하는 방법
– 손실 함수와 정확도를 함께 고려해 분석
정확도, 손실값, F1 Score 등
48손실 함수 (Loss Function)평가 기준– 모델의 예측값과 실제값의 차이를 수치화해 학습 기준으로 사용
– 값이 작을수록 예측 정확도가 높음
MSE, Cross-Entropy
49정확도 (Accuracy)평가 지표– 전체 예측 중 정답 비율을 백분율로 표현하는 평가 지표 중 하나
– 모델의 정확성을 간단히 평가할 수 있음
90% 정확도 = 100개 중 90개 정답
50CPU(Central Processing Unit)하드웨어– 컴퓨터의 기본 연산 장치로 대부분의 일반 작업을 수행
– 복잡한 AI 연산에는 속도와 병렬성의 한계 존재
문서 편집, 웹 서핑
51GPU(Graphics Processing Unit)하드웨어– 대량의 병렬 계산에 특화된 장치로, AI 학습과 추론에 필수적
– 행렬 연산이 많은 딥러닝에서 성능 발휘
AI 서버, 게임 그래픽 처리
52에폭 (Epoch)학습 반복 횟수– 전체 데이터를 한 번 학습한 횟수를 의미함
– 에폭 수가 많을수록 학습 기회는 많아지지만 과적합 가능성도 있음
1에폭=전체 데이터를 한번 학습
53배치 (Batch)학습 처리 단위– 전체 학습 데이터를 여러 작은 묶음으로 나누어 학습하는 방식
– 메모리 절약 및 계산 효율을 높임
100개씩 묶어 처리

(끝)

AI 용어 모음
AI 용어 모음

댓글 남기기