AI 학습 데이터 영업을 위해 LLM을 이해하기
AI 학습 데이터 영업을 위해 LLM 기술 작동 원리와 데이터의 역할을 파악하는데 도움을 주려고 작성한 포스팅입니다. AI가 산업의 지도를 다시 그리는 지금, 대규모 언어 모델(LLM)은 그 혁명의 엔진입니다. 그리고 이 엔진의 연료가 바로 우리가 판매하는 ‘데이터’입니다. 오픈AI, 구글, 메타와 같은 빅테크 기업들이 벌이는 치열한 기술 경쟁은 LLM의 중요성을 명백히 보여줍니다.
이런 시대에 AI 학습 데이터 영업을 담당하는 사업담당자들에게 LLM에 대한 깊이 있는 이해는 선택이 아닌 필수 역량이 되었습니다. 글은 LLM을 구성하는 가장 기초적인 원리부터 데이터가 AI를 만드는 학습 과정, 현재 시장을 주도하는 주요 모델들의 경쟁 구도, 그리고 AI 에이전트와 범용 인공지능(AGI)으로 향하는 미래 전망까지 체계적으로 다루겠습니다.
AI의 기초: LLM은 무엇인가?
인공지능(AI)이라는 광범위한 분야 속에는 인간의 언어를 컴퓨터가 이해하고 처리하게 만드는 자연어 처리(NLP) 기술이 있습니다. 그리고 이 NLP 분야에서 최근 가장 혁신적인 발전을 이끌고 있는 것이 바로 대규모 언어 모델(LLM)입니다. LLM은 방대한 텍스트 데이터를 학습하여 인간과 유사한 언어를 이해하고 생성하는 AI 모델을 의미합니다. 이는 단순히 정해진 답변을 내놓는 챗봇을 넘어, 문맥을 파악하고, 논리적으로 추론하며, 창의적인 글을 생성하는 등 고차원적인 지적 작업을 수행하는 기술 혁신입니다.
LLM의 작동 방식
LLM이 어떻게 텍스트를 이해하고 처리하는지 알기 위해서는 세 가지 핵심 개념을 이해해야 합니다. 이 개념들은 LLM 아키텍처의 근간을 이루며, 데이터의 가치와 직접적으로 연결됩니다.
토큰 (Tokens): AI의 알파벳
LLM은 문장을 그대로 인식하지 않습니다. 대신, 문장을 단어나 단어의 일부와 같은 더 작은 단위인 ‘토큰’으로 분해하여 처리합니다.
토큰은 AI가 세상을 이해하는 가장 기본적인 레고 블록과 같습니다. 여기서 중요한 점은 언어별로 토큰의 효율성이 다르다는 것입니다. 예를 들어, “안녕하세요 어떻게 지내세요?”라는 한국어 문장은 15개의 토큰을 사용하는 반면, 동일한 의미의 영어 문장 “Hello how are you?”는 6개의 토큰만을 사용합니다.
한국어가 영어보다 동일한 의미를 전달하는 데 약 2.5배 더 많은 토큰을 사용하는 경향이 있습니다. 이는 API 호출 비용, 처리 속도, 그리고 한 번에 처리할 수 있는 대화의 양(‘컨텍스트 창’)에 직접적인 영향을 미칩니다. 즉, 더 효율적인 토큰 구조를 가진 언어 데이터는 AI 모델 운영에 있어 더 높은 경제적 가치를 지닐 수 있으며, 이는 데이터 판매 시 중요한 기술적 세일즈 포인트가 될 수 있습니다.
임베딩 (Embeddings): 단어를 숫자로 변환
컴퓨터는 ‘고양이’나 ‘자동차’ 같은 단어를 직접 이해할 수 없습니다. 따라서 각 토큰은 컴퓨터가 처리할 수 있는 숫자의 목록, 즉 고차원의 벡터로 변환됩니다. 이 과정을 ‘임베딩’이라고 합니다.
이 벡터 공간은 매우 흥미로운 특징을 가집니다. 의미적으로 유사한 단어들은 벡터 공간에서 서로 가까운 위치에 자리하게 됩니다. 예를 들어, ‘왕’과 ‘여왕’의 관계는 ‘남자’와 ‘여자’의 관계와 유사한 방향과 거리로 표현되며, ‘서울’과 ‘한국’, ‘도쿄’와 ‘일본’ 같은 수도-국가 관계 역시 비슷한 벡터 관계로 묶입니다.
이처럼 임베딩은 단어의 의미를 수학적 관계로 변환하여 AI가 언어의 미묘한 뉘앙스를 학습할 수 있도록 돕습니다.
트랜스포머와 어텐션 (Transformer & Attention): 문맥 파악의 비밀
현대 LLM의 성능을 비약적으로 발전시킨 기술이 바로 ‘트랜스포머’ 아키텍처입니다. 트랜스포머의 핵심은 ‘어텐션(Attention)’ 메커니즘에 있습니다.
어텐션은 문장 내에서 특정 단어의 의미를 파악할 때, 다른 어떤 단어에 더 집중해야 하는지 가중치를 부여하여 문맥을 파악하는 기술입니다. 예를 들어, “The animal didn’t cross the street because it was too tired(그 동물은 너무 피곤해서 길을 건너지 않았다).” 라는 문장에서 AI는 어텐션을 통해 ‘it‘이 ‘the street(길)’이 아닌 ‘The animal(동물)’을 가리킨다는 것을 높은 관련성 점수를 부여함으로써 파악합니다.
또한 “고양이는 피곤해서 매트 위에 앉았다. 그것은 매우 푹신했다.” 라는 문장에서는 ‘그것’이라는 단어를 처리할 때 ‘고양이’와 ‘매트’ 중 ‘매트’에 더 높은 가중치를 두어 의미를 명확히 합니다. 이처럼 문장 전체를 한 번에 보고 단어 간의 관계를 파악하는 능력 덕분에 LLM은 길고 복잡한 문장의 진짜 속뜻을 이해할 수 있게 되었습니다.
| 고객과의 대화 포인트 고객에게 한국어 데이터 처리 시 토큰 효율성이 API 비용과 직결된다는 점을 설명하며, 최적화된 데이터 구조가 어떻게 TCO(총소유비용)를 절감할 수 있는지 구체적으로 제시할 수 있습니다. |
LLM의 학습 과정: 데이터가 AI를 만드는 법
LLM의 성능과 가치는 전적으로 학습에 사용된 데이터의 양과 질에 의해 결정됩니다. 영업 전문가로서 우리가 판매하는 ‘데이터’라는 상품이 어떻게 AI 모델의 지능과 가치를 직접적으로 창출하는지 이해하는 것은 매우 중요합니다. AI는 데이터라는 재료를 먹고 성장하며, 데이터의 품질이 곧 AI의 품질로 이어집니다.
LLM 학습 3단계 분석
LLM은 일반적으로 세 가지 단계를 거쳐 학습하고 발전합니다. 각 단계는 뚜렷한 목표를 가지며, 데이터는 각기 다른 핵심적인 역할을 수행합니다.
사전 학습 (Pre-training): 세상의 모든 지식을 배우는 단계
이 단계는 LLM의 기초를 다지는 과정입니다. 수천억 개에 달하는 파라미터(매개변수)를 가진 거대한 모델이 인터넷 문서, 책, 논문 등 웹에 존재하는 방대한 양의 텍스트 데이터를 학습합니다.
이 과정에서 모델은 특정 과제를 푸는 법을 배우는 것이 아니라, 단어와 단어 사이의 관계, 문법 구조, 그리고 세상에 대한 광범위한 상식과 지식의 패턴을 스스로 습득합니다.
마치 어린아이가 수많은 책을 읽으며 세상의 이치를 깨우치는 것과 같습니다. 이 단계를 통해 비로소 다양한 작업의 기반이 되는 ‘파운데이션 모델(Foundation Model)’이 탄생합니다.
파인튜닝 (Fine-tuning): 특정 분야의 전문가로 만드는 단계
사전 학습을 마친 파운데이션 모델은 ‘넓고 얕은’ 지식을 가진 상태입니다. 이를 특정 비즈니스 목적에 맞게 ‘좁고 깊은’ 전문가로 만드는 과정이 바로 파인튜닝입니다.
예를 들어, 법률 분야의 판례 데이터, 의료 분야의 논문 데이터, 혹은 패션 기업의 상품 설명 및 고객 리뷰 데이터를 추가로 학습시키면, 해당 모델은 각각 법률 자문, 의료 진단 보조, 패션 트렌드 분석에 특화된 전문가 AI로 거듭납니다.
이 단계에서 영업사원이 제공하는 고품질의 도메인 특화 데이터가 결정적인 역할을 합니다. 영업 전문가는 바로 이 지점에서 단순한 데이터 공급자를 넘어, 고객의 파운데이션 모델을 독보적인 비즈니스 자산으로 탈바꿈시키는 ‘AI 연금술사’ 역할을 수행하게 됩니다.
인간 피드백 강화학습 (RLHF): 더 유용하고 안전하게 다듬는 단계
모델이 기술적으로는 뛰어나더라도, 그 결과물이 인간의 가치관이나 선호도에 부합하지 않으면 유용성이 떨어집니다. 인간 피드백 강화학습(RLHF:Reinforcement Learning from Human Feedback)은 모델의 답변을 인간에게 더 유용하고, 정확하며, 안전한 방향으로 다듬는 과정입니다.
사람이 모델이 생성한 여러 답변에 대해 순위를 매기거나 점수를 부여하면, 모델은 이 피드백을 보상(reward)으로 삼아 더 좋은 평가를 받은 답변의 패턴을 학습합니다. 이 과정을 통해 AI는 편향되거나 유해한 콘텐츠 생성을 피하고, 사용자가 선호하는 방식으로 소통하는 법을 배우게 됩니다. ChatGPT가 인간과 자연스럽게 대화하는 것처럼 느껴지는 비결이 바로 여기에 있습니다.
멀티모달 데이터의 부상
최근 AI 기술은 텍스트를 넘어 이미지, 음성, 영상까지 처리하는 멀티모달(Multimodality)로 빠르게 확장되고 있습니다. 특히 이미지 생성 AI는 데이터 시장에 새로운 기회를 열고 있습니다.
확산 모델(Diffusion Model)과 같은 이미지 생성 AI는 이미지와 그 이미지를 설명하는 캡션 쌍으로 구성된 방대한 데이터를 학습합니다. 이 학습을 통해 모델은 “사막에 있는 나무”와 같은 텍스트 프롬프트가 주어지면, 단어의 의미를 시각적 요소로 변환하여 세상에 없던 새로운 이미지를 만들어낼 수 있습니다. 이는 고품질의 이미지와 정확한 캡션 데이터가 텍스트 데이터만큼이나 높은 시장 가치를 지니게 되었음을 의미합니다.
결론적으로, 데이터는 LLM을 단순한 언어 패턴 모방 기계에서 고도로 전문화된 비즈니스 솔루션으로 변모시키는 핵심 재료입니다. 이제, 이러한 과정을 통해 탄생한 현재 시장의 주요 LLM들은 어떤 특징을 가지고 경쟁하고 있는지 다음 섹션에서 비교 분석해 보겠습니다.
| 고객과의 대화 포인트 – ‘사전 학습’이 일반 지식이라면, 우리 회사가 제공하는 ‘파인튜닝’용 고품질 데이터는 귀사의 AI를 업계 최고의 전문가로 만드는 비법서임 |
현재 AI 산업의 지형도
현재 LLM 시장은 오픈AI, 구글, 앤트로픽, 메타 등 소수의 빅테크 기업들이 주도하는 치열한 기술 경쟁의 장입니다. 압도적인 1위 없이 각 모델이 특정 영역에서 강점을 보이며 각축을 벌이는, 이른바 춘추전국시대가 펼쳐지고 있습니다. 이러한 환경에서 각 모델의 최신 성능과 특징을 정확히 이해하는 것은 고객의 요구에 가장 적합한 데이터 솔루션을 제안하기 위한 영업 전문가의 필수 역량입니다.
아래 비교표는 최신 모델들을 모두 아우르는 단일 종합 벤치마크가 존재하지 않는 관계로, 여러 산업 소스에서 발표한 최신 성능 데이터를 종합하여 현재 시장 상황을 가장 현실적으로 조망할 수 있도록 재구성한 것입니다.
국내외 주요 LLM 비교 분석
| 모델명 (개발사) | 출 시 | 주요 특징 및 강점 | 최적 활용 분야 |
| GPT-5.0 (OpenAI) | 25년 8월 | – 균형 잡힌 최고 수준의 추론 능력: 멀티태스크 추론(MMLU) 벤치마크에서 88.7%로 선두를 기록하며, 학술 및 전문 분야 전반에서 다재다능함을 입증 – 강력한 다국어 성능: 70개 이상의 언어를 지원하며, 다국어 벤치마크(XGLUE)에서 92%의 압도적인 성능을 보임 – 높은 사실 확인 정확도 (90%): 연구 중심 작업에 강점 | – 창의적 글쓰기 – 전문 분야 보고서 작성 – 다국어 번역 및 대화형 애플리케이션 등 범용성이 중요한 시나리오 |
| Gemini 2.5 Pro (Google) | 25년 6월 | – 압도적인 컨텍스트 창: 최대 100만 토큰을 한 번에 처리 가능. 장문 컨텍스트 처리(MRCR v2)에서 경쟁 모델 대비 최고 성능 기록 – 뛰어난 멀티모달 이해: 텍스트, 이미지, 비디오를 통합적으로 이해하는 능력(MMMU 82.0%, VideoMMMU 83.6%)이 탁월 – 과학 분야 최고 성능: 과학 지식 평가(GPQA diamond)에서 86.4%로 업계 최고 수준 | – 대규모 문서(법률, 연구) 분석 및 요약 – 복잡한 데이터 기반의 과학 연구 – 멀티모달 콘텐츠 분석 및 생성 |
| Claude 3.5 Sonnet (Anthropic) | 25년 9월 | – 업계 최고의 코딩 능력: 코딩 정확도(HumanEval)에서 92%를 기록하며 GPT-4o(90.2%)를 앞섬 – 업계 최고 수준의 안전성 (유해 프롬프트 저항 93%) – 윤리적 정렬(Alignment) 부문 1위 (91%) – 장문 콘텐츠 생성: 20만 토큰의 컨텍스트 창과 95%의 높은 지식 보유 능력을 바탕으로 고품질 장문 생성에 강점. | – 안전성과 신뢰성이 최우선인 기업용 솔루션(금융, 의료) – 정교한 코드 생성 및 리뷰, 법률 문서 초안 작성 |
| Llama 3.1 (Meta) | 24년 7월 | – 최고의 비용 효율성: 입력 토큰 100만 개당 0.05달러 수준의 저렴한 비용으로 오픈 소스 모델 중 가장 경제적 – 빠른 응답 속도 (낮은 지연 시간): 경량 모델(8B) 기준 0.3초의 응답 속도로 실시간 챗봇 및 가상 비서에 이상적 – 오픈 소스 생태계: 기업이 자유롭게 모델을 수정하고 자체 솔루션을 구축할 수 있는 유연성 제공. | – 비용 효율성이 중요한 스타트업 및 중소기업 – 오픈 소스를 활용한 자체 모델 개발 및 연구 – 빠른 응답이 필요한 실시간 애플리케이션 |
| HyperCLOVA X (네이버) | 23년 8 | – 한국어를 특히 잘 이해하고 처리하도록 설계됨 – 네이버의 검색·쇼핑·지도 등 서비스 데이터를 학습해 국내 맞춤형 성능 우수 | – 한국어 기반 기업 솔루션 – 국내 고객 상담·문서 자동화 – 한국시장 특화 서비스 |
| EXAONE 4.0 (엘지 AI 연구원) | 25년 7월 | – 한국 최초의 ‘하이브리드’ LLM(언어 생성+추론 결합)으로 글로벌 모델과 경쟁 가능하다는 평 | – 산업용 AI(제조·소재·R&D) – 한국어 최적화 솔루션 – 연구개발 보조 AI |
| A.X 4.0 (SK텔레콤) | 25년 7월 | – 국내 통신망·데이터 생태계 기반으로 개발됨 – 모바일용 경량화 모델과 연계하여 한국어 및 이동환경 특화 | – 고객 응대 챗봇 – 통신서비스 자동화 – 모바일 기반 AI 에이전트 |
| Solar Pro 2 (업스테이지) | 25년 7월 | – 31B 파라미터급으로 비교적 소형이지만 한국어 포함 다국어에 대해 뛰어난 성능 – 한국 기업 환경에 최적화된 데이터 및 온프레미스(on-premise) 지원 | – 국내 기업 내부 문서요약 – 폐쇄망 이용 AI – 보안환경 최적화 솔루션 |
현재 시장에는 모든 면에서 완벽한 절대 강자는 존재하지 않습니다. 각 모델은 저마다의 철학과 기술적 강점을 바탕으로 특정 영역에서 두각을 나타내고 있습니다. 이러한 치열한 경쟁 구도는 역설적으로 특정 목적과 도메인에 최적화된 고품질 데이터의 가치를 더욱 부각시킵니다. 모델의 한계를 극복하고 성능을 극대화하기 위한 열쇠는 결국 데이터에 있기 때문입니다. 이제 AI 기술이 나아가고 있는 더 큰 그림, 즉 미래의 방향성에 대해 다음 장에서 논의해 보겠습니다.
| 고객과의 대화 포인트 – 현재 시장에 절대 강자는 없음 – 고객사의 특정 비즈니스 목표(예: 코딩 정확도, 안전성, 비용 효율성)에 맞춰 어떤 모델이 최적인지 설명하고, 그 모델의 성능을 극대화할 맞춤형 데이터셋을 제안하며 전문성을 입증 |
AI의 미래: 에이전트와 범용 인공지능(AGI)
현재의 LLM이 보여주는 놀라운 능력은 AI 발전의 끝이 아닌 새로운 시작입니다. 기술은 이제 단순히 질문에 답하는 것을 넘어, 스스로 작업을 수행하는 AI 에이전트(AI Agent)와 궁극적으로 인간의 모든 지적 능력을 수행할 수 있는 ‘범용 인공지능(AGI, Artificial General Intelligence)’이라는 두 가지 중요한 방향으로 나아가고 있습니다. 이러한 미래 트렌드를 이해하는 것은 영업 전문가가 단기적인 데이터 판매를 넘어, 고객에게 장기적인 기술 비전을 제시하고 전략적 파트너로 자리매김하는 데 필수적입니다.
AI 에이전트의 현재와 미래
- 정의: ‘AI 에이전트’란 사용자의 요청에 따라 대화하는 것을 넘어, 사용자를 대신해 이메일 작성, 코드 수정, 정보 검색 및 예약 등 구체적인 작업을 자율적으로 계획하고 실행하는 AI를 의미합니다. 이는 AI가 수동적인 정보 제공자에서 능동적인 실행자로 진화하는 중요한 전환점
- 현실적 진단: AI 업계에서는 2025년은 에이전트의 해라는 말이 유행처럼 번지고 있지만, AI 분야의 거장 안드레이 카르파티는 이에 대해 냉철한 시각을 제시합니다. 그는 올해는 ‘에이전트의 해’가 아니라 ‘에이전트의 10년’이 될 것”이라고 말하며 성급한 기대를 경계. 현재 AI 에이전트 기술은 복잡한 추론, 연속적인 학습, 예상치 못한 문제에 대한 대처 능력 등 인지적 한계를 명확히 가지고 있으며, 신뢰할 수 있는 수준으로 발전하기까지는 최소 10년의 시간이 필요하다는 것
범용 인공지능(AGI)을 향한 여정
AGI는 인간이 할 수 있는 어떠한 지적인 업무도 성공적으로 해낼 수 있는 가상적인 기계 지능으로 정의됩니다. 이는 특정 작업에만 능한 현재의 약한 AI와 구별되는 개념으로, AI 연구의 궁극적인 목표로 여겨집니다.
AGI의 등장 시점에 대해서는 전문가들 사이에서도 의견이 첨예하게 엇갈립니다.
낙관론 (10년 내 등장)
오픈AI의 CEO 샘 올트먼이 대표적인 낙관론자입니다. 그는 AI의 발전 속도가 반도체 성능이 18개월마다 2배씩 증가한다는 ‘무어의 법칙’을 훨씬 능가하고 있다고 주장합니다. 그는 AI 학습에 투입되는 자원(데이터, 연산)이 늘어날수록 성능이 예측 가능하게 향상되는 ‘스케일링 법칙’에 근거하여, 10년 내에 AGI가 등장할 수 있다고 전망합니다.
신중론 (10년 이상 소요)
반면, 오픈AI의 창립 멤버인 안드레이 카르파티와 최윤재 KAIST 교수 등은 보다 신중한 입장을 보입니다. 이들은 현재 AI가 가진 근본적인 한계들을 지적합니다. ▲실제 세계와 상호작용하는 물리적 능력의 부재(“손발이 없다”), ▲복잡한 추론 능력의 명백한 벽, ▲인간과 달리 모든 것을 기억하기에 오히려 핵심을 파악하기 어려운 ‘완벽한 기억의 역설’ 등이 그것입니다. 이러한 근본적인 문제들을 해결하기 전까지 AGI 도달은 어려우며, 최소 10년 이상, 혹은 그 이상의 시간이 걸릴 것이라고 예측합니다.
AI가 에이전트를 거쳐 AGI로 발전하는 기나긴 여정에서 변하지 않는 단 하나의 진실이 있습니다. 그 모든 발전의 중심에는 결국 더 정교하고, 더 다양하며, 더 높은 품질의 데이터가 있다는 것입니다. AGI의 도래 시점과 무관하게, AI가 더욱 정교한 추론과 상호작용 능력을 갖추기 위한 여정은 지금 시작되었습니다. 그 여정의 모든 단계에서 가장 중요한 자산은 바로 매체가 제공하는 고품질의 특화 데이터입니다. 즉, 미래를 향한 경쟁에서 데이터는 단기적인 성과를 넘어 장기적인 해자를 구축하는 핵심 요소입니다.
고품질의 매체가 판매하는 데이터는 단순히 현재의 AI 모델을 훈련시키는 재료를 넘어, 미래 AI 기술의 초석을 다지는 핵심적인 자산입니다. 고객에게 이러한 비전을 제시할 때, 여러분은 단순한 판매자를 넘어 미래를 함께 만들어가는 진정한 기술 파트너가 될 것입니다.
부록: 핵심 용어 모음집
- AGI (Artificial General Intelligence / 범용 인공지능) 인간이 수행할 수 있는 모든 종류의 지적인 업무를 성공적으로 해낼 수 있는 가상적인 기계 지능. AI 연구의 궁극적 목표
- Attention (어텐션) 문장 내에서 특정 단어의 의미를 파악할 때, 다른 어떤 단어에 더 집중해야 하는지 가중치를 부여해 문맥을 이해하는 기술. 트랜스포머 아키텍처의 핵심
- Embedding (임베딩) 단어나 토큰을 컴퓨터가 이해할 수 있는 숫자의 목록(벡터)으로 변환하는 과정. 의미가 비슷한 단어들은 벡터 공간에서 가까운 위치에 놓임
- Fine-tuning (파인튜닝) 사전 학습된 범용 모델을 특정 분야(예: 의료, 법률)의 데이터로 추가 학습시켜 해당 분야의 전문가로 만드는 과정
- Hallucination (환각) AI가 사실이 아닌 정보를 마치 사실인 것처럼 그럴듯하게 생성하는 현상. LLM의 주요 문제점 중 하나
- LLM (Large Language Model / 대규모 언어 모델) 수십억 개 이상의 파라미터와 방대한 텍스트 데이터를 기반으로 학습된, 인간의 언어를 이해하고 생성하는 AI 모델
- Multimodality (멀티모달리티) 텍스트, 이미지, 음성, 영상 등 두 가지 이상의 다른 종류의 데이터를 동시에 이해하고 처리하는 AI의 능력
- NLP (Natural Language Processing / 자연어 처리) 인간이 사용하는 언어를 컴퓨터가 이해하고 처리할 수 있도록 연구하는 인공지능의 한 분야
- Pre-training (사전 학습) 방대한 양의 일반 텍스트 데이터로 모델을 미리 학습시켜 언어의 보편적인 패턴과 세상에 대한 기초 지식을 습득하게 하는 과정
- RLHF (Reinforcement Learning from Human Feedback / 인간 피드백 강화학습) 인간이 AI의 답변에 순위를 매기는 방식으로 피드백을 제공하고, AI가 더 좋은 평가를 받은 답변을 생성하도록 강화 학습하는 기법
- Token (토큰) LLM이 텍스트를 처리하는 기본 단위. 단어, 단어의 일부, 또는 구두점 등이 될 수 있음
- Transformer (트랜스포머) 어텐션 메커니즘을 기반으로 문장 전체의 관계를 한 번에 파악하여 처리하는 신경망 아키텍처. 현대 LLM 기술의 기반
관련 포스팅

거북이 미디어 전략 연구소장은 미디어의 온라인 수익화와 전략에 주요 관심을 가지고 있습니다.
저는 Publisher side에서 2015년부터 모바일과 PC 광고를 담당했습니다. 2022년부터 국내 포털을 담당하고 있습니다.
▲ 강의 이력
구글 디지털 성장 프로그램의 광고 워크샵 게스트 스피커(21년 6월)
구글 서치콘솔, 네이버 서치어드바이저, MS 웹마스터 도구 사용법(24년 8월 한국 언론진흥재단 미디어교육원)