
바쁜 당신을 위한 3줄 요약
🧠 엔진: 챗지피티와 제미나이의 엔진은 V8 엔진이 아니라, **거대 언어 모델(LLM)**이라는 수천억 개의 파라미터(매개변수) 덩어리입니다. 📜 설계도: 이 엔진을 움직이는 핵심 알고리즘은 **트랜스포머(Transformer)**입니다. 문장 속 단어들의 관계(맥락)를 계산하는 혁명적인 기술이죠. 🎓 교육 과정: 단순히 책만 읽히는 게 아닙니다. 인간 선생님이 채점해 주는 강화학습(RLHF) 과정을 거쳐야 비로소 말 잘 통하는 AI가 됩니다.
안녕하세요. 세상을 보고, 배우고, 기록하는 투자자 이노프리입니다.
우리는 매일 아침 눈을 뜨면 스마트폰을 켜고 AI와 대화를 나눕니다. "오늘 광주 날씨 어때?", "이 주식 살까 말까?" 마치 영화 [아이언맨]의 자비스가 현실이 된 것 같죠. 그런데 문득 이런 궁금증이 들지 않으셨나요?
"도대체 이 녀석들은 뇌가 어떻게 생겨먹은 거지?" "그냥 인터넷 검색해서 보여주는 건가? 아니면 진짜 생각을 하는 건가?"
저 이과 출신의 93년생 주린이지만, 투자를 하려면 내가 투자하는 대상이 어떻게 작동하는지는 알아야 한다고 생각해서 딥하게 파고들어 봤습니다. 오늘은 챗지피티(OpenAI)와 제미나이(Google)라는 거인들이 어떤 엔진과 알고리즘으로 만들어지는지, 그 비밀의 방을 열어보겠습니다.
1. AI의 심장, 엔진의 정체: LLM (거대 언어 모델) 🏎️
자동차가 굴러가려면 엔진이 필요하듯, 대화형 AI가 작동하려면 거대한 뇌가 필요합니다. 우리는 이것을 **LLM (Large Language Model)**이라고 부릅니다.
💾 엔진의 이름표
- 챗지피티(ChatGPT)의 엔진: GPT-3.5 또는 GPT-4
- 제미나이(Gemini)의 엔진: Gemini Pro 또는 Gemini Ultra
🧠 파라미터(매개변수)란?
이 엔진의 성능을 결정하는 건 배기량(cc)이 아니라 파라미터의 개수입니다. 파라미터는 인간 뇌의 시냅스(연결고리)와 같습니다. GPT-4는 약 1조 개 이상의 파라미터를 가진 것으로 추정되는데, 이 연결고리가 많을수록 더 복잡하고 똑똑한 대화가 가능합니다. 즉, LLM은 엄청나게 많은 공부를 해서 뇌 주름이 빽빽해진 디지털 뇌라고 보시면 됩니다.
2. AI의 설계도, 알고리즘: 트랜스포머 (Transformer) 🤖
그렇다면 이 거대한 뇌는 어떤 규칙으로 작동할까요? 여기서 등장하는 것이 바로 AI 역사를 바꾼 전설의 알고리즘, **트랜스포머(Transformer)**입니다.
📜 2017년, 구글이 쏘아 올린 공
트랜스포머는 영화 로봇이 아니라, 2017년 구글 연구진이 발표한 딥러닝 모델의 구조입니다. 현재 존재하는 거의 모든 생성형 AI(GPT, 제미나이, 클로드 등)는 이 트랜스포머를 기반으로 만들어졌습니다. (GPT의 T가 바로 Transformer입니다!)
🔍 핵심 원리: 어텐션(Attention) 메커니즘
트랜스포머가 기존 AI와 다른 점은 **주목(Attention)**할 줄 안다는 겁니다. 예를 들어 "나는 배가 고파서 배를 먹었다"라는 문장이 있다고 칩시다.
- 앞의 배: 신체 (Stomach)
- 뒤의 배: 과일 (Pear) 옛날 AI는 이걸 헷갈렸습니다. 하지만 트랜스포머는 문장 전체를 한 번에 보면서, "아, 뒤에 '먹었다'라는 단어가 있으니까 이 '배'는 과일이구나!"라고 문맥의 관계(Context)에 주목합니다. 이 기술 덕분에 AI가 인간처럼 뉘앙스를 이해하고 긴 글을 쓸 수 있게 된 것입니다.
3. AI는 어떻게 만들어지나요? (3단계 학습 과정) 🎓
엔진(LLM)과 설계도(트랜스포머)가 있어도 바로 똑똑해지진 않습니다. 혹독한 훈련 과정이 필요하죠. 챗지피티가 탄생하기까지는 크게 3가지 단계가 있습니다.
1단계: 사전 학습 (Pre-training) - 책벌레 만들기 📚
갓 태어난 AI에게 인터넷에 있는 거의 모든 텍스트(위키백과, 뉴스, 블로그, 책 등)를 읽힙니다. 이때 AI는 내용을 이해하는 게 아니라, 다음에 올 단어를 맞히는 확률 게임을 합니다.
- 문제: "대한민국의 수도는 [ ? ] 입니다."
- AI 예측: "서울" (확률 99%), "부산" (확률 0.1%) 이 과정을 수십조 번 반복하면 AI는 문법과 지식을 스스로 깨닫게 됩니다.
2단계: 미세 조정 (Fine-tuning) - 말하는 법 가르치기 🗣️
1단계만 거친 AI는 횡설수설합니다. 이제 인간이 개입해서 "질문을 받으면 대답을 해야지"라고 가르칩니다. 수만 개의 [질문-답변] 데이터셋을 입력해서, 사용자가 원하는 포맷으로 말하는 법을 훈련시킵니다.
3단계: RLHF (인간 피드백 기반 강화학습) - 예절 교육 👨🏫
이게 가장 중요합니다. AI가 답변을 내놓으면 인간 선생님들이 채점을 합니다.
- 답변 A: 욕설이 섞인 답변 (0점)
- 답변 B: 친절하고 정확한 답변 (100점) 이 점수를 바탕으로 AI는 "아, 이렇게 말해야 인간들이 좋아하는구나(보상을 받는구나)"를 깨닫고 스스로 행동을 교정합니다. 우리가 쓰는 챗지피티가 예의 바르고 안전한 이유가 바로 이 과정 덕분입니다.
4. 엔진을 돌리는 하드웨어: GPU라는 심장 🖥️
이 엄청난 알고리즘을 돌리려면 일반 컴퓨터로는 어림도 없습니다. 여기서 등장하는 것이 바로 **엔비디아(NVIDIA)**입니다.
수천억 개의 계산을 동시에 처리해야 하기 때문에 CPU가 아닌 **GPU(그래픽 처리 장치)**가 필수적입니다. 특히 엔비디아의 H100 같은 AI 전용 칩 수만 개를 연결해서 슈퍼컴퓨터를 만들고, 거기서 몇 달 동안 전기를 쏟아부어야 겨우 하나의 모델이 탄생합니다. (우리가 엔비디아 주식을 주목해야 하는 이유가 바로 여기에 있죠!)
5. 이노프리의 인사이트: 알고 쓰는 것의 힘 💡
오늘 내용을 정리하면서 저도 다시 한번 느꼈습니다. AI는 마법 상자가 아니라, 수많은 데이터와 확률 통계, 그리고 하드웨어의 집약체라는 것을요.
우리가 이 원리를 알아야 하는 이유는 명확합니다.
- 한계 인식: AI는 '확률적'으로 다음 단어를 뱉는 기계이므로, 가끔 뻔뻔하게 거짓말(할루시네이션)을 할 수 있다는 걸 이해해야 합니다.
- 투자 기회: 소프트웨어(LLM)뿐만 아니라 그걸 돌리는 하드웨어(반도체), 전력(에너지) 산업까지 투자의 눈을 넓힐 수 있습니다.
"충분히 발달한 기술은 마법과 구별할 수 없다"는 말이 있죠. 하지만 그 마법의 원리를 아는 사람에게는 더 이상 두려움의 대상이 아니라, 내 삶을 바꿔줄 강력한 도구가 될 것입니다.
오늘의 AI 해부학, 어떠셨나요? 이제 챗지피티에게 말을 걸 때, 녀석의 뇌 속에서 바쁘게 움직이는 트랜스포머 알고리즘이 상상되실 겁니다.
** 참고 자료 및 더 읽어보기 오늘 내용이 흥미로웠다면, 구글의 'Attention Is All You Need' 논문이나 엔비디아의 AI 하드웨어 관련 뉴스를 찾아보시면 더 깊은 통찰을 얻으실 수 있습니다.
'무급 인턴 조련기' 카테고리의 다른 글
| [실전] 깃허브, 허깅페이스가 뭔가요? AI 공부, 사이트 접속부터 따라 하는 초보자 완벽 가이드 (링크 포함) (1) | 2026.01.21 |
|---|---|
| [커리어] AI 엔지니어, 지금 시작해도 될까? 비전공자가 가장 빠르게 AI를 마스터하는 현실적인 로드맵 (공부 순서, 꿀팁) (1) | 2026.01.21 |
| [제미나이 스킬 #3] 조회수 10배 터지는 '제목 짓기' 비결 (AI한테 100개 시키기) (0) | 2026.01.18 |
| [제미나이 스킬 #2] 3시간짜리 유튜브/책, '3분' 만에 내 것으로 만드는 법 (복사+붙여넣기의 마법) (3) | 2026.01.17 |
| [제미나이 스킬 #1] 93년생 백수가 AI를 '억대 연봉 멘토'로 부리는 법 (실제 대화 공개) (1) | 2026.01.17 |