인공지능 - Chunk의 어원과 LLM 용어로서의 사용
Chunk의 어원과 LLM 용어로서의 사용 1. 어원 및 일반적 의미 어원: “Chunk”라는 단어는 17세기 중반에 처음 사용된 것으로, 주로 “큰 덩어리” 또는 “두꺼운 조각”을 의미합니다. 이 단어는 고대 북유럽어에서 유래했으며, 영어에서 “덩어리”나 “조각...
Chunk의 어원과 LLM 용어로서의 사용 1. 어원 및 일반적 의미 어원: “Chunk”라는 단어는 17세기 중반에 처음 사용된 것으로, 주로 “큰 덩어리” 또는 “두꺼운 조각”을 의미합니다. 이 단어는 고대 북유럽어에서 유래했으며, 영어에서 “덩어리”나 “조각...
🧩 자연어 처리(NLP) 과정 — 텍스트를 이해하는 AI의 여정 자연어 처리(NLP)는 단순히 문장을 읽는 것에서 끝나지 않습니다. 컴퓨터가 인간 언어를 “진짜 이해”하려면 여러 단계를 거쳐야 하죠. ✨ “NLP 과정”이란, 텍스트를 입력받아 의미를 파악하고 원하는 결과를...
🧠 인공지능은 언어를 어떻게 이해할까? — 한국어와 영어의 구조를 중심으로 보는 언어 처리 이야기 우리가 일상에서 쓰는 언어는 사람에게는 익숙하지만, AI에겐 복잡하고 풀기 어려운 퍼즐과도 같습니다. ✨ 인공지능이 언어를 이해하기 위해서는 먼저 언어의 구조(Language...
🧠 자연어 처리(NLP)란? — 인간 언어를 이해하는 인공지능의 기술 우리가 매일 사용하는 한국어, 영어, 일본어 같은 언어는 사람에게는 자연스럽지만, 컴퓨터에게는 전혀 그렇지 않습니다. ✨ “자연어 처리(Natural Language Processing, NLP)”란, ...
트랜스포머(Transformer)란? 트랜스포머는 자연어 처리(NLP) 및 기타 시퀀스 모델링 작업에서 널리 사용되는 신경망 아키텍처입니다. 2017년 “Attention is All You Need” 논문에서 소개된 이 모델은 기존의 RNN(Recurrent Neural Netw...
Transformer는 2017년에 구글에서 발표한 논문 “Attention is All You Need”에서 소개된 신경망 아키텍처로, 자연어 처리(NLP)와 컴퓨터 비전(CV) 분야에서 혁신적인 성과를 이뤄냈습니다. BERT와 GPT와 같은 최신 언어 모델들은 모두 Transf...
모델(Model)의 어원
Fine-Tuning이란 무엇인가?
Fine-Tuning의 어원
Artificial Intelligence - Transformer
Transformer is a neural network architecture introduced in the 2017 Google research paper, “Attention is All You Need.” It has achieved groundbreaking result...
Origin of the Term “Model”
What is Fine-Tuning?
The Origin of Fine-Tuning
트랜스포머(Transformer)란? 트랜스포머는 자연어 처리(NLP) 및 기타 시퀀스 모델링 작업에서 널리 사용되는 신경망 아키텍처입니다. 2017년 “Attention is All You Need” 논문에서 소개된 이 모델은 기존의 RNN(Recurrent Neural Netw...