본문 바로가기
728x90

분류 전체보기209

사마천과 등용문 사마천의 고향에 관한 전설 중 하나에 따르면, 그의 출신지는 한성시의 고문원촌으로 불렸으며, 이곳이 ‘용문’이라는 이름으로도 회자되었다고 전해집니다.용문의 의미와 유래용문(龍門)의 원래 뜻:'용문'은 문자 그대로 “용이 통과하는 문”이라는 의미로, 전설에서는 잉어가 용으로 변하기 위해 반드시 용문(龍門)을 통과해야 한다는 이야기가 있습니다. 이 이야기는 어려운 관문이나 시험을 극복해야 하는 상황을 상징하는데 사용됩니다.등용문과의 연관성:사마천의 고향이 ‘용문’이라 불린 배경에는, 이 지역이 재능 있는 인재들이 관직에 오르는 관문(登用門)과 관련된 상징적 장소였다는 해석이 있습니다. 즉, 고향에서 우수한 인재를 선발해 등용하는 전통이나 제도의 상징으로 여겨졌기 때문에, ‘용문’이라는 이름이 붙었다고 볼 수.. 2025. 3. 5.
"중과부적(衆寡不敵)" "중과부적(衆寡不敵)"은 **"많은 사람에게 적은 사람이 맞서 싸워도 이길 수 없다"**는 뜻입니다. 즉, 적은 병력으로 많은 병력을 상대하기 어려움을 의미하는 고사성어입니다.어떤 상황에서 나온 말인가?이 표현은 사마천(司馬遷)의 《사기(史記)》 *항우본기(項羽本紀)*에 나옵니다.배경:초(楚)나라의 장수였던 **항우(項羽)**는 유방(劉邦)과의 패권 다툼에서 밀려 **해하(垓下, 지금의 중국 안후이성)**에서 포위됩니다. 이때 한나라 군대가 사방에서 포위하고 초나라 노래를 부르며 초나라 병사들의 사기를 꺾었습니다.항우는 "초나라 사람들이 다 항복했구나!"라며 크게 낙담하고, 남은 병력 800명을 데리고 탈출을 시도했습니다. 하지만 한나라 군대가 많아 계속 추격당했고, 결국 **오강(烏江)**에 이르렀을 .. 2025. 3. 5.
[LLM] 텐서플로우(TensorFlow)란 텐서플로우는 Google에서 개발한 오픈소스 머신러닝 라이브러리입니다. 딥러닝 모델을 구축하고 학습시키는 데 필요한 다양한 도구와 기능을 제공합니다.텐서플로우라는 이름은 "텐서"와 "플로우"라는 두 단어를 합쳐서 만들어졌습니다.텐서(Tensor): 데이터를 표현하는 다차원 배열입니다. 텐서플로우는 텐서를 기본 데이터 구조로 사용하여 연산을 수행합니다.플로우(Flow): 데이터 흐름을 나타냅니다. 텐서플로우는 데이터 플로우 그래프를 사용하여 모델의 구조와 연산을 정의합니다.텐서플로우의 주요 기능텐서플로우는 다음과 같은 주요 기능을 제공합니다.다양한 딥러닝 모델 구축: 텐서플로우는 다양한 종류의 딥러닝 모델을 구축하는 데 필요한 도구와 API를 제공합니다. 이미지 분류, 자연어 처리, 음성 인식 등 다양한 .. 2025. 3. 3.
[LLM] 텐서 (tensor)란? LLM를 공부하는데 기초가 없는 상태에서 시작하다보니 용어부분에서 막히는 부분이 생겨하나씩 정리하고 있습니다.AI를 통해 AI를 학습 중입니다.  텐서는 쉽게 말해 다차원 배열입니다. 숫자들을 특정한 형태로 모아놓은 구조라고 생각하면 됩니다.숫자 하나만 있는 경우는 스칼라(0차원 텐서), 숫자들을 일렬로 나열한 경우는 벡터(1차원 텐서), 숫자들을 행과 열로 구성한 경우는 행렬(2차원 텐서)이라고 합니다. 텐서는 이러한 개념을 확장하여 3차원, 4차원, 또는 그 이상의 차원을 가질 수 있습니다.예시:스칼라: 5 (단일 숫자)벡터: [1, 2, 3] (숫자들의 1차원 배열)행렬: [[1, 2], [3, 4]] (숫자들의 2차원 배열)3차원 텐서: [[[1, 2], [3, 4]], [[5, 6], [7, 8.. 2025. 3. 3.
[LLM] 소프트맥스 (softmax) 소프트맥스(Softmax)는 딥러닝, 특히 분류 문제에서 널리 사용되는 함수입니다. 주로 모델의 출력층에서 사용되어 출력 값을 확률 분포로 변환하는 역할을 합니다. 즉, 여러 개의 클래스 중 하나를 예측해야 하는 문제에서 각 클래스에 속할 확률을 계산하는 데 사용됩니다.소프트맥스의 작동 방식소프트맥스 함수는 입력으로 받은 숫자들을 0과 1 사이의 값으로 변환하고, 그 값들의 합이 1이 되도록 정규화합니다. 이렇게 변환된 값들은 확률로 해석될 수 있습니다.소프트맥스 함수의 수식은 다음과 같습니다:content_copy P(i) = exp(z_i) / sum(exp(z_j) for j in range(K))Use code with cautionP(i): i번째 클래스에 속할 확률z_i: i번째 클래스에 대한.. 2025. 3. 3.
[LLM] 어텐션 어텐션에 대한 설명어텐션(Attention)은 딥러닝, 특히 자연어 처리(NLP) 분야에서 널리 사용되는 메커니즘입니다. Transformer 모델의 핵심 구성 요소이며, 입력 데이터의 특정 부분에 집중하여 모델의 성능을 향상시키는 데 중요한 역할을 합니다.어텐션의 작동 방식사람이 문장을 읽을 때 모든 단어에 동일한 중요도를 두지 않고, 문맥에 따라 특정 단어에 더 집중하는 것처럼, 어텐션 메커니즘도 모델이 입력 데이터의 특정 부분에 더 집중하도록 도와줍니다. 이는 쿼리(Query), 키(Key), 값(Value)이라는 세 가지 요소를 사용하여 이루어집니다.쿼리(Query): 현재 처리 중인 단어 또는 정보를 나타냅니다.키(Key): 입력 데이터의 다른 모든 단어 또는 정보를 나타냅니다.값(Value):.. 2025. 3. 3.
728x90