본문 바로가기

분류 전체보기

(77)
[계산이론] Simplification of Context-Free Grammars and Normal Forms - 2 Normal Form CFGs에 대해 정규 형식을 여러 가지로 설정할 수 있습니다. 두 가지 주요 정규 형식을 고려합니다. 콤스키 정규 형식 (CNF) 그라이바흐 정규 형식 (GNF) 컨텍스트-자유 문법 (Context-Free Grammar, CFG)은 프로그래밍 언어, 자연 언어 처리 및 다양한 컴퓨터 과학 응용 분야에서 사용되는 형식 문법의 일종입니다. 이러한 문법을 분석하고 이해하기 쉽도록 정규 형식으로 변환하는 것이 유용할 때가 있습니다. 이러한 정규 형식 중에서도 두 가지 주요한 형식인 "Chomsky Normal Form (CNF)"과 "Greibach Normal Form (GNF)"에 대해 간단히 설명하겠습니다. 콤스키 정규 형식 (CNF): CNF는 CFG의 한 형식으로, 모든 생성 규..
Bayesian Networks - 3 Rejection Sampling 조건부 확률을 추정하기 위한 사전 샘플링의 간단한 응용 예를 들어, 𝑃(𝐶|𝑟, 𝑤)=𝛼𝑃(𝐶, 𝑟, 𝑤)를 추정하고자 할 때 이러한 카운트를 위해서는 ¬𝑟 또는 ¬𝑤를 가진 샘플은 관련이 없습니다. 따라서 𝑟, 𝑤를 가진 샘플에서 𝐶의 결과를 세고, 나머지 샘플을 모두 버립니다. 이것이 바로 rejection sampling(거부 샘플링)이라고 불리며 이 방법은 조건부 확률에 대해 일관된 결과를 얻을 수 있습니다. 즉, 극한에서 정확한 결과를 얻을 수 있습니다. Rejection Sampling(거부 샘플링)은 조건부 확률을 추정하기 위한 간단한 샘플링 방법 중 하나입니다. 이 방법은 다음과 같이 동작합니다: 우리가 원하는 조건부 확률을 예를 들어 𝑃(𝐶|𝑟, 𝑤)=𝛼..
[인공지능] Bayesian Networks - 2 Variable Elimination: The Basic Ideas 가능한 한 안쪽으로 합을 이동합니다. 𝑃(𝐵| 𝑗, 𝑚)=𝛼∑2_(𝑒,𝑎)▒〖𝑃(𝐵)𝑃(𝑒)𝑃(𝑎|𝐵,𝑒)𝑃(𝑗|𝑎)𝑃(𝑚|𝑎)〗 =𝛼𝑃(𝐵)∑2_𝑒▒〖𝑃(𝑒)∑2_𝑎▒〖𝑃(𝑎|𝐵,𝑒)𝑃(𝑗|𝑎)𝑃(𝑚|𝑎)〗〗 내부에서부터 계산을 수행합니다. 즉, 먼저 𝑎에 대한 합을 계산하고, 그 다음에 𝑒에 대한 합을 계산합니다. 문제: 𝑃(𝑎|𝐵,𝑒)는 하나의 숫자가 아니라, 𝐵와 𝑒의 값에 따라 다른 숫자들의 모음입니다. 해결책: 이를 다차원 배열로 사용하고, 적절한 연산을 수행합니다. 이러한 배열은 "팩터(factors)"라고 불리며, 다양한 차원을 가진 숫자들의 모음을 나타냅니다. 변수 제거(Variable Elimination)는 확률 그래..
[인공지능] Bayesian Networks - 1 Outline 베이지안 네트워크 문법 의미론 정확한 추론 변수 제거 요소와 연산 근사 추론 사전 샘플링 거부 샘플링 가능도 가중치 깁스 샘플링 베이지안 네트워크 문법(Syntax): 베이지안 네트워크의 문법은 주로 노드와 화살표로 구성된 그래픽 모델을 말합니다. 여기서 각 노드는 확률 변수를 나타내며, 화살표는 변수 간의 조건부 의존성을 나타냅니다. 의미론(Semantics): 베이지안 네트워크의 의미론은 이러한 네트워크가 어떻게 확률적 관계를 모델링하는지 설명합니다. 이는 각 노드의 조건부 확률 분포를 통해 정의됩니다. 정확한 추론(Exact Inference) 변수 제거(Variable Elimination): 이 방법은 확률 질문에 답하기 위해 필요하지 않은 변수를 순차적으로 제거하는 과정입니다. ..
[인공지능] Probability - 1 Outline 기본 법칙들 (Basic Laws) 주변 분포 (Marginal Distribution) 조건부 분포 (Conditional Distribution) 곱셈 및 연쇄 규칙 (Product and Chain Rules) 추론 (Inference) 독립성 (Independence) 조건부 독립 (Conditional Independence) 기본 법칙들: 확률론의 기본적인 법칙들을 의미합니다. 이에는 확률의 합계 법칙, 곱셈 법칙, 및 전체 확률의 법칙 등이 포함될 수 있습니다. 주변 분포: 확률 변수 집합 내에서 일부 변수에만 관심을 가질 때, 이 변수들의 확률 분포를 말합니다. 예를 들어, 두 변수 X와 Y의 결합 분포에서 X의 주변 분포를 구하는 것입니다. 조건부 분포: 한 확률 변수의 분..
[인공지능] Reinforcement Learning II - 1 Outline Exploitation vs. Exploration( 착취 대 탐험) ε-greedy(입실론 그리디) Exploration function(탐험 함수) Generalization (일반화) Feature-based state representation(특징 기반 상태 표현) 착취 대 탐험(Exploitation vs. Exploration): 이 개념은 주로 머신러닝, 특히 강화학습에서 논의됩니다. 이미 알려진 것을 사용해 좋은 결과를 얻는 것(착취)과 새로운 것을 시도해 더 나은 전략을 발견할 가능성을 탐색하는 것(탐험) 사이의 균형에 관한 것입니다. ε-greedy (입실론 그리디): 이것은 강화학습에서 사용되는 전략입니다. 대부분의 경우 최고의 알려진 옵션(착취)을 선택하지만 때때로 ..
[인공지능] Reinforcement Learning I - 2 Passive vs Active Reinforcement Learning "Passive vs Active Reinforcement Learning"은 강화 학습 내에서 두 가지 다른 접근 방식을 설명합니다: Passive Reinforcement Learning (수동 강화 학습): 고정된 정책: 수동 강화 학습에서 에이전트는 주어진, 변경되지 않는 정책을 따릅니다. 이 정책은 에이전트가 어떤 상태에서 어떤 행동을 취할지 정해주지만, 에이전트는 이 정책을 변경할 수 없습니다. 환경 탐색 없음: 에이전트는 환경을 탐색하거나 새로운 전략을 시도하지 않습니다. 대신, 이미 정해진 정책에 따라 행동합니다. 목표: 주어진 정책의 효과를 평가하고, 이를 통해 상태의 가치를 학습하는 것입니다. 여기서 에이전트는 최..
[인공지능] Reinforcement Learning I - 1 Outline Double Bandits (이중 밴딧) Initially Unknown MDPs (초기에 알려지지 않은 MDPs) Model-Based Learning (모델 기반 학습) Model-Free Learning (모델 없는 학습) Direct Estimation (직접 추정) Temporal Difference Learning (시간차 학습) Q-Learning 1. Double Bandits (이중 밴딧) 개요: Double 밴딧은 강화 학습에서 사용되는 전략 중 하나로, 두 가지 다른 리워드 또는 정보 소스를 고려하는 알고리즘을 나타냅니다. 이는 두 가지 다른 리워드 시스템 간의 균형을 맞추거나 최적의 전략을 찾는 데 도움이 될 수 있습니다. 2. Initially Unknown MDPs..