본문 바로가기
728x90
반응형

분류 전체보기242

[머신러닝] 공분산과 왜 중요하지? joint probability distribution 케빈머피 머신러닝 통계뿐만 아니라 머신러닝 개념에서 정말 중요한 공분산에 대하여 알아보고자 합니다. 이 개념은 케빈머피 머신러닝 책에 joint probability distribution (결합확률 분포) 부분에 포함되어있습니다. 확률변수 X 와 Y 사이에 공분산은 X와 Y가 선형으로 연관되어 있는 정도를 측정하는데 공분산은 다음과 같이 정의된다. 공분산이라는 것은 두 확률 변수가 얼마나 함께 변하는지를 측정하는 통계적인 지표이다. 위의 정의에서 보다시피 X가 D 차원의 확률벡터 x 라면 공분산 행렬 Cov(x) 는 다음과 같이 대칭적인 행렬이다. (3.2) 그리고 (3.3) 에서 보이는 행렬은 확률벡터의 각 요소들 간의 쌍별 공분산을 나타내는데 공분산 행렬은 확률벡터의 다양한 구성요소들 간의 관계와 의존성을 확인할 수.. 2024. 1. 22.
[파이썬 기초] 하샤드 만들기 1. 자연수 입력 2. 예를 들면 18 을 입력 시, 1 과 8을 더한 값으로 9 로 18을 나누어 떨어지는 수 num=int(input("자연수 입력 하시오 :")) x = num // 10 y = num % 10 z = x+y if num % z == 0 : print (f"{num}는 하샤드 수 ") else : print (f"{num}는 하샤드 수 아님") 2024. 1. 21.
[머신러닝] Categorical distribution 범주형 다항분포 캐빈머피 다시금 캐빈머피의 머신러닝 공부를 시작하였습니다. 데이터 사이언티스트 직군의 특성상 공부를 게을리 하면 안되기 때문에 힘들다가도 살아있음을 느끼다가도 재밌다가도 다시 힘들기도 합니다. 그러나 이 과정을 이겨낸다면 뿌듯해지죠. 열심히 해봅시다. Categorical distribution은 이산확률 변수입니다. 위의 (2.88)의 수식이 다소 복잡하게 느껴질수 있으나, • y는 확률 변수, 1부터 C까지 카테고리를 나타냄. • Theta 는 각 클래스에 대한 매개변수 (확률) 이므로 theta c 는 클래스에 대한 확률 • I 는 Indicator function (지시함수) 요정도만 짚고 넘어갑니다. 그 다음 우리가 이제 범주형 분포로 사용하기 시작하는 것은 바로 softmax 함수입니다 여기서 a 는 .. 2024. 1. 21.
[알고리즘] 홀짝에 따라 다른값 변환 (프로그래머스) 문제 설명 양의 정수 n이 매개변수로 주어질 때, n이 홀수라면 n 이하의 홀수인 모든 양의 정수의 합을 return 하고 n이 짝수라면 n 이하의 짝수인 모든 양의 정수의 제곱의 합을 return 하는 solution 함수를 작성해 주세요. 초기에 내가 짜놓은 코드 (장황하다...) def solution1(n): if n % 2 == 1: # 나머지가 1이라는 결과를 보여주기 위한 코드 answer = sum(list(map(lambda x : 2*x +1 , range(0,(n//2)+1,1)))) else: answer = sum(list(map(lambda x : x**2, range(0,n+1,1)))) return answer 초기에 내가 짜놓은 코드 (장황한것 마찬가지나 나의 사고의 흐름에.. 2024. 1. 20.
[알고리즘] 파이썬 활용해서 구구단 구하기 (반복문 한번) 반복문을 한번만 사용해서 구구단 실행하는 방법 # while 문을 활용하여 구구단연습하기 i = 2 j = 1 while i < 10: # 2단부터 9단까지 실행 result = i * j print('{i} * {j} = {result}'.format( i = i, j = j, result = result)) j = j + 1 if j == 10: i += 1 j = 1 for 반복문보다 while 조건문 쓰느것이 더 효과적임. 나머지는 추가적으로 설명.. *. for문 2번 반복 사용 예시 for a in range(2,9) : for b in range (2, 9) : val = a * b print (f'{a} * {b} = {val}') 2024. 1. 20.
[머신러닝] LSTM - GRU 란? LSTM(장단기 메모리 네트워크)와 GRU(게이트 순환 유닛)는 시계열 데이터와 자연어 처리 등에서 주로 사용되는 순환 신경망(RNN)의 변형된 형태입니다. LSTM(Long Short-Term Memory) - LSTM은 RNN의 한 종류로, 장기 의존성 문제를 해결하기 위해 고안되었습니다. - 이를 위해 '게이트(gate)'라 불리는 구조를 사용하여 정보의 흐름을 조절합니다. 게이트 구조는 다음 편에서 어떤 건지 알아봅시다. - 입력 게이트, 삭제 게이트, 출력 게이트 등으로 구성되어 각 게이트는 정보를 선택적으로 기억하거나 잊을 수 있도록 합니다. - 기본 RNN과 달리, LSTM은 장기적인 의존성을 학습하고 기억하는 능력이 있어 긴 시퀀스에서 효과적으로 작동합니다. GRU(Gated Recurre.. 2023. 12. 15.
728x90
반응형