일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
- 스위프트
- 엔터프라이즈 블록체인
- 스칼라
- hyperledger fabric
- 주키퍼
- Actor
- 플레이프레임워크
- Play2
- 스칼라 강좌
- 하이브리드앱
- 파이썬 데이터분석
- akka 강좌
- 그라파나
- Hyperledger fabric gossip protocol
- 안드로이드 웹뷰
- Adapter 패턴
- 파이썬 강좌
- 이더리움
- 스칼라 동시성
- 파이썬 동시성
- Play2 로 웹 개발
- 파이썬
- 파이썬 머신러닝
- 블록체인
- play2 강좌
- play 강좌
- CORDA
- Golang
- 하이퍼레저 패브릭
- Akka
- Today
- Total
HAMA 블로그
자동상관 / 자동회귀 본문
AR-HMM 에 대한 논문을 읽다가 통계학에 관해 공부를 조금 했는데
(배워서 써먹는게 아니라 내 경우는 써먹으려고 배운 경우라 시간이 없어 기초/체계가 부족하다)
관련 교과서들이 why 에 대해 설명한 교재는 거의 없더라 ... 몇권있다
일본인이 쓴 "빅데이터를 지배하는 통계의 힘"이란 책이 why 에 대한 책 중 하나
참고로
주파수 해석에 관한 책으론 "수학으로 배우는 파동의 법칙" 이
패턴인식으로는 "패턴인식 - 오일석 저" 가 참 좋다. 이해시키려고 책을 썼다는 느낌이 든다...
팔아먹으려고 혹은 자신이 성취한것을 자랑하기 위해 쓰여진 국내 책들이 너무나 많다.
그 와중에 통계학에 대한 편견이 생겼는데 쉬운걸 어렵게 설명하는데 있어선 최고인 학문같다라는 점.
학문 자체가 '글월 (문장)' 으로 설명하는데 많이 수고스러울거 같긴하더라..작가가 그 why 나 설명 부분을 적절하게 말하기가 어렵고 귀찮으니 단지 수식이나 남발하며 SAS 나 SPSS 사용법만으로 책을 가득 채웠겠지 싶다..
학(저)자란 '쉬운걸 어렵게 말하는 사람들' 이란 예가 딱 맞지 싶다..
특히 시계열 관련 교재중 제대로 된 교재는 없다고 느꼈는데 그나마 송근원 선생님이 지으신
"회귀분석과 아리마 시계열 분석" 인데 이 분은 한글화를 주창하시는 분인데 개인적으로 공감하며
절로 존경의 마음이 생기더라.. ( 이 책은 특정부분 설명은 좋은데, 너무 얇아서 많은 생략이 있어 아쉽다)
한글화 번역
white-noise : 없소리 (백색소음)
stochastic : 제멋대로 (확율적)
co-variation : 함께 변하기 (공변)
linear : 곧은 줄꼴 (선형)
scatter-gram : 펼친그림 (산포도)
homoscedasticity : 같게퍼짐 (등분산성)
residuals : 찌꺼기 (잔차)
mising value : 빠진 값 (결측치)
differencing : 차이화 (차분)
outlier : 삐진자
일반 번역
parametric : 모수
nominal variable : 명목변수
intervening variable : 매개변수
timeliness : 적시성
time lag : 시차
asymptotic : 점근적
unbiasedness : 불편성
spurious relation : 거짓관계
estimator : 추정값
stationarity : 정태성
disturbance term : 교란항
In statistics and signal processing, an autoregressive (AR) model is a representation of a type of random process; as such, it describes certain time-varying processes in nature, economics, etc. The autoregressive model specifies that the output variable depends linearly on its own previous values and on a stochastic term (an imperfectly predictable term); thus the model is in the form of a stochastic difference equation.
Together with the Moving-Average (MA) model, it is a special case and key component of the more general ARMA and ARIMA models of time series, which have a more complicated stochastic structure; it is also a special case of the vector autoregressive model (VAR), which consists of a system of more than one stochastic difference equation.
WHY)
AR 모형은 아래 가설에 의해 제안되었다.
○ 과거의 패턴이 지속된다면 시계열 데이터 관측치 Yt 는 과거 관측치 , ,... 2 , Yt−1 Yt− Yt− p 에 의해
예측할 수 있을 것이다.
○ 어느 정도의 멀리 있는 과거 관측치까지 이용할 것인가? 그리고 멀어질수록 영향력을 줄어들 것이다.
이런 상황을 고려할 수 있는 가중치를 사용해야 하지 않을까?
AR(1) 모형 )
현재 시점의 값은 이전 시점의 값에 상수(a)를 곱해준 것과 유사하고, 찌꺼기 정도의 차이만 있다고 함 끄적여본 것 이다. 이 모형을 AR (Autoregressive) 모형이라 하고 , 바로 이전 시점 (t-1 시점) 까지만 고려하면 AR(1), 그 이전 까지 모두 고려해 주면 일반적으로 AR(p) 모형이라 한다. AR 모형은 아래와 같다.
자동회귀와 자동상관의 차이는 무엇인가요?
'Autoregression' is a variable regressed against lagged values of itself plus any other terms and their lagged values. You could have a model like:
y(t) = C + ay(t-1) + by(t-2)....cx(t) + dx(t-1) + ex(t-2) + u(t)
First of all 'Autocorrelation' is a word that is applicable to the error terms of time series regressions. 'Autocorrelation' means that the errors terms are correlated, which violates one of the assumptions of OLS testing.
You could model it like so:
e(t) = C + ae(t-1) + be(t-2) + ce(t-3)...
What is e? e is a random variable that represents the error term in any particular regression model. If the paramters a, b, c etc... are significant, then you have serial correlation. I don't think you can use OLS for this, but check the text. Certainly in practice it is often done to get an idea if there is a problem.
There is some very simple algebra that shows if the cov between 2 error terms is zero or not, but alas, my memory fails.
결론
기계적으로 사용하는 곳(적용처)이 다르다. 라는 뻔한 말 말고 느낌을 말하자면
과거의 값들로 현재를 말하고 미래를 예측한다라는 뽄새는 동일하나
자동상관은 오차항,교란항과 밀접한 관계가 있는 경우를 특별히 지칭하는게 아닌가 싶다.
별거 아닌걸 가지고 너무 헥깔려하는건가 싶기도 하다 -.-;;
'통계 & 머신러닝 & 딥러닝 ' 카테고리의 다른 글
딥러닝 수학/알고리즘 '한국어' 동강 (0) | 2016.09.21 |
---|---|
마스터 알고리즘 정리 (0) | 2016.09.16 |
파이썬을 통한 웨이블릿 회귀 (0) | 2016.07.04 |
[번역] 딥러닝 (CNN) 직관적 이해 - (2) (1) | 2016.04.09 |
[번역] 딥러닝 (CNN) 직관적 이해 - (1) (3) | 2016.04.09 |