목록분류 전체보기 (100)
nathan_H
요새 공부를 하면서 나의 부족함과 비효율성을 너무 많이 느끼고 있어 '완벽한 공부법'이란 책을 계기로 학습법에 관심이 많이 생겨 관련 책들을 더욱 찾아 읽기 시작했다. 그러다 출판된지는 꽤 되었지만 재능/ 학습법 관련책에서 유명한 책인 "Talent Code"를 알게 되어서 읽기 시작했고 내가 얼마나 "재능"에 대해 오해하고 잘못된 "노력"을 하고 있는지 인지하고 깨닫게 되어 그 내용에 대해 소개하고자 한다. 제대로된 노력 연습, 노력이 중요한 것은 누구나 알고 있는 사실이다. 하지만 같은 노력과 시간을 투자 하더라도 깊이있고 심도 있고 끈질기게 연습을 했는가라는 질문을 한번 던져 보자. 사실 연습이란 과정은 고통스럽다. 그래서 공부나 무언가를 배울때 모든 사람들이 초반에는 정량적으로 비슷한 시간을 투자..
if __name__ == "__main__": nums = 12345 print(bin(nums)) # 10진수 -> 2진수 (0b으로 시작) print(oct(nums)) # 10진수 -> 8진수 (0o으로 시작) print(hex(nums)) # 10진수 -> 16진수 (0x으로 시작) # ascll code print(ord("z")) # ascll -> 숫자 print(hex(ord("z"))) # ascll -> 8진수 print(chr(90)) # 숫자 -> ascll print(chr(0x5A)) # 16진수 -> ascll
Artificial Neural Networks Artificial Neural Networks은 인간의 뇌를 본따 입력층 은닉층 출력층 이렇게 구성되어 있는 모델이다. 또한 Peceptron와는 다르게 다층으로 구성되어 있는 모델이다. 그래서 ANN을 MultiLayer Perceptron이라고 불리기도 한다. ANN와 Peceptron 그렇다면 ANN과 Peceptron 모두 인간의 뇌를 모티브로 해서 만든 모델인데 어떠한 차이점이 있는지 알아보자. 차이점 1) Layer 앞서 이야기 했듯이 perceptron과 ANN의 가장 큰 차이는 Layer 개수이다. Perceptorn은 입력층, 중간층, 출력층으로 구성되어 있는 반면 ANN은 똑같이 입력층, 출력층이 있으나 1개 이상의 hiddne laye..
보통 딥러닝을 처음 배울때 Perceptron을 건너뛰고 ANN을 바로 들어가는 경우가 많다. 하지만 Perceptron을 제대로 알고 이해한 상태에서 ANN을 들어가는 것이 순서와 개념상 적합하다. Perceptron Perceptron은 인공 신경망 모형의 하나이고 1957년 Rosenblatt라는 사람에 의해 처음 고안된 알고리즘이다. 그리고 Perceptron은 인간의 뇌에 있는 Neuron을 본따 표현한 모델이다. 위 그림처럼 Perceptron은 입력층, 중간층, 출력층으로 구성되어 있거 층간에 Net input function과 Activation function이 실행이 되며 출력값이 도출이 된다. Net input function 입력값 x의 n+1개의 feature들이 n+1개의 wei..
Supervised Learning에는 크게 Regression과 classification으로 종류가 나뉜다. *다시 보는 Supervised Learning - 각 데이터에 정답(label)이 주어져 있고 레이블이 있는 데이터들의 집합은 training set이라고도 한다. 즉 레이블이 나눠진 데이터를 모델화 하여 세로운 데이터에 대해 정확한 출력을 예측하는 것을 말한다. Regression 회귀분석은 간단하게 말해 연속적인 숫자, 즉 예측값이 float 형태인 문제들을 해결하는데 사용된다. 예시 1) 지하철 역과의 거리. 학군의 수 마트 수 등등 여러 feature들로 어떤 지역의 땅값을 예측하는 문제. 예시 2) 출처 - https://www.androidhuman.com/ml/2018/03/04..
인간에게 주어진 것중에 가장 공평한 것은 시간인 거 같다. 시간은 누구에게나 공평하게 하루 24시간 주어진다. 하지만 이 시간을 어떻게 사용하고 그 시간에 얼마나 생산적으로 보내는지에 따라 결과의 차이는 어마무시 한 것 같다. 그리고 무엇보다 요새 프로그래밍 공부를 시작하면서 집중력, 생산성의 중요성을 몸소 느끼고 있어 관련 책을 찾던중 예전에 읽었던 "딥워크"라는 책이 떠올라 다시 재독을 하게 되었다. 딥워크 많은 유명 학자, 연구자, 기업가들은 이미 "딥워크"를 통해 많은 적은 시간에도 남들에 비해 많은 성과와 생산성을 이끌었다고 말을 한다. 그 가운데 "오리지널스" 저자인 애덤 그랜트는 일년중 딥워크 기간을 정해 외부와의 방해를 최대한 상태에서 연구나 책을 집필할 때가 많다고 한다. 그리고 이러한 ..
본 글은 순천향대학교 정영섭 교수님 강의 내용과 ratsgo's blog 내용을 토대로 작성 하였습니다. 출처 - https://ratsgo.github.io/machine%20learning/2017/07/03/regression/ Linear Regression 선형회귀는 수치형 설명변수 x와 연속형 숫자로 이뤄진 종속 변수 y간의 관계를 선형으로 가정하고 이를 가장 잘 표현할 수 있는 회귀계수를 데이터로 부터 추정하는 모델이다. 행렬 X와 종속변수 벡터 Y가 주어졌을 때 다중선형회귀 모델은 다음과 같이 정의된다 linear regression의 계수들은 실제값과 모델 예측값의 차이 오차제곱합을 최소로 하는 값들이다. 이를 만족하는 최적의 계수들은 회귀계수에 대해 미분한 식을 0으로 놓고 풀면 아래와..
참고 블로그 및 수업 - https://darkpgmr.tistory.com/62 - 순천향대학교 정영섭 교수님 ML 수업 bayes rule 베이지언 확률은 사후확률(posterior probability)을 사전확률(prior probability)과 likelihood를 이용해서 계산할 수 있도록 해 주는 확률 변환식이다. likelihood: p(e|H), 어떤 모델에서 해당 데이터(관측값)이 나올 확률 사전확률(prior probability): p(H), 관측자가 관측을 하기 전에 시스템 또는 모델에 대해 가지고 있는 선험적 확률. 예를 들어, 남여의 구성비를 나타내는 p(남자), p(여자) 등이 사전확률에 해당한다. 사후확률(posterior probability): p(H|e), 사건이 발..