본문 바로가기
  • Seizure But Okay Developer

머신러닝10

2주차 강의 내용 정리 - 2 개요 머신러닝 강의 2주차 내용을 정리합니다 본문 이제 gradient descent 가 더욱 잘 동작할 수 있게 하는 몇가지 기술들을 알아본다. 이번에는 Feature scailing 이라는 gradient descent를 더욱 빠르게 동작시키게 하는 기술에 대해서 다뤄볼 것이다. 먼저 feature (x) 의 값과 연관된 parameter (w) 값 간의 관계를 살펴보자. 첫 예제로, 두 개의 feature을 사용해 집값을 예측하는 것을 보도록 하자. x1 은 집 크기이고, x2는 침실의 갯수이다. 그리고 각 feature들의 값 범위는 아래와 같다. 상대적으로 x1의 범위가 x2의 범위보다 더 크다. 이제 한 학습 예제를 살펴보면, x1 은 2000, x2 는 5, 집가격은 500K달러다. 이 경우.. 2023. 8. 2.
2주차 강의 내용 정리 - 1 개요 coursera 강의 2주차 내용을 정리합니다. 내용 지금 강의부턴 하나의 feature(input) 외에 여러 개의 feature 을 다루는 방식에 대해서 배울 것이다. 기존에 하나의 input 값으로만 구성된 방식은 아래와 같다. 그런데 만약 집 크기 외에 여러 개의 입력값이 존재한다면, 아래와 같이 재구성할 수 있고 집값을 예측하는데 더 용이하다. 위 그림에 나타난 표현식이 여러 개 있는데 정리하면 아래와 같다. x_j = j번째 feature, 1번째 feature는 위 표에서 첫 번째 열을 가리킨다. n = feature 의 총 개수 화살표 x^i = i번째 학습 데이터의 feature 그룹, 행 벡터라고도 부름. 화살표 표현은 벡터라는 것을 나타내기 위해 씀. 화살표 x^2 의 경우 위에.. 2023. 7. 19.
1주차 강의 내용 정리 - 7 개요 이제 앞서 배웠던 학습율과 cost function을 통해서 우리의 첫 머신러닝 알고리즘을 만들어본다. 결과적으로 선형 회귀 모델을 학습시켜 학습데이터와 밀접한 직선을 그릴 수 있다. 내용 지금까지 배운 공식들을 아래와 같이 정리한다. gradient descent 의 경우 미분공식을 적용한 결과 오른쪽 결과와 같이 정리되는 것을 확인할 수 있다. w에 대한 미분 공식이 풀이되는 과정은 아래와 같고, 미분 개념에 대한 설명은 첨부링크를 확인하길 바란다. 링크: https://zekesnote.tistory.com/411 공식을 보면, cost function의 공식에서 값을 좀 더 그럴싸하게(neater) 구하기 위해 2를 추가로 나눴던 이유에 대해서 알수 있다. 2로 나누는 작업이 있었기 때문에 .. 2023. 7. 18.
1주차 강의 내용 정리 - 6 개요 gradient descent에 대해서 배운다. 내용 gradient descent는 체계적인 방법으로 최소한의 크기의 w, b 값을 찾아주는 알고리즘이다. gradient descent는 딥러닝을 포함한 머신 러닝의 전반적인 곳에서 쓰인다. gradient descent 의 전반적인 내용에 대해서 살펴보자. gradient descent 는 어떠한 함수에도 적용할 수 있고 함수들은 n 개의 인자를 가진다. 우리는 최소한의 크기를 가진 cost function을 찾으려고 한다. 이를 위해 w, b 값에 대한 초기 추측값을 가지고 시작한다. linear regression의 경우 초기값이 무엇인지간에 크게 상관이 없어서 보통 w, b의 초기값을 0으로 잡고 시작한다. 우리가 할 것은 J(w) 값을 최.. 2023. 7. 12.
1주차 강의 내용 정리 - 5 개요 지난 시간에 이어서 cost function 에 대해서 다룰텐데, 좀 더 많은 예제를 통해 익힐 것이다. 내용 지난 시간에 배웠던 cost function 개념의 전반적인 내용을 정리하면 아래와 같다. 지난 시간에는 b를 0으로 세팅하여 간편하게 구했으나 이번엔 b에 다양한 값을 세팅하여 어떤 형태로 그려지는지 확인해보자 예를 들어 w = 0.06 이고 b = 50 인 f(x) 함수를 그린다고 했을 때 왼쪽 위 형태와 같이 나타내진다. 이 경우 데이터들과 그닥 밀착되어 있지 않으므로 좋은 linear regression model이 아니다. 그리고 이 경우 J(w) 함수는 단순히 이차원 포물선 함수가 아닌 삼차원으로 그려진다, 왜냐면 b의 값이 0이 아닌 값으로 대입되기 때문이다. 그래서 그림은 아.. 2023. 7. 6.
1주차 도입부 - What is machine learning? Definition of machine learning by Arthur Samuel Field of study that gives computers the ability to learn without being explicitly programmed. 컴퓨터에게 명확히 프로그래밍한 것없이도 배울 수 있는 능력을 부여해주는 연구 분야 Arthur는 체스를 잘 못두는 사람이었다. 대신 컴퓨터 프로그램에게 수천개의 체스 게임을 시켰다. 어느 위치에 말을 두었을 때 이기는지 혹은 지는지를 학습하게 하였다. 학습 시킨 방법은 좋은 위치에 말을 두도록 하면서 안 좋은 위치에는 배치하지 않는 방식이었다. 프로그램은 수천 번의 게임을 반복하면서 학습을 거듭하였고 그 결과 이전보다 더 나은 플레이어, 심지어 Arthu.. 2023. 6. 18.
1주차 강의 내용 정리 - 4 개요 1주차 내용을 이어서 정리합니다. Cost function 지난 시간에 배운 것을 Recap 한다. Model 을 사용할 때 parameter 인 w,b 가 있고 w,b 를 구하기 위해 cost function 을 사용한다. 이때 cost function 의 규모를 최소화 시키는 w, b 값을 찾는다. 오른쪽 형태는 b가 0이라고 가정하여 함수를 간단하게 표현한 것이다. 이 경우 cost function J(w)는 위와 같이 표현이 되고 원점을 통과하는 선이 그려진다. 마찬가지로 cost function의 규모를 최소화 시키는 w 값을 찾아야 한다. 원점을 통과하는 예제를 계속 살펴보자. Model 을 나타내는 fw(x) 함수 및 cost function 을 나타내는 J(w) 함수를 서로 대칭하면 .. 2023. 3. 14.
1주차 강의 내용 정리 - 3 개요 1주차 내용을 이어서 작성합니다. Cost function 앞서 배운 linear regression 을 실행하기 위해선 "cost function" 을 정의해야 한다. cost function은 Model이 현재 얼마나 잘 동작하고 있는지를 알려준다. 그래서 Model이 더 나은 성능을 낼수 있게끔 해준다. 그림으로 cost function 에 대해 배워보자. linear regression Model을 나타내는 표현식은 아래와 같다. f(x) = wx + b w, b는 parameter 라고 하며 머신러닝 모델이 학습하는 중에 성능을 개선하기 위해 적용할 수 있는 값이다. w, b는 coefficients 또는 weights 라고도 표현한다. 위 그림에서 보듯 w, b 값에 따라서 그래프의 선이.. 2023. 3. 13.
1주차 강의 내용 정리 - 2 개요 전체적인 Supervised learning 의 과정에 대해서 살펴볼텐데, 그 중 Linear regression 이라는 모델에 대해서 살펴볼것임 Linear regression Supervised learning 에 속하는 모델로 현재 가장 많이 사용됨 예제를 통해 Linear regression 에 대하여 알아보도록 하자, 아래 그림처럼, 최근 집이 팔린 내역에 대한 데이터가 그래프에 나타나 있고, 당신은 집 크기에 따른 가격을 예측하고 싶다고 하자. 만약 1,250 feet 크기의 집 가격을 알고 싶다면 어떻게 하면 될까? 우리가 시도할 수 있는 것중 하나는 아래 데이터 셋들을 가지고 Linear regression 모델을 만드는 것이다. 그렇게 만든 모델은 아래 그림과 같이 데이터들의 분포에.. 2023. 3. 8.