(새 문서: Neural Network 머신러닝의 한가지 기법 중 하나이다. 사람의 뇌에 있는 뇌세포인 뉴런의 동작을 컴퓨터로 모델링 한 기술이다. 뉴런은 여러...) |
|||
14번째 줄: | 14번째 줄: | ||
이러한 뉴럴넷에 random value의 weight로 생성을 한뒤, Error back propagation이라는 알고리즘을 활용해서 특정 input일 때 원하는 output이 나오도록 학습시킬 수 있다. | 이러한 뉴럴넷에 random value의 weight로 생성을 한뒤, Error back propagation이라는 알고리즘을 활용해서 특정 input일 때 원하는 output이 나오도록 학습시킬 수 있다. | ||
+ | |||
+ | 요런 뉴럴네트워크 중 Perceptron Layer가 깊어지면 딥 러닝이고 얕으면 쉘로우(Shallow learning)러닝이다. 딥 러닝은 여러모로 활용가치가 높으므로 많이 언급되지만, 쉘로우 러닝은 구리므로 잘 쓰지 않는다. | ||
+ | |||
+ | 궂이 비교를 하자면, 딥러닝은 힘쌔고 강한데 말 안듣는놈이고, 쉘로우 러닝은 말은 잘듣는데 힘이 매우 약한놈이다. 학계에서는 이 힘쌘놈을 어떻게든 길들여서 사용하려고 노리고 있다. |
2017년 7월 31일 (월) 01:56 기준 최신판
Neural Network
머신러닝의 한가지 기법 중 하나이다.
사람의 뇌에 있는 뇌세포인 뉴런의 동작을 컴퓨터로 모델링 한 기술이다.
뉴런은 여러개의 input과 output을 가지고 있고, 다른 뉴런의 output으로 부터 전하(Na이온, Ca이온)을 받는다.
이러한 전하들은 뉴런 내부에 쌓이게 되고, 일정 threshold 값을 넘게 되면, output으로 전하를 넘겨주게 된다.
다만 신기한 점은 threshold값과 output으로 넘겨주는 전하량은 뉴런마다 모두 다르며, 이러한 값들을 weight라고 하면, 이러한 weight와 연결성에 따라 이러한 뉴런 네트워크가 할 수 있는 일이 달라지게 된다.
이러한 뇌세포 뉴런을 컴퓨터에서 활용하기 위해 모델링 한 것을 Perceptron이라고 한다(Perception + Electron). 이러한 Perceptron이 모인 것을 뉴럴넷이라고 한다.
이러한 뉴럴넷에 random value의 weight로 생성을 한뒤, Error back propagation이라는 알고리즘을 활용해서 특정 input일 때 원하는 output이 나오도록 학습시킬 수 있다.
요런 뉴럴네트워크 중 Perceptron Layer가 깊어지면 딥 러닝이고 얕으면 쉘로우(Shallow learning)러닝이다. 딥 러닝은 여러모로 활용가치가 높으므로 많이 언급되지만, 쉘로우 러닝은 구리므로 잘 쓰지 않는다.
궂이 비교를 하자면, 딥러닝은 힘쌔고 강한데 말 안듣는놈이고, 쉘로우 러닝은 말은 잘듣는데 힘이 매우 약한놈이다. 학계에서는 이 힘쌘놈을 어떻게든 길들여서 사용하려고 노리고 있다.