MNIST는 머신러닝 계의 printf("hello world") 라고도 할 수 있습니다. MNIST 데이터셋은 0부터 9까지의 손글씨 이미지로 구성되어 있습니다. 머신러닝은 데이터를 훈련 데이터, 테스트 데이터로 나눕니다. 또는 세가지 훈련 데이터, 테스트 데이터, 벨류 데이터로 나누기도 합니다. 머신러닝에는 훈련 데이터와 테스트 데이터를 절대 섞지 않는다 라는 원칙이 있습니다. 이게 섞이면 신뢰도에 문제가 생기기 때문입니다. 각 데이터는 이미지와 라벨로 이루어져 있습니다. ( 이미지는 손글씨 사진, 라벨은 그 숫자가 무엇인지 적혀있는 곳 ) 각 이미지는 28*28 해상도의 흑백 사진 입니다. 각 픽셀은 0에서 255로 밝기를 표현합니다. 우리는 인공신경망에 이 훈련데이터를 넣어서 학습을 시킵니다. 그..
2020/09/16 - [Study/인공지능] - 3층 인공신경망 ( 퍼셉트론과 활성화 함수의 결합 ) ( 인공지능 기초 #5-1) 2020/09/15 - [Study/인공지능] - Heaviside 함수 Sigmoid함수 ReLU 함수, 신경망과 활성화 함수 ( 인공지능 기초 #4 ) 확률 벡터는 단순하게 확률을 벡터로 표현한 것이다. 중요한점은 1. 확률은 음수가 없다는 점. 2. 모든 확률을 더하면 1이 나온다는 점 이다. 일반적인 벡터는 음수일 수도 있고, 다 더했을때 1이 되지 않을수도 있다. 이러한 벡터를 양수이며 다 더하면 1이 되도록 바꾸어 주는 것이 Softmax 변환 이다. ( 확률벡터로 변환시켜주기 ) 방법으로는 (a1,a2,a3 ,...,an) 이 있을 때 1. 양수로 만들기 e^x..
인공신경망은 퍼셉트론과 앞에서 공부했던 활성화 함수들의 아이디어를 결합한 것입니다. 2020/09/15 - [Study/인공지능] - Heaviside 함수 Sigmoid함수 ReLU 함수, 신경망과 활성화 함수 ( 인공지능 기초 #4 ) 2020/09/14 - [Study/인공지능] - 다층 퍼셉트론 XOR 논리회로 표현하기 , 단층으로 안되는 이유 ( 인공지능 기초 #3 ) 2020/09/13 - [Study/인공지능] - 퍼셉트론 AND, NAND, OR 논리회로 표현하기 ( 인공지능 기초 #2 ) 2020/09/13 - [Study/인공지능] - 퍼셉트론, 뉴런 네트워크의 모방 ( 인공지능 기초 #1 ) 오늘 알아볼 내용은 3단계로 구성된 3층 인공신경망입니다. 1은 고정된 값이며(*b : 편향)..
퍼셉트론은 신경망(딥러닝)의 기원이 되는 알고리즘 입니다. 퍼셉트론의 구조를 배우면 신경망과 딥러닝의 기초를 닦을 수 있습니다. 인공신경망(artificial neural network 아티피셜 뉴럴 네트워크) = 수학적으로 뉴런 네트워크를 모방해서 만든 것 아티피셜 뉴럴 네트워크가 뉴런 네트워크의 무엇을 모방해서 만들었는지 알아보자. 우선 우리의 몸은 무언가를 만졌을 때 전기신호가 뉴런 네트워크를 타고, 중추신경계, 뇌 등 까지 전기신호가 전달이 됨. 빨간색 파랑색 구분도 전기신호가 뉴런 네트워크를 타고 뇌까지 전달되는 것 Dendrite : 이웃 뉴런에서 전기신호를 받는다. Synapse : 전기신호의 세기를 재 조정하는 역할을 한다. Soma ( cell body ) : 여러 전기신호를 합친다. A..