본문 바로가기
728x90
반응형

분류 전체보기116

Python eval() 함수 문자열 계산, 진짜 수로 바꾸기 input 으로 식을 받았다면 eval() 함수를 통해 바로 계산할 수 있다. data = input #1+2 number = eval(data) print(number) 3 또는 문자로 된 숫자를 정수로 바꿀 수 있다. data = '200' number = eval(data) print(number) 200 2022. 7. 2.
Python ord() 함수 문자의 아스키 코드값 반환, 엑셀 셀 x, y로 변환 문자의 아스키 코드값을 반환하는 내장함수 print(ord('a')) 97 input 이 "c1" 로 들어왔을 때 x, y 의 좌표값을(1, 3) 로 만들고 싶을 때 input_data = input #c1 x = int(input_data[1]) y = int(ord(input_data[0])) - int(ord('a')) + 1 x, y = 1, 3 2022. 7. 2.
밑바닥부터 시작하는 딥러닝 Chapter8 - 딥러닝 VGG 신경망 - 3*3의 작은 필터를 사용한 합성곱 계층(Conv) - 활성화 함수는 ReLU - 풀링 계층 추가해 중간 데이터의 공간 크기를 줄여나감 - 완전연결 계층 뒤에 드롭 아웃 계층 사용 완전 연결 신경망이란, 인접하는 계층의 모든 뉴런과 결합되어 있는 신경망을 말한다. 입력 데이터와 가중치가 1대 1로 대응하는 것을 완전 연결(Fully-Connected)이라고 하며, 행렬의 내적(Affine)으로 표현된다. - 드롭 아웃은 오버피팅(over-fit)을 막기 위한 방법으로 뉴럴 네트워크가 학습중일때, 랜덤하게 뉴런을 꺼서 학습을 방해함으로써, 학습이 학습용 데이타에 치우치는 현상을 막아준다. 일반적으로 CNN에서는 이 드롭아웃 레이어를 Fully connected network 뒤에 놓지만,.. 2022. 6. 29.
밑바닥부터 시작하는 딥러닝 Chapter7 - CNN 합성곱신경망 CNN은 이미지 인식과 음성 인식 등 다양한 곳에서 사용되는데 특히 이미지 인식 분야에서 대부분 CNN을 기초로 한다. 지금까지 본 신경망은 인접하는 계층의 모든 뉴런과 결합되어 있다. 이것을 FCL(Fully Connected Layer) 완전 연결 계층이라고 한다. 완전연결 신경망은 Affine 계층 뒤에 활성화 함수를 갖는 ReLU/Sigmoid 계층이 이어져 있다. 위 그림에서는 'Affine-ReLU' 계층 조합이 4개 연달아 있고, 마지막 5번째 층은 'Affine-Softmax' 계층 조합으로 최종 결과인 확률을 출력한다. CNN에서는 새로운 층인 합성곱 계층 Convolutional layer 와 풀링 계층 Pooling layer 가 추가된다. 위 그림에서 볼 수 있듯이 CNN의 계층은 .. 2022. 6. 28.
밑바닥부터 시작하는 딥러닝 Chapter6 - 배치 정규화 input normalization - 전체 input 1000개에 대해서 -1 ~ 1 사이의 값을 갖게 하기 위해 N(0, 1) 로 정규화 한다. batch normalization - input normalization 후 50개씩 묶어서 20개의 배치를 만들었다고 했을 때 한 배치 안의 50개의 데이터의 평균과 분산이 N(0, 1) 이 아닐것이기 때문에 다시 정규화해주는 것이다. 배치 정규화를 사용하는 이유 - 각 층에서의 활성화값이 적당히 분포되도록 하기위해. 장점 - 학습 속도가 빠르다 : 적은 epoch 만으로도 LOSS 를 빠르게 줄일 수 있다. - 가중치 초깃값에 크게 의존하지 않는다. - 오버피팅을 억제한다.(드롭아웃 등의 필요성 감소) w 가 곱해지고 b가 더해지면 분포가 바뀌기 때문에.. 2022. 6. 27.
728x90
반응형