본문 바로가기

전체 글46

[밑시딥1] Chapter 3. 신경망 3.1 퍼셉트론에서 신경망으로입력층, 출력층, 은닉층으로 구성은닉층의 뉴런은 사람 눈에 보이지 않음 (입력층,출력층과 달리)입력층 -> 0층, 은닉층 -> 1층, 출력층 -> 2층 가중치를 갖는 층은 2개뿐 = '2층 신경망'  3.2 활성화 함수입력 신호의 총합을 출력 신호로 변환하는 함수a = 가중치가 달린 입력신호 + 편향a를 활성화 함수 h( )에 넣어 y 출력 계단함수 = 임계값을 경계로 출력이 바뀌는 활성화 함수퍼셉트론에서 사용시그모이드 함수 (신경망에서 자주 이용)부드러운 곡선이며 입력에 따라 출력이 연속적으로 변화즉, 연속적인 실수(0.731...., 0.880..... 등) 출력 [계단함수와 시그모이드 함수 공통점]입력이 중요하면 큰 값 출력, 중요하지 않으면 작은 값 출력비선형 함수 [.. 2024. 1. 9.
[밑시딥1] Chapter 2. 퍼셉트론 2.1 퍼셉트론이란?신경망(딥러닝)의 기원이 되는 알고리즘다수의 신호를 입력 받아 하나의 신호 출력(1 또는 0)입력 신호: x1, x2출력 신호: y가중치: w1, w2 (가중치가 클수록 강한 신호)뉴런으로부터 오는 신호의 총합이 임계값(θ)을 넘어서면 1 출력         2.2 단순한 논리 회로AND 게이트(두 입력이 모두 1일 때만 1 출력, 그 외에는 0 출력)NAND 게이트(두 입력이 모두 1일때만 0 출력, 그 외에는 1 출력)OR 게이트(입력 신호 중 하나 이상이 1이면 1 출력)    * 퍼셉트론 구조는 AND, NAND, OR 게이토 모두 똑같음(매개변수의 값만 다를 뿐)  2.3 가중치와 편향θ를 -b로 치환b = 편향 = 뉴련이 얼마나 쉽게 활성화하느냐 조정입력 신호에 가중치를 곱.. 2024. 1. 9.
[모두를 위한 딥러닝 시즌2] lab 1-1,1-2,8-1,8-2 [lab 1-1]1D: Vector2D: Matrix3D: Tensor4D: Tensor를 위로 확장5D: 4차원을 옆으로 확장6D: 5차원을 뒤로 확장l t l = (64, 256) ---> 딥러닝을 처음 접할 때 가장 기본적인 matrixVision(이미지,영상) 과 NLP에서는 3차원 데이터를 가지고 입출력을 다룸NLP의 3차원 데이터 경우 빨간색 빗금을 친 네모가 하나의 문장이고 batch size만큼 문장이 존재  불가피하게 서로 다른 크기 Tensor들의 사칙연산이 이루어질 수 있음'PyTorch' 가 자동적으로 size를 맞춤 => 'Broadcasting'주의: 에러가 존재해도 자동으로 Broadcasting 수행을 하기 때문에 추후 에러 발생 시 원인 찾기 힘들어 조심히 사용A.matmu.. 2024. 1. 9.
[파이썬 딥러닝 파이토치] Part 1. Pytorch 기초 텐서 : 데이터를 표현하는 단위4.1.1 Scalar스칼라 = 상숫값torch 모듈에 내장된 메서드 (스칼라 사칙연산) 4.1.2 Vector백터 : 하나의 값을 표현할 때 2개 이상의 수치로 표현한 것torch 모듈에 내장된 메서드(벡터 사칙연산) 4.1.3 Matrix행렬 : 2개 이상의 벡터 값을 통합해 구성된 값벡터 값 간 연산 속도를 빠르게 진행할 수 있는 선형 대수의 기본 단위torch 모듈에 내장된 메서드 (행렬 값 간 사칙연산)A.mul(B) : A행렬과 B행렬 간 원소별 곱A.matmul(B) : A행렬과 B행렬의 행렬곱 4.1.4 텐서텐서 : 2차원 이상의 배열 torch 모듈에 내장된 메서드(텐서)(행렬곱) [ [(1*9) + (2*11)] , [(1*10) + (2*12)], [(5.. 2024. 1. 9.