Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | ||||
4 | 5 | 6 | 7 | 8 | 9 | 10 |
11 | 12 | 13 | 14 | 15 | 16 | 17 |
18 | 19 | 20 | 21 | 22 | 23 | 24 |
25 | 26 | 27 | 28 | 29 | 30 | 31 |
Tags
- sktime 튜토리얼
- 시계열 라이브러리
- sktime 예제
- sktime
- 비선형함수 딥러닝
- layer 일부 freeze
- molecular representation
- Skip connection
- python 경우의 수
- EDA 추천 파이썬
- pretraining
- pandas
- 비선형함수
- pandas row 제거
- 판다스 조건
- Prompt Tuning for Graph Neural Networks
- 선형함수 딥러닝
- Does GNN Pretraining Help Molecular Representation?
- 모델 freeze
- EDA in python
- 일부 레이어 고정
- 경우의 수 파이썬
- pytorch 데이터셋 나누기
- pandas 특정 조건 열 제거
- pytorch dataset split
- weight 일부 고정
- pandas 조건
- Graph Theory
- pandas 행 제거
- sktime tutorial
Archives
- Today
- Total
목록비선형함수 (1)
MoonNote

Linear activation function은 다음과 같은 형태이다. A = cx input을 받고 각 뉴런의 weight를 곱하고 input에 비례하는 output을 생성한다. 선형 함수는 1 or 0이 아닌 여러 output을 허용하기 때문에 step function 보다는 낫다. 하지만 다음과 같은 문제점이 있다. 1. 모델을 훈련하기 위해 backpropagation (gradient descent)을 사용하는 것이 불가능하다. function의 derivative가 일정하기 때문에 input과 input X와 관련이 없다. 따라서 backpropagation을 적용해도 input 뉴런의 어떤 weight가 더 좋은 예측에 영향을 주는지 이해할 수 없다. 2. 신경망의 모든 layer는 하나의..
Study/Machine Learning
2021. 11. 11. 12:06