Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
Tags
- 일부 레이어 고정
- 비선형함수
- sktime 예제
- pandas row 제거
- pandas
- EDA 추천 파이썬
- sktime tutorial
- pytorch dataset split
- Does GNN Pretraining Help Molecular Representation?
- 선형함수 딥러닝
- pandas 조건
- layer 일부 freeze
- pytorch 데이터셋 나누기
- Graph Theory
- sktime 튜토리얼
- Skip connection
- pretraining
- 시계열 라이브러리
- sktime
- Prompt Tuning for Graph Neural Networks
- molecular representation
- EDA in python
- 판다스 조건
- python 경우의 수
- 비선형함수 딥러닝
- pandas 행 제거
- 경우의 수 파이썬
- weight 일부 고정
- 모델 freeze
- pandas 특정 조건 열 제거
Archives
- Today
- Total
목록pretraining (1)
MoonNote

https://arxiv.org/pdf/2207.06010.pdf NeurIPS 2022에 accpet 되었고 Google Research 팀에서 쓴 논문이다. 제목부터 흥미가 가고 내용도 수학적인 부분보다는 실험적인 내용이라 읽기에 부담스럽지는 않았던 것 같다. 개인적으로 나도 molecular gnn으로 pretraining에 관한 연구를 했었기 때문에 어떤 내용일까 궁금했다. 3줄 요약 1. 2D-GNN (GIN, SAGE)을 사용하여, molecular representation에 대한 pretraining의 효과를 심도 있게 분석함 2. 알고 있던 통념과 다르게, pretraining의 효과는 미미한 것으로 나타남. 기존 연구들은 사실 cherry-picking 한 부분이 없지 않아 있다는 말 ..
Study/Paper Review
2023. 5. 23. 23:06