Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
Tags
- Cell-tissue
- TAAM
- Feature reuse
- INR
- Cityscapes
- Tissue segmentation
- Referense Super Resoltuion
- LIIF
- Graph
- TRANSFORMER
- GNN
- Zero-Shot sr
- GNN in image
- CrossNet
- SISR
- session-based recommendation
- hypergraph
- Reference-based SR
- FRFSR
- ADE20K
- arbitrary scale
- Super-Resolution
- graph neural network
- Reference Super-Resolution
- deep learning
- implicit representation
- DIINN
- SegFormer
- Cell detection
- ConvNeXt
Archives
- Today
- Total
목록Pre-training (1)
딥러닝 분석가 가리
Activating More Pixels in Image Super-Resolution Transformer Review
"Activating More Pixels in Image Super-Resolution Transformer " Abstract Transformer 기반의 image super-resolution 같은 low-level vision task는 좋은 성능을 보였다. 하지만, Transformer 기반의 네트워크는 attribution 분석을 통해 제한된 공간 범위의 입력 정보만 사용한다. 이러한 것은 transformer의 잠재력이 여전히 기존 네트워크에 비해 완전히 활용되지 않는다는것을 의미한다. 그래서 더 많은 입력 픽셀을 활성화 하기 위해 HAT(Hybrid Attention Transformer)를 제안한다. HAT는 CA(Channel Attention)과 self-attention을 결합해 ..
딥러닝 논문 리뷰
2023. 3. 11. 00:30