일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
- TRANSFORMER
- deep learning
- implicit representation
- Feature reuse
- ADE20K
- TAAM
- Reference-based SR
- arbitrary scale
- Cityscapes
- Cell-tissue
- Referense Super Resoltuion
- SegFormer
- ConvNeXt
- GNN
- Cell detection
- Super-Resolution
- FRFSR
- Reference Super-Resolution
- graph neural network
- LIIF
- Zero-Shot sr
- GNN in image
- session-based recommendation
- Tissue segmentation
- DIINN
- SISR
- hypergraph
- INR
- CrossNet
- Graph
- Today
- Total
목록SISR (5)
딥러닝 분석가 가리
"Single Image Super-Resolution via a Dual Interactive Implicit Neural Network" Abstract 이 논문에서는, 임의의 크기로 SR 하기 위해 implicit neural network(INR)을 사용한 SISR을 소개한다. 이것을 하기 위해, 이미지내의 위치와 연관된 특징을 이미지의 상호간의 픽셀 속성들에 map 해주는 디코딩 함수를 통해 이미지를 표현한다. 픽셀의 위치가 연속적인 표현이 되므로, 제안하는 방법은 이미지가 다양한 해상도에서 임의의 위치를 참조할 수 있다. 특정 이미지의 해상도를 검색하려면, 출력 이미지에서 픽셀의 중심을 각각 지정하는 위치의 그리드에 디코딩 함수를 적용한다. 다른 기술과 대조적으로, dual interactiv..
"Learning Continuous Image Representation with Local Implicit Image Function" Abstract Visual 세계가 연속적인 방법으로 표현되는 동안, 기계들은 픽셀들의 2D 배열로 이미지들을 분리된 방식으로 저장하고 본다. 이 논문에서는, 이미지의 연속적인 표현을 배우는 방법을 찾는다. Implicit neural representation (INR)을 사용한 3D reconstruction에 영감을 받아, 이미지 좌표와 좌표 주변의 2D deep feature를 입력으로 하여, 주어진 좌표의 RGB 값을 예측하는 Local Implicit Image Function (LIIF)를 제안한다. 좌표들이 연속적이기 때문에, LIIF는 arbitrar..
"Cross-Scale Internal Graph Neural Network for Image Super-Resolution" Abstract Natural 영상의 non-local self-similarity는 영상 복원전에 효과적인것으로 연구되었다. 하지만, SISR(Single Image Super-Resolution)에서 존재하는 대부분의 non-local method(non-local neural network 같은)는 입력 영상인 LR(Low-Resolution)의 같은 scale에서만 similar patch를 exploit한다. 결과적으로 복원은 같은 크기의 영상의 정보를 사용하는것이 제한되고 다른 크기의 potential HR(High Resolution) 신호는 무시된다. 그래서, 본 ..
"Activating More Pixels in Image Super-Resolution Transformer " Abstract Transformer 기반의 image super-resolution 같은 low-level vision task는 좋은 성능을 보였다. 하지만, Transformer 기반의 네트워크는 attribution 분석을 통해 제한된 공간 범위의 입력 정보만 사용한다. 이러한 것은 transformer의 잠재력이 여전히 기존 네트워크에 비해 완전히 활용되지 않는다는것을 의미한다. 그래서 더 많은 입력 픽셀을 활성화 하기 위해 HAT(Hybrid Attention Transformer)를 제안한다. HAT는 CA(Channel Attention)과 self-attention을 결합해 ..
"Online Learning for Reference-Based Super-Resolution Review" Abstract Online learning은 테스트 단계에서 입력 데이터가 심층 네트워크에 업데이트해서 성능 개선을 도출하는 방법이다. SISR(Single Image Super-Resolution)에서 online learning 방법은 심층 네트워크의 online adaptation을 위해 LR(저해상도) 영상을 사용한다. SISIR 방법과 다른, RefSR(Reference-based SR) 알고리즘은 입력 LR 영상을 개선하는데 유용한 기능이 포함된 HR(고해상도) 참조 영상의 이점을 제공한다. 그로므로 본 논문에서는 RefSR 뿐만 아니라 SISR에도 해당되는, 몇가지 ref 영상을 ..