분류 전체보기 (11) 썸네일형 리스트형 ShiftDDPMs: Exploring Conditional Diffusion Modelsby Shifting Diffusion Trajectories ShiftDDPMs: Exploring Conditional Diffusion Modelsby Shifting Diffusion Trajectories : [arxiv], [code] Zijian Zhang, Zhou Zhao, Jun Yu, Qi Tian 1. Introduction 일반적으로 DDPM은 image에 noise를 더하는 forward process와 denoising을 거치며 샘플을 생성하는 reverse process로 구성되어 있다. 여기에 conditional을 달성하기 위한 2가지 method가 있는데 첫 번째는 pre-trained unconditional DDPM을 사용하는 방법과 function approximator에 기존 input + condition을 같이 주는 방법.. Class-Balancing Diffusion Models Class-Balancing Diffusion Models [arxiv] Accepted by CVPR2023 Yiming Qin, Huangjie Zheng, Jiangchao Yao, Mingyuan Zhou, Ya Zhang 1. Introduction 기존의 diffusion 기반 모델들은 학습할 때 label이 uniformly distributed하다고 가정한 상태로 학습을 진행한다. 하지만 실제로 그런 데이터는 많지 않고 대부분 아래의 figure와 같이 skewed된 형태(long tailed)를 나타낸다. condition을 적용한 모델들의 경우 head class에서의 성능만 좋고 tail class의 성능은 저조하다. 따라서 저자는 본 논문을 통해 long-tailed dataset에.. CoDi: Co-evolving Contrastive Diffusion Modelsfor Mixed-type Tabular Synthesis CoDi: Co-evolving Contrastive Diffusion Models for Mixed-type Tabular Synthesis : [arxiv] Chaejeong Lee, Jayoung Kim, Noseong Park 1. Introduction 본 논문에서는 discrete 및 continuous variables를 처리하기 위해 두 diffusion model을 통합하여 tabular data synthesis 기법을 제안한다. discrete를 처리하는 가장 일반적인 방법이 one-hot 후 continuous space에서 sampling하는 방법이지만 최적의 결과가 아닐 수도 있고 전체 데이터 분포에서도 문제가 생길 수 있다. 두 diffusion model은 각각 discret.. Generating High Fidelity Data from Low-density Regions using Diffusion Models Generating High Fidelity Data from Low-densirt Regions using Diffusion Models : [arxiv] Vikash Sehwag, Caner Hazirbas, Albert Gordo, Firat Ozgenel, Cristian Canton Ferrer Princeton University, Meta AI 1. Introduction 대부분의 image datasets은 sample density에서 long-tailed distribution을 띄고 있으며 low-density에서의 samples는 high-density의 samples보다 높은 entropy를 갖는다. 본 논문의 목표는 generative model을 통해 low-density ne.. CSDI: Conditional Score-based Diffusion Models for Probabilistic Time Series Imputation CSDI: Conditional Score-based Diffusion Models for Probabilistic Time Series Imputation Yusuke Tashiro, Jiaming Song , Yang Song , Stefano Ermon arxiv : [paper] Abstract 본 논문에서는 observed data에 score-based diffusion models를 활용한 time series imputation method인 Conditional Score-based Diffusion models for Imputation(CSDI)를 제안한다. 제안하는 방법은 healthcare나 environmental data에서 기존 분야보다 성능이 40~65% 개선되었으며 오류를.. TACKLING THE GENERATIVE LEARNING TRILEMMA WITH DENOISING DIFFUSION GANS TACKLING THE GENERATIVE LEARNING TRILEMMA WITH DENOISING DIFFUSION GANS : [paper] 1. Introduction 생성 모델은 다양한 도메인에서 연구되어 왔지만 아직 3가지 key requirements를 동시만족시키진 못했다. 1) high-quality sampling 2) mode coverage and sample diversity 3) fast and computationally inexpensive sampling 본 논문에서는 기존의 생성 모델들이 위 3가지를 모두 만족시키지 못하면서 발생하는 문제를 generative learning trilemma라고 부른다. GAN : high-quality samples를 빠르게 생성하지만 .. AnoDDPM: Anomaly Detection with Denoising DiffusionProbabilistic Models using Simplex Noise AnoDDPM: Anomaly Detection with Denoising Diffusion Probabilistic Models using Simplex Noise [paper] 1. Introduction DDPM은 데이터 분포로부터 샘플을 생성할 수 있으며 GAN이나 VAE보다 우수한 mode coverage를 보인다. 저자는 DDPM의 reverse(denoising) process를 활용한 partial diffusion process을 통해 potentially anomalous query data를 healthy distribution에 매핑시켜 purely healthy patient data를 학습시킨다. 그 다음 원본 이미지와 비교하여 anomalies를 강조 표시한다. 저자는 제안한 .. ILVR : Conditioning Method for Denoising Diffusion Probabilistic Models 1. Introduction Generative model을 control하여 원하는 이미지를 생성하는 방법은 다음과 같이 2가지가 있다. 1) 목적에 맞는 conditional generative model을 만드는 방법 2) well-performed unconditional generative model을 활용하는 방법 DDPM은 Markov transition으로 학습해서 다양한 samples를 만들어냈지만 원하는 이미지가 생성되도록 control하는 것은 어려움. 본 논문에서는 학습이 필요없는 Iterative Latent Variable Refinement(ILVR)을 제안하여 unconditional DDPM에서의 생성을 control함. ILVR은 각 latent variable을 matc.. 이전 1 2 다음