<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>SBM - まったり勉強ノート</title>
	<atom:link href="https://www.mattari-benkyo-note.com/tag/sbm/feed/" rel="self" type="application/rss+xml" />
	<link>https://www.mattari-benkyo-note.com</link>
	<description>shuの日々の勉強まとめ</description>
	<lastBuildDate>Fri, 31 Mar 2023 12:47:34 +0000</lastBuildDate>
	<language>ja</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.8.3</generator>
<site xmlns="com-wordpress:feed-additions:1">189243286</site>	<item>
		<title>[勉強ノート] 「拡散モデル　データ生成技術の数理」 2.2 スコアベースモデル</title>
		<link>https://www.mattari-benkyo-note.com/2023/03/08/diffusion_model_book_2_2/</link>
					<comments>https://www.mattari-benkyo-note.com/2023/03/08/diffusion_model_book_2_2/#respond</comments>
		
		<dc:creator><![CDATA[Shuji Suzuki (shu)]]></dc:creator>
		<pubDate>Tue, 07 Mar 2023 21:33:32 +0000</pubDate>
				<category><![CDATA[未分類]]></category>
		<category><![CDATA[python]]></category>
		<category><![CDATA[pytorch]]></category>
		<category><![CDATA[SBM]]></category>
		<category><![CDATA[スコアベースモデル]]></category>
		<category><![CDATA[拡散モデル]]></category>
		<category><![CDATA[書籍]]></category>
		<category><![CDATA[機械学習]]></category>
		<guid isPermaLink="false">https://www.mattari-benkyo-note.com/?p=1932</guid>

					<description><![CDATA[<p>先日紹介した「拡散モデル　データ生成技術の数理」をちゃんと理解するために数式を改めて追ったり、説明されているアルゴリズムを実装したりしています。 その第2弾として「2.2 スコアベースモデル」で説明されているスコアベース [&#8230;]</p>
<p>The post <a href="https://www.mattari-benkyo-note.com/2023/03/08/diffusion_model_book_2_2/">[勉強ノート] 「拡散モデル　データ生成技術の数理」 2.2 スコアベースモデル</a> first appeared on <a href="https://www.mattari-benkyo-note.com">まったり勉強ノート</a>.</p>]]></description>
										<content:encoded><![CDATA[<p>先日紹介した「<a href="https://amzn.to/3SC3LMc" target="_blank" rel="noopener" title="拡散モデル　データ生成技術の数理">拡散モデル　データ生成技術の数理</a>」をちゃんと理解するために数式を改めて追ったり、説明されているアルゴリズムを実装したりしています。</p>



<p>その第2弾として「2.2 スコアベースモデル」で説明されているスコアベースモデルの学習とそれを使ったサンプリングについてPython(深層学習部分はPytorch)でコードを書いて試したのでそのまとめになります。</p>



<p>また、この本を買うか迷っている方は私が読んだ感想をこちらの記事に書いてますので参考にしてみてください。</p>



<figure class="wp-block-embed is-type-wp-embed is-provider-まったり勉強ノート wp-block-embed-まったり勉強ノート"><div class="wp-block-embed__wrapper">
<blockquote class="wp-embedded-content" data-secret="feZfZwZCVZ"><a href="https://www.mattari-benkyo-note.com/2023/02/23/diffusion_model_book_review/">[書評] 拡散モデル データ生成技術の数理 ー 目覚ましい画像生成の発展の裏側を知りたい人へ</a></blockquote><iframe class="wp-embedded-content" sandbox="allow-scripts" security="restricted"  title="&#8220;[書評] 拡散モデル データ生成技術の数理 ー 目覚ましい画像生成の発展の裏側を知りたい人へ&#8221; &#8212; まったり勉強ノート" src="https://www.mattari-benkyo-note.com/2023/02/23/diffusion_model_book_review/embed/#?secret=rS3Hmaks6Y#?secret=feZfZwZCVZ" data-secret="feZfZwZCVZ" width="600" height="338" frameborder="0" marginwidth="0" marginheight="0" scrolling="no"></iframe>
</div><figcaption class="wp-element-caption">[書評] 拡散モデル データ生成技術の数理 ー 目覚ましい画像生成の発展の裏側を知りたい人へ</figcaption></figure>



<p>また、この記事で紹介したコードは以下にあげてありますので、コード全体を確認したい方はこちらをご覧ください。</p>



<p><a href="https://github.com/shu65/diffusion-model-book/blob/main/diffusion_model_book_2_2_score_based_model.ipynb" target="_blank" rel="noopener" title="">https://github.com/shu65/diffusion-model-book/blob/main/diffusion_model_book_2_2_score_based_model.ipynb</a></p>



<h2 class="wp-block-heading">スコアベースモデルとは</h2>



<p>１章で紹介されているデノイジングスコアマッチングは以下の２つの問題点があると本では紹介されています。</p>



<ol class="wp-block-list">
<li>デノイジングスコアマッチングで推定されたスコア関数はデータ分布の密度が小さい領域で不正確</li>



<li>データ分布が多峰性を持つ場合、あるモード（確率が大きい領域）から他のモードに移る際、確率が小さい領域を通過するために非常に多くのステップを必要とする</li>
</ol>



<p>これらの問題を解決するためにスコアベースモデル（SBM）[1, 2] では複数の異なる強度のノイズによって攪乱した攪乱後分布を用意して、それらの攪乱後分布上のスコアを求めるようにしています。</p>



<h2 class="wp-block-heading">スコアベースモデルの学習</h2>



<p>スコア関数 \(s_{\theta}(\boldsymbol{x}, \sigma_t)\) を学習する際は以下のロス関数を使います。</p>



<p>$$ \begin{align*}<br>L_{\text{SBM}}(\theta) := \sum_{t=1}^T w_t E_{p_{\sigma_t}}(\tilde{\boldsymbol{x}}) \left\{ \left\| \nabla_{\tilde{\boldsymbol{x}}} \log p_{\sigma_t}(\tilde{\boldsymbol{x}}) &#8211; s_{\theta}(\tilde{\boldsymbol{x}}, \sigma_t) \right\|^2 \right\} \tag{2.2.1}<br>\end{align*} $$</p>



<p>ここで\(\sigma_t \) はノイズの強さを表す変数で\( \sigma_{min} = \sigma_1 &lt; \sigma_2 &lt;&#8230; &lt; \sigma_T = \sigma_{max}\)の合計\(T\)個をスコアベースモデルでは利用します。そして、\(p_{\sigma_t}(\tilde{\boldsymbol{x}}) \) \(x\)は\(x\)の分布\(p(x)\)を\(\sigma_t\)の強さで攪乱したあとの分布を表しています。</p>



<p>この式(2.2.1)を本の1.5.5の「デノイジングスコアマッチング」で説明されている通り、デノイジングスコアマッチングを使って式を書き換えると以下のようになります。</p>



<p>$$ \begin{align*}<br>L_{\text{DSM-SBM}}(\theta) := \sum_{t=1}^T w_t E_{\boldsymbol{x} \sim p_{data}(\boldsymbol{x}),\tilde{\boldsymbol{x}} \sim \mathcal{N}(\boldsymbol{x}, \sigma_t^2\boldsymbol{I})} \left\{ \left\| \frac{\boldsymbol{x} &#8211; \tilde{\boldsymbol{x}}}{\sigma_t^2} &#8211; s_{\theta}(\tilde{\boldsymbol{x}}, \sigma_t) \right\|^2 \right\} \tag{2.2.2}<br>\end{align*} $$</p>



<p>詳細は本にわかりやすくかいてあるので本を参照してください。</p>



<p>ここで本の式(1.9)のデノイジングスコアマッチングの式において最初に\(1/2\)があるのに式(2.2.2)ではそれが省略されています。これに関して本にはちゃんと書いてない気がしますが、おそらくこれは\(w_t\)の中に\(1/2\)が含まれているから、もしくは\(1/2\)は定数であり、最適化の際にパラメータが移動する方向は\(1/2\)のありなしで変わらないということで省略しているのではないかと思っています。</p>



<p>ここから２章にはちゃんと書いてないですが、Pythonで実装するためにさらに式変形していきます。\(\tilde{\boldsymbol{x}} \sim \mathcal{N}(\boldsymbol{x}, \sigma_t^2\boldsymbol{I})\)なので、\(\tilde{\boldsymbol{x}}\)を\(\epsilon \sim \mathcal{N}(0, \sigma_t^2 \boldsymbol{I})\)を使って表すと以下のようになります。</p>



<p>$$ \begin{align*}<br>\tilde{\boldsymbol{x}} = \boldsymbol{x} + \epsilon \tag{2.2.3}<br>\end{align*} $$</p>



<p>この式(2.2.3)を使って式(2.2.2)を式変形すると以下の通りです。</p>



<p>$$ \begin{align*}<br>L_{\text{DSM-SBM}}(\theta) :=&amp; \sum_{t=1}^T w_t E_{\boldsymbol{x} \sim p_{data}(\boldsymbol{x}),\tilde{\boldsymbol{x}} \sim \mathcal{N}(\boldsymbol{x}, \sigma_t^2\boldsymbol{I})} \left\{ \left\| \frac{\boldsymbol{x} &#8211; \tilde{\boldsymbol{x}}}{\sigma_t^2} &#8211; s_{\theta}(\tilde{\boldsymbol{x}}, \sigma_t) \right\|^2 \right\} \\<br>=&amp; \sum_{t=1}^T w_t E_{\boldsymbol{x} \sim p_{data}(\boldsymbol{x}),\epsilon \sim \mathcal{N}(\boldsymbol{x}, \sigma_t \boldsymbol{I})} \left\{ \left\| \frac{-\epsilon}{\sigma_t^2} &#8211; s_{\theta}(\tilde{\boldsymbol{x}}, \sigma_t) \right\|^2 \right\} \tag{2.2.4}<br>\end{align*} $$</p>



<p>この式を見たときに\(t=1\)から\(t=T\)までの和をとっている部分、\(T\)のサイズによっては計算量がすごいことにならないか？ということを思いました。このため、何か実装するときに工夫があるのかも？ということで[2]著者実装である[3]を見にいきました。すると2023/03/03時点では\(t=1\)から\(t=T\)ランダムに\(t\)を選び、その平均をとるということをしていました。</p>



<p>Pythonのコードのほうが分かりやすいと思うので、以下にPythonのコードも示しておきます。</p>



<div class="hcb_wrap"><pre class="prism line-numbers lang-python" data-file="dsm_loss" data-lang="Python"><code>def dsm_loss(score_model, samples, sigmas):
  t = torch.randint(0, len(sigmas), (samples.shape[0],), device=sigmas.device)
  used_sigmas = sigmas[t].view(samples.shape[0], *([1] * len(samples.shape[1:])))
  noise = torch.randn_like(samples) * used_sigmas
  perturbed_samples = samples + noise
  target = - 1 / (used_sigmas ** 2) * noise
  scores = score_model(perturbed_samples, used_sigmas)
  target = target.view(target.shape[0], -1)
  scores = scores.view(scores.shape[0], -1)
  w = used_sigmas.squeeze(-1) ** 2
  loss = ((scores - target) ** 2).sum(dim=-1) * w
  return loss.mean()</code></pre></div>



<p>ここで<code>score_model</code>がスコア関数 \(s_{\theta}(\boldsymbol{x}, \sigma_t )\) 、<code>samples</code>が\(\boldsymbol{x}\)、<code>sigmas</code>が\(\{\sigma_1,&#8230;,\sigma_T\}\)の配列となっています。また、\(w_t\)は本にならって\(w_t=\sigma_t^2\)を使っています。</p>



<p>この関数では最初にランダムに\(t\)を選び、それに従ってノイズを生成し、\(\tilde{\boldsymbol{x}}\)を作ります。その後、スコア関数の<code>score_model</code>を使ってスコアを計算し、式(2.2.4)を使ってロス関数を計算します。</p>



<p>このロス関数を使ってスコア関数のパラメータを学習していきます。</p>



<p>ここで１つ、スコア関数のモデルに関して注意点があります。スコア関数は\(s_{\theta}(\boldsymbol{x}, \sigma_t) \)は\(\boldsymbol{x}\)だけでなく\(\sigma_t\)も引数にとります。このため、モデルの中でどうにかして\(\sigma_t \)と\(\boldsymbol{x}\)の入力を組み合わせる必要があります。これに関して今回のコードでは[3]の実装にならって、以下のようにして\(\boldsymbol{x}\)だけを入力として受け取るスコア関数\(s_{\theta}^{\prime}(\boldsymbol{x})\)の出力を\(\sigma_t\)で割るという形にしています。</p>



<p>$$ \begin{align*}<br>s_{\theta}(\boldsymbol{x}, \sigma_t) = s_{\theta}^{\prime}(\boldsymbol{x}) / \sigma_t \tag{2.2.5}<br>\end{align*} $$</p>



<p>また、後ほど示しますが、今回は２つのガウス分布の混合分布を入力とします。この分布はシンプルな分布なため、今回は簡単なMLPをスコア関数のモデル使用します。コードとては以下のようになります。</p>



<div class="hcb_wrap"><pre class="prism line-numbers lang-python" data-file="score_model" data-lang="Python"><code>import numpy as np
import torch
import torch.nn as nn
import torch.nn.functional as F

class ScoreModel(nn.Module):
  def __init__(self, n_channels=2):
    super(ScoreModel, self).__init__()

    self.model = nn.Sequential(
        nn.Linear(n_channels, 2*n_channels),
        nn.ELU(),
        nn.Linear(2*n_channels, 16*n_channels),
        nn.ELU(),
        nn.Linear(16*n_channels, 2*n_channels),
        nn.ELU(),
        nn.Linear(2*n_channels, n_channels),
    )

  def forward(self, x, sigma):
    y = self.model(x)
    return y/sigma</code></pre></div>



<h2 class="wp-block-heading">スコアベースモデルを使ったサンプリング</h2>



<p>ここから学習済みのスコア関数\(s_{\theta}(\boldsymbol{x}, \sigma_t) \)を使ったサンプリングについて説明していきます。</p>



<p>スコアベースモデルを使ったサンプリング１章で紹介されたランジュバン・モンテカルロ法をベースにしています。ランジュバン・モンテカルロ法の部分についてはこちらに解説しています。</p>



<figure class="wp-block-embed is-type-wp-embed is-provider-まったり勉強ノート wp-block-embed-まったり勉強ノート"><div class="wp-block-embed__wrapper">
<blockquote class="wp-embedded-content" data-secret="fM7uHxbfRU"><a href="https://www.mattari-benkyo-note.com/2023/03/03/diffusion_model_book_1_5_1/">[勉強ノート] 「拡散モデル　データ生成技術の数理」 1.5.1 ランジュバン・モンテカルロ法</a></blockquote><iframe class="wp-embedded-content" sandbox="allow-scripts" security="restricted"  title="&#8220;[勉強ノート] 「拡散モデル　データ生成技術の数理」 1.5.1 ランジュバン・モンテカルロ法&#8221; &#8212; まったり勉強ノート" src="https://www.mattari-benkyo-note.com/2023/03/03/diffusion_model_book_1_5_1/embed/#?secret=oaLMCcsv0l#?secret=fM7uHxbfRU" data-secret="fM7uHxbfRU" width="600" height="338" frameborder="0" marginwidth="0" marginheight="0" scrolling="no"></iframe>
</div></figure>



<p>詳細は上の記事にかいてありますが、ランジュバン・モンテカルロ法は最初、ランダムに\(\boldsymbol{x}_0\)を生成後、以下のランジュバン・モンテカルロ法の更新則を\(K\)回繰り返すことで\(p(\boldsymbol{x})\)からサンプリングしたようなデータを作ります。</p>



<p>$$ \begin{align*}<br>\boldsymbol{x}_k := \boldsymbol{x}_{k-1} + \alpha \nabla_\boldsymbol{x} \log p(\boldsymbol{x}_{k-1}) + \sqrt{2\alpha}\boldsymbol{u}_k \tag{2.2.6}<br>\end{align*} $$</p>



<p>スコアベースモデルのサンプリングでは更新則のスコア（\(\nabla_\boldsymbol{x} \log p(\boldsymbol{x}_{k-1})\)）を学習したスコア関数に置き換えた以下の更新則を利用します。</p>



<p>$$ \begin{align*}<br>\boldsymbol{x}_{t, k} := \boldsymbol{x}_{t, k-1} + \alpha_t s_{\theta}(\boldsymbol{x}_{t, k-1}, \sigma_t)+ \sqrt{2\alpha_t}\boldsymbol{u}_k \tag{2.2.7}<br>\end{align*} $$</p>



<p>この更新則を用いたスコアベースモデルのサンプリングの疑似コードは以下の通りです。(「拡散モデル　データ生成技術の数理」Algorithm 2.1の引用)</p>



<ol class="wp-block-list">
<li>\(\boldsymbol{x}_0\)を初期化(\(\boldsymbol{x}_0 \sim \mathcal{N}(0, \sigma_T^2 \boldsymbol{I})\))</li>



<li>for \(t=1,&#8230;,T\) do</li>



<li>\(\quad \alpha_t := \alpha \sigma_t^2\/\sigma_T^2)\</li>



<li>\(\quad\) for \(k=1,&#8230;,K\) do</li>



<li>\(\qquad \boldsymbol{u}_k \sim \mathcal{N}(0, \boldsymbol{I})\)</li>



<li>\(\qquad\) if \(t=1\) and \(k=K\) then \(\boldsymbol{u}_k := 0\)</li>



<li>\(\qquad \boldsymbol{x}_{t, k} := \boldsymbol{x}_{t, k-1} + \alpha_t s_{\theta}(\boldsymbol{x}_{t, k-1}, \sigma_t)+ \sqrt{2\alpha_t}\boldsymbol{u}_k \)</li>



<li>\(\quad\) end for</li>



<li>\(\quad \boldsymbol{x}_{t-1, 0} := \boldsymbol{x}_{t, K}\) </li>



<li>end for</li>



<li>return \(\boldsymbol{x}_{0, 0}\)</li>
</ol>



<p>ここで\(\alpha\)はステップ幅のスケール、\(K\)はステップ回数です。アルゴリズムを見て分かる通り、ノイズの強度を変えながらランジュバン・モンテカルロ法を使って少しずつ\(\boldsymbol{x}_{t, k}\)を変化させています。また、７行目にある通り、各ノイズの強度の最後のステップではデノイジングのみを行うことでサンプリングの品質を向上させています。</p>



<p>この疑似コードをPythonのコードにするとこのようになります。</p>



<div class="hcb_wrap"><pre class="prism line-numbers lang-python" data-file="sbm_sampling" data-lang="Python"><code>def sbm_sample(n_samples, score_model, sigmas, alpha=0.1):
    sigma_T = sigmas[-1]
    x_0 = torch.randn(n_samples, 2)*sigma_T
    x_tk = x_0
    K = 200
    for t in range(len(sigmas) -1, -1, -1):
      sigma_t = sigmas[t]
      alpha_t = alpha*(sigma_t**2)/(sigma_T**2)
      print(f&quot;t:{t}, sigma_t:{sigma_t}, alpha_t:{alpha_t}&quot;)
      for k in range(K+1):
        u_k = torch.randn(n_samples, 2)
        if (k == K) and t == 0:
          u_k[:, :] = 0.0
        with torch.no_grad():
          score = score_model(x_tk, sigma_t)
          x_tk = x_tk + alpha_t * score + np.sqrt(2 * alpha_t) * u_k
    return x_tk</code></pre></div>



<p><code>n_samples</code>が生成するサンプル数、<code>score_model</code>がスコア関数、<code>sigmas</code>がノイズ強度の配列、<code>alpha</code>がステップ幅のスケールになっています。</p>



<h2 class="wp-block-heading">実行例</h2>



<p>先ほど紹介したPythonコードを実際に動かした例も示しておきます。参考例として入力となる\(\boldsymbol{x}\)のサンプリングする分布の確率密度関数は以下のように平均が違うガウス分布二つの混合分布とし、サンプリングしたデータを正規化して使用します。</p>



<div class="hcb_wrap"><pre class="prism line-numbers lang-python" data-file="generate_dataset" data-lang="Python"><code>n_samples = int(1e6)
sigma = 0.01

dist0 = torch.distributions.MultivariateNormal(torch.tensor([-2, -2], dtype=torch.float).to(device), sigma*torch.eye(2, dtype=torch.float).to(device))
samples0 = dist0.sample(torch.Size([n_samples//2]))
    
dist1 = torch.distributions.MultivariateNormal(torch.tensor([2, 2], dtype=torch.float).to(device), sigma*torch.eye(2, dtype=torch.float).to(device))
samples1 = dist1.sample(torch.Size([n_samples//2]))
samples = torch.vstack((samples0, samples1))

mean = torch.mean(samples, dim=0)
std = torch.std(samples, dim=0)

normalized_samples = (samples - mean[None, :])/std[None, :]</code></pre></div>



<p>使用する\(\boldsymbol{x}\)を2Dのヒストグラムで可視化すると以下のようになります。</p>


<div class="wp-block-image">
<figure class="aligncenter size-full is-resized"><img fetchpriority="high" decoding="async" src="https://www.mattari-benkyo-note.com/wp-content/uploads/2023/03/sample_density.png" alt="使用するデータの可視化結果" class="wp-image-2091" width="266" height="264" srcset="https://www.mattari-benkyo-note.com/wp-content/uploads/2023/03/sample_density.png 266w, https://www.mattari-benkyo-note.com/wp-content/uploads/2023/03/sample_density-150x150.png 150w" sizes="(max-width: 266px) 100vw, 266px" /><figcaption class="wp-element-caption">使用するデータの可視化結果</figcaption></figure></div>


<p>このデータを再現できるようにスコア関数を学習します。学習コードは以下の通りです。</p>



<div class="hcb_wrap"><pre class="prism line-numbers lang-python" data-file="train" data-lang="Python"><code>import torch

batch_size = 512
n_steps = 100000

dataset = torch.utils.data.TensorDataset((normalized_samples))
dataloader = torch.utils.data.DataLoader(dataset, batch_size=512, shuffle=True, num_workers=0)
dataloader_iter = iter(dataloader)

score_model = ScoreModel().to(device)

optimizer = torch.optim.Adam(score_model.parameters())
lr_scheduler = torch.optim.lr_scheduler.OneCycleLR(optimizer, max_lr=0.001, total_steps=n_steps)

for i in range(n_steps):
  try:
    x = next(dataloader_iter)[0]
  except StopIteration:
    dataloader_iter = iter(dataloader)
    x = next(dataloader_iter)[0]
  x = x.to(device)

  optimizer.zero_grad()
  loss = dsm_loss(score_model, x, sigmas)
  loss.backward()
  optimizer.step()
  lr_scheduler.step()
  if (i % 1000) == 0:
    print(f&quot;{i} steps loss:{loss}&quot;)</code></pre></div>



<p>学習が終わったら、以下のようにして学習したモデルを利用してサンプリングします。</p>



<div class="hcb_wrap"><pre class="prism line-numbers lang-python" data-file="sbm_samping" data-lang="Python"><code>samples_pred = sbm_sample(n_samples=100000, score_model=score_model, sigmas=sigmas)</code></pre></div>



<p>サンプリングされたデータの2Dのヒストグラムは以下の通りです。</p>


<div class="wp-block-image">
<figure class="aligncenter size-full"><img loading="lazy" decoding="async" width="266" height="264" src="https://www.mattari-benkyo-note.com/wp-content/uploads/2023/03/predicted_sample_density.png" alt="スコアベースモデルによるサンプリングデータの可視化結果" class="wp-image-2092" srcset="https://www.mattari-benkyo-note.com/wp-content/uploads/2023/03/predicted_sample_density.png 266w, https://www.mattari-benkyo-note.com/wp-content/uploads/2023/03/predicted_sample_density-150x150.png 150w" sizes="auto, (max-width: 266px) 100vw, 266px" /><figcaption class="wp-element-caption">スコアベースモデルによるサンプリングデータの可視化結果</figcaption></figure></div>


<p>可視化結果をみると元の分布の平均の近くにデータが集中しているので、うまくいっていると考えられます。</p>



<p>ただ、やってみるとわかるのですがちゃんとした結果を得るために人手で決めないといけないハイパーパラメータの選択が難しい印象です。この結果もかなり試行錯誤してなんとかこの結果を作ることができたというイメージです。</p>



<h2 class="wp-block-heading">終わりに</h2>



<p>今回は「<a href="https://amzn.to/3SC3LMc" target="_blank" rel="noopener" title="拡散モデル　データ生成技術の数理">拡散モデル　データ生成技術の数理</a>」の2.2のスコアベースモデルの説明の部分のコードを書いたのでそのまとめの記事になります。最初、MNISTのデータでやろうとして、MNISTのデータを学習できるコードを説明するのは結構大変、ということでシンプルな混合ガウス分布にしました。ただ、それでも結構な分量になった印象です。ちなみに次のDDPMも紹介用のコードはできているので、近日中に記事を書いて公開しようと思います。</p>



<p>この記事が少しでもみなさんの理解の助けになれば幸いです。</p>



<h2 class="wp-block-heading">参考文献</h2>



<ol class="wp-block-list">
<li>Song, Y., &amp; Ermon, S. (2019). Generative Modeling by Estimating Gradients of the Data Distribution. ArXiv, abs/1907.05600.</li>



<li>Song, Y., &amp; Ermon, S. (2020). Improved Techniques for Training Score-Based Generative Models. ArXiv, abs/2006.09011.</li>



<li><a href="https://github.com/ermongroup/ncsnv2" target="_blank" rel="noopener" title="">https://github.com/ermongroup/ncsnv2</a></li>
</ol><p>The post <a href="https://www.mattari-benkyo-note.com/2023/03/08/diffusion_model_book_2_2/">[勉強ノート] 「拡散モデル　データ生成技術の数理」 2.2 スコアベースモデル</a> first appeared on <a href="https://www.mattari-benkyo-note.com">まったり勉強ノート</a>.</p>]]></content:encoded>
					
					<wfw:commentRss>https://www.mattari-benkyo-note.com/2023/03/08/diffusion_model_book_2_2/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
		<post-id xmlns="com-wordpress:feed-additions:1">1932</post-id>	</item>
	</channel>
</rss>
