Files
Varuna Jayasiri ce0cdb676f ja translation
2023-06-30 16:03:07 +05:30

251 lines
18 KiB
HTML
Raw Blame History

This file contains ambiguous Unicode characters

This file contains Unicode characters that might be confused with other characters. If you think that this is intentional, you can safely ignore this warning. Use the Escape button to reveal them.

<!DOCTYPE html>
<html lang="ja">
<head>
<meta http-equiv="content-type" content="text/html;charset=utf-8"/>
<meta name="viewport" content="width=device-width, initial-scale=1.0"/>
<meta name="description" content=""/>
<meta name="twitter:card" content="summary"/>
<meta name="twitter:image:src" content="https://avatars1.githubusercontent.com/u/64068543?s=400&amp;v=4"/>
<meta name="twitter:title" content="labml.ai アノテーション付き PyTorch ペーパー実装"/>
<meta name="twitter:description" content=""/>
<meta name="twitter:site" content="@labmlai"/>
<meta name="twitter:creator" content="@labmlai"/>
<meta property="og:url" content="https://nn.labml.ai/index.html"/>
<meta property="og:title" content="labml.ai アノテーション付き PyTorch ペーパー実装"/>
<meta property="og:image" content="https://avatars1.githubusercontent.com/u/64068543?s=400&amp;v=4"/>
<meta property="og:site_name" content="labml.ai アノテーション付き PyTorch ペーパー実装"/>
<meta property="og:type" content="object"/>
<meta property="og:title" content="labml.ai アノテーション付き PyTorch ペーパー実装"/>
<meta property="og:description" content=""/>
<title>labml.ai アノテーション付き PyTorch ペーパー実装</title>
<link rel="shortcut icon" href="/icon.png"/>
<link rel="stylesheet" href="./pylit.css?v=1">
<link rel="canonical" href="https://nn.labml.ai/index.html"/>
<link rel="stylesheet" href="https://cdn.jsdelivr.net/npm/katex@0.13.18/dist/katex.min.css" integrity="sha384-zTROYFVGOfTw7JV7KUu8udsvW2fx4lWOsCEDqhBreBwlHI4ioVRtmIvEThzJHGET" crossorigin="anonymous">
<!-- Global site tag (gtag.js) - Google Analytics -->
<script async src="https://www.googletagmanager.com/gtag/js?id=G-4V3HC8HBLH"></script>
<script>
window.dataLayer = window.dataLayer || [];
function gtag() {
dataLayer.push(arguments);
}
gtag('js', new Date());
gtag('config', 'G-4V3HC8HBLH');
</script>
</head>
<body>
<div id='container'>
<div id="background"></div>
<div class='section'>
<div class='docs'>
<p>
<a class="parent" href="/">home</a>
</p>
<p>
<a href="https://github.com/labmlai/annotated_deep_learning_paper_implementations" target="_blank">
<img alt="Github"
src="https://img.shields.io/github/stars/labmlai/annotated_deep_learning_paper_implementations?style=social"
style="max-width:100%;"/></a>
<a href="https://twitter.com/labmlai" rel="nofollow" target="_blank">
<img alt="Twitter"
src="https://img.shields.io/twitter/follow/labmlai?style=social"
style="max-width:100%;"/></a>
</p>
<p>
<a href="https://github.com/labmlai/annotated_deep_learning_paper_implementations/tree/master/labml_nn/__init__.py" target="_blank">
View code on Github</a>
</p>
</div>
</div>
<div class='section' id='section-0'>
<div class='docs doc-strings'>
<div class='section-link'>
<a href='#section-0'>#</a>
</div>
<h1><a href="index.html">labml.ai アノテーション付き PyTorch ペーパー実装</a></h1>
<p>これは、ニューラルネットワークと関連アルゴリズムの単純な PyTorch 実装のコレクションです。<a href="https://github.com/labmlai/annotated_deep_learning_paper_implementations">これらの実装は説明付きで文書化されており</a><a href="index.html">ウェブサイトではこれらを並べてフォーマットされたメモとして表示しています</a>。これらは、これらのアルゴリズムをよりよく理解するのに役立つと信じています。</p>
<p><img alt="Screenshot" src="dqn-light.png"></p>
<p>このリポジトリを積極的に管理し、新しい実装を追加しています。<a href="https://twitter.com/labmlai"><img alt="Twitter" src="https://img.shields.io/twitter/follow/labmlai?style=social"></a>更新用。</p>
<h2>翻訳</h2>
<h3><strong><a href="https://nn.labml.ai">英語 (原文)</a></strong></h3>
</a><h3><strong><a href="https://nn.labml.ai/zh/">中国語 (翻訳済み)</strong></h3>
</a><h3><strong><a href="https://nn.labml.ai/ja/">日本語 (翻訳済み)</strong></h3>
<h2>論文による実装</h2>
<h4><a href="transformers/index.html">トランスフォーマー</a></h4>
<ul><li><a href="transformers/mha.html">多面的な注意</a></li>
<li><a href="transformers/models.html">変圧器ビルディングブロック</a></li>
<li><a href="transformers/xl/index.html">トランスフォーマー XL</a></li>
<li><a href="transformers/xl/relative_mha.html">比較的多面的な注意</a></li>
<li><a href="transformers/rope/index.html">ロータリー・ポジショナル・エンベディング (RoPe)</a></li>
<li><a href="transformers/alibi/index.html">線形バイアスによる注意 (AliBi)</a></li>
<li><a href="transformers/retro/index.html">レトロ</a></li>
<li><a href="transformers/compressive/index.html">圧縮変圧器</a></li>
<li><a href="transformers/gpt/index.html">GPT アーキテクチャ</a></li>
<li><a href="transformers/glu_variants/simple.html">GLU バリアント</a></li>
<li><a href="transformers/knn/index.html">Knn-LM: 暗記による一般化</a></li>
<li><a href="transformers/feedback/index.html">フィードバック変圧器</a></li>
<li><a href="transformers/switch/index.html">スイッチトランス</a></li>
<li><a href="transformers/fast_weights/index.html">高速ウェイトトランス</a></li>
<li><a href="transformers/fnet/index.html">FNet</a></li>
<li><a href="transformers/aft/index.html">アテンションフリー変圧器</a></li>
<li><a href="transformers/mlm/index.html">マスク言語モデル</a></li>
<li><a href="transformers/mlp_mixer/index.html">MLPミキサー:ビジョン用のオールMLPアーキテクチャ</a></li>
<li><a href="transformers/gmlp/index.html">MLP (GMLP) にご注意ください</a></li>
<li><a href="transformers/vit/index.html">ビジョントランスフォーマー (ViT)</a></li>
<li><a href="transformers/primer_ez/index.html">プライマー EZ</a></li>
<li><a href="transformers/hour_glass/index.html">砂時計</a></li></ul>
<h4><a href="neox/index.html">エリューサーGPT-ネオックス</a></h4>
<ul><li><a href="neox/samples/generate.html">48 GB の GPU で生成</a></li>
<li><a href="neox/samples/finetune.html">2 つの 48 GB GPU で微調整可能</a></li>
<li><a href="neox/utils/llm_int8.html">llm.int8</a></li></ul>
<h4><a href="diffusion/index.html">拡散モデル</a></h4>
<ul><li><a href="diffusion/ddpm/index.html">ノイズ除去拡散確率モデル (DDPM)</a></li>
<li><a href="diffusion/stable_diffusion/sampler/ddim.html">ノイズ除去拡散暗黙モデル (DDIM)</a></li>
<li><a href="diffusion/stable_diffusion/latent_diffusion.html">潜在拡散モデル</a></li>
<li><a href="diffusion/stable_diffusion/index.html">安定拡散</a></li></ul>
<h4><a href="gan/index.html">ジェネレーティブ・アドバーサリアル・ネットワーク</a></h4>
<ul><li><a href="gan/original/index.html">オリジナルGAN</a></li>
<li><a href="gan/dcgan/index.html">深い畳み込みネットワークを備えたGAN</a></li>
<li><a href="gan/cycle_gan/index.html">サイクル GAN</a></li>
<li><a href="gan/wasserstein/index.html">ワッサースタイン GAN</a></li>
<li><a href="gan/wasserstein/gradient_penalty/index.html">グラデーションペナルティ付きワッサースタイン GAN</a></li>
<li><a href="gan/stylegan/index.html">スタイルガン 2</a></li></ul>
<h4><a href="recurrent_highway_networks/index.html">リカレントハイウェイネットワーク</a></h4>
<h4><a href="lstm/index.html">LSTM</a></h4>
<h4><a href="hypernetworks/hyper_lstm.html">ハイパーネットワーク-</a> HyperLSTM</h4>
<h4><a href="resnet/index.html">リズネット</a></h4>
<h4><a href="conv_mixer/index.html">コンバージョンミキサー</a></h4>
<h4><a href="capsule_networks/index.html">カプセルネットワーク</a></h4>
<h4><a href="unet/index.html">ユーネット</a></h4>
<h4><a href="sketch_rnn/index.html">スケッチ RNN</a></h4>
<h4>✨ グラフニューラルネットワーク</h4>
<ul><li><a href="graphs/gat/index.html">グラフ・アテンション・ネットワーク (GAT)</a></li>
</ul><li><a href="graphs/gatv2/index.html">グラフ・アテンション・ネットワークス v2 (GATv2)</a></li>
<h4><a href="rl/index.html">強化学習</a></h4>
<ul><li><a href="rl/ppo/index.html"><a href="rl/ppo/gae.html">一般化アドバンテージ推定による近位政策最適化</a></a></li>
</ul><li><a href="rl/dqn/index.html"><a href="rl/dqn/model.html">デュエルネットワーク、<a href="rl/dqn/replay_buffer.html">優先リプレイ</a>、ダブルQネットワークを備えたディープQネットワーク</a></a></li>
<h4><a href="cfr/index.html">反事実に基づく後悔最小化 (CFR)</a></h4>
<p>CFRでポーカーなどの情報が不完全なゲームを解決します。</p>
<ul><li><a href="cfr/kuhn/index.html">クーンポーカー</a></li></ul>
<h4><a href="optimizers/index.html">オプティマイザー</a></h4>
<ul><li><a href="optimizers/adam.html">アダム</a></li>
<li><a href="optimizers/amsgrad.html">マスグラード</a></li>
<li><a href="optimizers/adam_warmup.html">ウォームアップ機能付き Adam オプティマイザー</a></li>
<li><a href="optimizers/noam.html">ノームオプティマイザー</a></li>
<li><a href="optimizers/radam.html">レクティファイド・アダム・オプティマイザー</a></li>
<li><a href="optimizers/ada_belief.html">アダブリリーフオプティマイザー</a></li></ul>
<h4><a href="normalization/index.html">正規化レイヤー</a></h4>
<ul><li><a href="normalization/batch_norm/index.html">バッチ正規化</a></li>
<li><a href="normalization/layer_norm/index.html">レイヤー正規化</a></li>
<li><a href="normalization/instance_norm/index.html">インスタンス正規化</a></li>
<li><a href="normalization/group_norm/index.html">グループ正規化</a></li>
<li><a href="normalization/weight_standardization/index.html">重量標準化</a></li>
<li><a href="normalization/batch_channel_norm/index.html">バッチチャネル正規化</a></li>
</ul><li><a href="normalization/deep_norm/index.html">ディープ・ノーム</a></li>
<h4><a href="distillation/index.html">蒸留</a></h4>
<h4><a href="adaptive_computation/index.html">アダプティブコンピューティング</a></h4>
<ul><li><a href="adaptive_computation/ponder_net/index.html">ポンダーネット</a></li></ul>
<h4><a href="uncertainty/index.html">不確実性</a></h4>
<ul><li><a href="uncertainty/evidence/index.html">分類の不確実性を定量化するエビデンシャルディープラーニング</a></li></ul>
<h4><a href="activations/index.html">アクティベーション</a></h4>
<ul><li><a href="activations/fta/index.html">ファジータイリングアクティベーション</a></li></ul>
<h4><a href="sampling/index.html">言語モデルサンプリング手法</a></h4>
<ul><li><a href="sampling/greedy.html">欲張りサンプリング</a></li>
<li><a href="sampling/temperature.html">温度サンプリング</a></li>
<li><a href="sampling/top_k.html">トップkサンプリング</a></li>
<li><a href="sampling/nucleus.html">核サンプリング</a></li></ul>
<h4><a href="scaling/index.html">スケーラブルなトレーニング/推論</a></h4>
<ul><li><a href="scaling/zero3/index.html">Zero3 メモリ最適化</a></li></ul>
<h2>主な研究論文 PDF</h2>
<ul><li><a href="https://github.com/labmlai/annotated_deep_learning_paper_implementations/blob/master/papers/2204.10628.pdf">Autoregressive Search Engines: Generating Substrings as Document Identifiers</a> </li>
<li><a href="https://github.com/labmlai/annotated_deep_learning_paper_implementations/blob/master/papers/2203.15556.pdf">Training Compute-Optimal Large Language Models</a> </li>
<li><a href="https://github.com/labmlai/annotated_deep_learning_paper_implementations/blob/master/papers/1910.02054.pdf">ZeRO: Memory Optimizations Toward Training Trillion Parameter Models</a> </li>
<li><a href="https://github.com/labmlai/annotated_deep_learning_paper_implementations/blob/master/papers/2204.02311.pdf">PaLM: Scaling Language Modeling with Pathways</a> </li>
<li><a href="https://github.com/labmlai/annotated_deep_learning_paper_implementations/blob/master/papers/dall-e-2.pdf">Hierarchical Text-Conditional Image Generation with CLIP Latents</a> </li>
<li><a href="https://github.com/labmlai/annotated_deep_learning_paper_implementations/blob/master/papers/2203.14465.pdf">STaR: Self-Taught Reasoner Bootstrapping Reasoning With Reasoning</a> </li>
<li><a href="https://github.com/labmlai/annotated_deep_learning_paper_implementations/blob/master/papers/2112.04426.pdf">Improving language models by retrieving from trillions of tokens</a> </li>
<li><a href="https://github.com/labmlai/annotated_deep_learning_paper_implementations/blob/master/papers/2003.08934.pdf">NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis</a> </li>
<li><a href="https://github.com/labmlai/annotated_deep_learning_paper_implementations/blob/master/papers/1706.03762.pdf">Attention Is All You Need</a> </li>
<li><a href="https://github.com/labmlai/annotated_deep_learning_paper_implementations/blob/master/papers/2006.11239.pdf">Denoising Diffusion Probabilistic Models</a> </li>
<li><a href="https://github.com/labmlai/annotated_deep_learning_paper_implementations/blob/master/papers/2109.08668.pdf">Primer: Searching for Efficient Transformers for Language Modeling</a> </li>
<li><a href="https://github.com/labmlai/annotated_deep_learning_paper_implementations/blob/master/papers/1803.02999.pdf">On First-Order Meta-Learning Algorithms</a> </li>
<li><a href="https://github.com/labmlai/annotated_deep_learning_paper_implementations/blob/master/papers/2103.00020.pdf">Learning Transferable Visual Models From Natural Language Supervision</a> </li>
<li><a href="https://github.com/labmlai/annotated_deep_learning_paper_implementations/blob/master/papers/2109.02869.pdf">The Sensory Neuron as a Transformer: Permutation-Invariant Neural Networks for Reinforcement Learning</a> </li>
<li><a href="https://github.com/labmlai/annotated_deep_learning_paper_implementations/blob/master/papers/1805.09801.pdf">Meta-Gradient Reinforcement Learning</a> </li>
<li><a href="https://github.com/labmlai/annotated_deep_learning_paper_implementations/blob/master/papers/google_maps_eta.pdf">ETA Prediction with Graph Neural Networks in Google Maps</a> </li>
<li><a href="https://github.com/labmlai/annotated_deep_learning_paper_implementations/blob/master/papers/ponder_net.pdf">PonderNet: Learning to Ponder</a> </li>
<li><a href="https://github.com/labmlai/annotated_deep_learning_paper_implementations/blob/master/papers/muzero.pdf">Mastering Atari, Go, Chess and Shogi by Planning with a Learned Model</a> </li>
<li><a href="https://github.com/labmlai/annotated_deep_learning_paper_implementations/blob/master/papers/gans_n_roses.pdf">GANs N Roses: Stable, Controllable, Diverse Image to Image Translation (works for videos too!)</a> </li>
<li><a href="https://github.com/labmlai/annotated_deep_learning_paper_implementations/blob/master/papers/vit.pdf">An Image is Worth 16X16 Word: Transformers for Image Recognition at Scale</a> </li>
<li><a href="https://github.com/labmlai/annotated_deep_learning_paper_implementations/blob/master/papers/resnet.pdf">Deep Residual Learning for Image Recognition</a> </li>
<li><a href="https://github.com/labmlai/annotated_deep_learning_paper_implementations/blob/master/papers/distillation.pdf">Distilling the Knowledge in a Neural Network</a></li></ul>
<h3>インストール</h3>
<pre class="highlight lang-bash"><code><span></span>pip install labml-nn</code></pre>
<h3>LabML の引用</h3>
<p>学術研究に使用する場合は、以下のBibTeXエントリを使用して引用してください。</p>
<pre class="highlight lang-bibtex"><code><span></span><span class="nc">@misc</span><span class="p">{</span><span class="nl">labml</span><span class="p">,</span><span class="w"></span>
<span class="w"> </span><span class="na">author</span><span class="w"> </span><span class="p">=</span><span class="w"> </span><span class="s">{Varuna Jayasiri, Nipun Wijerathne}</span><span class="p">,</span><span class="w"></span>
<span class="w"> </span><span class="na">title</span><span class="w"> </span><span class="p">=</span><span class="w"> </span><span class="s">{labml.ai Annotated Paper Implementations}</span><span class="p">,</span><span class="w"></span>
<span class="w"> </span><span class="na">year</span><span class="w"> </span><span class="p">=</span><span class="w"> </span><span class="s">{2020}</span><span class="p">,</span><span class="w"></span>
<span class="w"> </span><span class="na">url</span><span class="w"> </span><span class="p">=</span><span class="w"> </span><span class="s">{}</span><span class="p">,</span><span class="w"></span>
<span class="p">}</span><span class="w"></span></code></pre>
</div>
<div class='code'>
<div class="highlight"><pre></pre></div>
</div>
</div>
<div class='footer'>
<a href="https://papers.labml.ai">Trending Research Papers</a>
<a href="https://labml.ai">labml.ai</a>
</div>
</div>
<script src=./interactive.js?v=1"></script>
<script>
function handleImages() {
var images = document.querySelectorAll('p>img')
for (var i = 0; i < images.length; ++i) {
handleImage(images[i])
}
}
function handleImage(img) {
img.parentElement.style.textAlign = 'center'
var modal = document.createElement('div')
modal.id = 'modal'
var modalContent = document.createElement('div')
modal.appendChild(modalContent)
var modalImage = document.createElement('img')
modalContent.appendChild(modalImage)
var span = document.createElement('span')
span.classList.add('close')
span.textContent = 'x'
modal.appendChild(span)
img.onclick = function () {
console.log('clicked')
document.body.appendChild(modal)
modalImage.src = img.src
}
span.onclick = function () {
document.body.removeChild(modal)
}
}
handleImages()
</script>
</body>
</html>