Buckets:
| import{s as Le,o as De,n as Ke}from"../chunks/scheduler.d586627e.js";import{S as Oe,i as el,g as i,s as n,r as u,A as ll,h as p,f as t,c as a,j as Pe,u as r,x as m,k as D,y as tl,a as s,v as c,d as y,t as f,w as d}from"../chunks/index.8589a59c.js";import{T as sl,C as h}from"../chunks/CodeBlock.627f23e9.js";import{H as _e,E as nl}from"../chunks/EditOnGithub.073dfa26.js";function al(K){let o,J='どのタスクがサポートされているかは、<a href="../api/pipelines/auto_pipeline">AutoPipeline</a> のリファレンスをご覧ください。現在、text-to-image、image-to-image、inpaintingをサポートしています。';return{c(){o=i("p"),o.innerHTML=J},l(M){o=p(M,"P",{"data-svelte-h":!0}),m(o)!=="svelte-1dp1np6"&&(o.innerHTML=J)},m(M,P){s(M,o,P)},p:Ke,d(M){M&&t(o)}}}function il(K){let o,J,M,P,j,O,w,ve='Diffusersは様々なタスクをこなすことができ、テキストから画像、画像から画像、画像の修復など、複数のタスクに対して同じように事前学習された重みを再利用することができます。しかし、ライブラリや拡散モデルに慣れていない場合、どのタスクにどのパイプラインを使えばいいのかがわかりにくいかもしれません。例えば、 <a href="https://huggingface.co/runwayml/stable-diffusion-v1-5" rel="nofollow">runwayml/stable-diffusion-v1-5</a> チェックポイントをテキストから画像に変換するために使用している場合、それぞれ<code>StableDiffusionImg2ImgPipeline</code>クラスと<code>StableDiffusionInpaintPipeline</code>クラスでチェックポイントをロードすることで、画像から画像や画像の修復にも使えることを知らない可能性もあります。',ee,W,Ie="<code>AutoPipeline</code> クラスは、🤗 Diffusers の様々なパイプラインをよりシンプルするために設計されています。この汎用的でタスク重視のパイプラインによってタスクそのものに集中することができます。<code>AutoPipeline</code> は、使用するべき正しいパイプラインクラスを自動的に検出するため、特定のパイプラインクラス名を知らなくても、タスクのチェックポイントを簡単にロードできます。",le,b,te,G,Re="このチュートリアルでは、<code>AutoPipeline</code> を使用して、事前に学習された重みが与えられたときに、特定のタスクを読み込むためのパイプラインクラスを自動的に推測する方法を示します。",se,T,ne,B,Xe='まずはチェックポイントを選ぶことから始めましょう。例えば、 <a href="https://huggingface.co/runwayml/stable-diffusion-v1-5" rel="nofollow">runwayml/stable-diffusion-v1-5</a> チェックポイントでテキストから画像への変換したいなら、<code>AutoPipelineForText2Image</code>を使います:',ae,V,ie,g,Ce='<img src="https://huggingface.co/datasets/huggingface/documentation-images/resolve/main/diffusers/autopipeline-text2img.png" alt="generated image of peasant fighting dragon in wood cutting style"/>',pe,_,$e="<code>AutoPipelineForText2Image</code> を具体的に見ていきましょう:",me,v,Fe='<li><a href="https://huggingface.co/runwayml/stable-diffusion-v1-5/blob/main/model_index.json" rel="nofollow"><code>model_index.json</code></a> ファイルから <code>"stable-diffusion"</code> クラスを自動的に検出します。</li> <li><code>"stable-diffusion"</code> のクラス名に基づいて、テキストから画像へ変換する <code>StableDiffusionPipeline</code> を読み込みます。</li>',oe,I,ke="同様に、画像から画像へ変換する場合、<code>AutoPipelineForImage2Image</code> は <code>model_index.json</code> ファイルから <code>"stable-diffusion"</code> チェックポイントを検出し、対応する <code>StableDiffusionImg2ImgPipeline</code> を読み込みます。また、入力画像にノイズの量やバリエーションの追加を決めるための強さなど、パイプラインクラスに固有の追加引数を渡すこともできます:",ue,R,re,Z,xe='<img src="https://huggingface.co/datasets/huggingface/documentation-images/resolve/main/diffusers/autopipeline-img2img.png" alt="generated image of a vermeer portrait of a dog wearing a pearl earring"/>',ce,X,Se="また、画像の修復を行いたい場合は、 <code>AutoPipelineForInpainting</code> が、同様にベースとなる<code>StableDiffusionInpaintPipeline</code>クラスを読み込みます:",ye,C,fe,U,Ee='<img src="https://huggingface.co/datasets/huggingface/documentation-images/resolve/main/diffusers/autopipeline-inpaint.png" alt="generated image of a tiger sitting on a bench"/>',de,$,He="サポートされていないチェックポイントを読み込もうとすると、エラーになります:",Me,F,be,k,ge,x,Ye='いくつかのワークフローや多くのパイプラインを読み込む場合、不要なメモリを使ってしまう再読み込みをするよりも、チェックポイントから同じコンポーネントを再利用する方がメモリ効率が良いです。たとえば、テキストから画像への変換にチェックポイントを使い、画像から画像への変換にまたチェックポイントを使いたい場合、<a href="https://huggingface.co/docs/diffusers/v0.25.1/en/api/pipelines/auto_pipeline#diffusers.AutoPipelineForImage2Image.from_pipe" rel="nofollow">from_pipe()</a> メソッドを使用します。このメソッドは、以前読み込まれたパイプラインのコンポーネントを使うことで追加のメモリを消費することなく、新しいパイプラインを作成します。',Ze,S,Qe='<a href="https://huggingface.co/docs/diffusers/v0.25.1/en/api/pipelines/auto_pipeline#diffusers.AutoPipelineForImage2Image.from_pipe" rel="nofollow">from_pipe()</a> メソッドは、元のパイプラインクラスを検出し、実行したいタスクに対応する新しいパイプラインクラスにマッピングします。例えば、テキストから画像への<code>"stable-diffusion"</code> クラスのパイプラインを読み込む場合:',Ue,E,he,H,ze='そして、[from_pipe()] (<a href="https://huggingface.co/docs/diffusers/v0.25.1/en/api/pipelines/auto_pipeline#diffusers.AutoPipelineForImage2Image.from_pipe)%E3%81%AF%E3%80%81%E3%82%82%E3%81%A8%E3%81%AE%60%22stable-diffusion%22%60" rel="nofollow">https://huggingface.co/docs/diffusers/v0.25.1/en/api/pipelines/auto_pipeline#diffusers.AutoPipelineForImage2Image.from_pipe)は、もとの`“stable-diffusion”`</a> パイプラインのクラスである <code>StableDiffusionImg2ImgPipeline</code> にマップします:',Je,Y,je,Q,Ne="元のパイプラインにオプションとして引数(セーフティチェッカーの無効化など)を渡した場合、この引数も新しいパイプラインに渡されます:",we,z,We,N,Ae="新しいパイプラインの動作を変更したい場合は、元のパイプラインの引数や設定を上書きすることができます。例えば、セーフティチェッカーをオンに戻し、<code>strength</code> 引数を追加します:",Ge,A,Te,q,Be,L,Ve;return j=new _e({props:{title:"AutoPipeline",local:"autopipeline",headingTag:"h1"}}),b=new sl({props:{$$slots:{default:[al]},$$scope:{ctx:K}}}),T=new _e({props:{title:"タスクに合わせてAutoPipeline を選択する",local:"タスクに合わせてautopipeline-を選択する",headingTag:"h2"}}),V=new h({props:{code:"ZnJvbSUyMGRpZmZ1c2VycyUyMGltcG9ydCUyMEF1dG9QaXBlbGluZUZvclRleHQySW1hZ2UlMEFpbXBvcnQlMjB0b3JjaCUwQSUwQXBpcGVsaW5lJTIwJTNEJTIwQXV0b1BpcGVsaW5lRm9yVGV4dDJJbWFnZS5mcm9tX3ByZXRyYWluZWQoJTBBJTIwJTIwJTIwJTIwJTIycnVud2F5bWwlMkZzdGFibGUtZGlmZnVzaW9uLXYxLTUlMjIlMkMlMjB0b3JjaF9kdHlwZSUzRHRvcmNoLmZsb2F0MTYlMkMlMjB1c2Vfc2FmZXRlbnNvcnMlM0RUcnVlJTBBKS50byglMjJjdWRhJTIyKSUwQXByb21wdCUyMCUzRCUyMCUyMnBlYXNhbnQlMjBhbmQlMjBkcmFnb24lMjBjb21iYXQlMkMlMjB3b29kJTIwY3V0dGluZyUyMHN0eWxlJTJDJTIwdmlraW5nJTIwZXJhJTJDJTIwYmV2ZWwlMjB3aXRoJTIwcnVuZSUyMiUwQSUwQWltYWdlJTIwJTNEJTIwcGlwZWxpbmUocHJvbXB0JTJDJTIwbnVtX2luZmVyZW5jZV9zdGVwcyUzRDI1KS5pbWFnZXMlNUIwJTVEJTBBaW1hZ2U=",highlighted:`<span class="hljs-keyword">from</span> diffusers <span class="hljs-keyword">import</span> AutoPipelineForText2Image | |
| <span class="hljs-keyword">import</span> torch | |
| pipeline = AutoPipelineForText2Image.from_pretrained( | |
| <span class="hljs-string">"runwayml/stable-diffusion-v1-5"</span>, torch_dtype=torch.float16, use_safetensors=<span class="hljs-literal">True</span> | |
| ).to(<span class="hljs-string">"cuda"</span>) | |
| prompt = <span class="hljs-string">"peasant and dragon combat, wood cutting style, viking era, bevel with rune"</span> | |
| image = pipeline(prompt, num_inference_steps=<span class="hljs-number">25</span>).images[<span class="hljs-number">0</span>] | |
| image`,wrap:!1}}),R=new h({props:{code:"ZnJvbSUyMGRpZmZ1c2VycyUyMGltcG9ydCUyMEF1dG9QaXBlbGluZUZvckltYWdlMkltYWdlJTBBaW1wb3J0JTIwdG9yY2glMEFpbXBvcnQlMjByZXF1ZXN0cyUwQWZyb20lMjBQSUwlMjBpbXBvcnQlMjBJbWFnZSUwQWZyb20lMjBpbyUyMGltcG9ydCUyMEJ5dGVzSU8lMEElMEFwaXBlbGluZSUyMCUzRCUyMEF1dG9QaXBlbGluZUZvckltYWdlMkltYWdlLmZyb21fcHJldHJhaW5lZCglMEElMjAlMjAlMjAlMjAlMjJydW53YXltbCUyRnN0YWJsZS1kaWZmdXNpb24tdjEtNSUyMiUyQyUwQSUyMCUyMCUyMCUyMHRvcmNoX2R0eXBlJTNEdG9yY2guZmxvYXQxNiUyQyUwQSUyMCUyMCUyMCUyMHVzZV9zYWZldGVuc29ycyUzRFRydWUlMkMlMEEpLnRvKCUyMmN1ZGElMjIpJTBBcHJvbXB0JTIwJTNEJTIwJTIyYSUyMHBvcnRyYWl0JTIwb2YlMjBhJTIwZG9nJTIwd2VhcmluZyUyMGElMjBwZWFybCUyMGVhcnJpbmclMjIlMEElMEF1cmwlMjAlM0QlMjAlMjJodHRwcyUzQSUyRiUyRnVwbG9hZC53aWtpbWVkaWEub3JnJTJGd2lraXBlZGlhJTJGY29tbW9ucyUyRnRodW1iJTJGMCUyRjBmJTJGMTY2NV9HaXJsX3dpdGhfYV9QZWFybF9FYXJyaW5nLmpwZyUyRjgwMHB4LTE2NjVfR2lybF93aXRoX2FfUGVhcmxfRWFycmluZy5qcGclMjIlMEElMEFyZXNwb25zZSUyMCUzRCUyMHJlcXVlc3RzLmdldCh1cmwpJTBBaW1hZ2UlMjAlM0QlMjBJbWFnZS5vcGVuKEJ5dGVzSU8ocmVzcG9uc2UuY29udGVudCkpLmNvbnZlcnQoJTIyUkdCJTIyKSUwQWltYWdlLnRodW1ibmFpbCgoNzY4JTJDJTIwNzY4KSklMEElMEFpbWFnZSUyMCUzRCUyMHBpcGVsaW5lKHByb21wdCUyQyUyMGltYWdlJTJDJTIwbnVtX2luZmVyZW5jZV9zdGVwcyUzRDIwMCUyQyUyMHN0cmVuZ3RoJTNEMC43NSUyQyUyMGd1aWRhbmNlX3NjYWxlJTNEMTAuNSkuaW1hZ2VzJTVCMCU1RCUwQWltYWdl",highlighted:`<span class="hljs-keyword">from</span> diffusers <span class="hljs-keyword">import</span> AutoPipelineForImage2Image | |
| <span class="hljs-keyword">import</span> torch | |
| <span class="hljs-keyword">import</span> requests | |
| <span class="hljs-keyword">from</span> PIL <span class="hljs-keyword">import</span> Image | |
| <span class="hljs-keyword">from</span> io <span class="hljs-keyword">import</span> BytesIO | |
| pipeline = AutoPipelineForImage2Image.from_pretrained( | |
| <span class="hljs-string">"runwayml/stable-diffusion-v1-5"</span>, | |
| torch_dtype=torch.float16, | |
| use_safetensors=<span class="hljs-literal">True</span>, | |
| ).to(<span class="hljs-string">"cuda"</span>) | |
| prompt = <span class="hljs-string">"a portrait of a dog wearing a pearl earring"</span> | |
| url = <span class="hljs-string">"https://upload.wikimedia.org/wikipedia/commons/thumb/0/0f/1665_Girl_with_a_Pearl_Earring.jpg/800px-1665_Girl_with_a_Pearl_Earring.jpg"</span> | |
| response = requests.get(url) | |
| image = Image.<span class="hljs-built_in">open</span>(BytesIO(response.content)).convert(<span class="hljs-string">"RGB"</span>) | |
| image.thumbnail((<span class="hljs-number">768</span>, <span class="hljs-number">768</span>)) | |
| image = pipeline(prompt, image, num_inference_steps=<span class="hljs-number">200</span>, strength=<span class="hljs-number">0.75</span>, guidance_scale=<span class="hljs-number">10.5</span>).images[<span class="hljs-number">0</span>] | |
| image`,wrap:!1}}),C=new h({props:{code:"ZnJvbSUyMGRpZmZ1c2VycyUyMGltcG9ydCUyMEF1dG9QaXBlbGluZUZvcklucGFpbnRpbmclMEFmcm9tJTIwZGlmZnVzZXJzLnV0aWxzJTIwaW1wb3J0JTIwbG9hZF9pbWFnZSUwQWltcG9ydCUyMHRvcmNoJTBBJTBBcGlwZWxpbmUlMjAlM0QlMjBBdXRvUGlwZWxpbmVGb3JJbnBhaW50aW5nLmZyb21fcHJldHJhaW5lZCglMEElMjAlMjAlMjAlMjAlMjJzdGFiaWxpdHlhaSUyRnN0YWJsZS1kaWZmdXNpb24teGwtYmFzZS0xLjAlMjIlMkMlMjB0b3JjaF9kdHlwZSUzRHRvcmNoLmZsb2F0MTYlMkMlMjB1c2Vfc2FmZXRlbnNvcnMlM0RUcnVlJTBBKS50byglMjJjdWRhJTIyKSUwQSUwQWltZ191cmwlMjAlM0QlMjAlMjJodHRwcyUzQSUyRiUyRnJhdy5naXRodWJ1c2VyY29udGVudC5jb20lMkZDb21wVmlzJTJGbGF0ZW50LWRpZmZ1c2lvbiUyRm1haW4lMkZkYXRhJTJGaW5wYWludGluZ19leGFtcGxlcyUyRm92ZXJ0dXJlLWNyZWF0aW9ucy01c0k2ZlFnWUl1by5wbmclMjIlMEFtYXNrX3VybCUyMCUzRCUyMCUyMmh0dHBzJTNBJTJGJTJGcmF3LmdpdGh1YnVzZXJjb250ZW50LmNvbSUyRkNvbXBWaXMlMkZsYXRlbnQtZGlmZnVzaW9uJTJGbWFpbiUyRmRhdGElMkZpbnBhaW50aW5nX2V4YW1wbGVzJTJGb3ZlcnR1cmUtY3JlYXRpb25zLTVzSTZmUWdZSXVvX21hc2sucG5nJTIyJTBBJTBBaW5pdF9pbWFnZSUyMCUzRCUyMGxvYWRfaW1hZ2UoaW1nX3VybCkuY29udmVydCglMjJSR0IlMjIpJTBBbWFza19pbWFnZSUyMCUzRCUyMGxvYWRfaW1hZ2UobWFza191cmwpLmNvbnZlcnQoJTIyUkdCJTIyKSUwQSUwQXByb21wdCUyMCUzRCUyMCUyMkElMjBtYWplc3RpYyUyMHRpZ2VyJTIwc2l0dGluZyUyMG9uJTIwYSUyMGJlbmNoJTIyJTBBaW1hZ2UlMjAlM0QlMjBwaXBlbGluZShwcm9tcHQlMkMlMjBpbWFnZSUzRGluaXRfaW1hZ2UlMkMlMjBtYXNrX2ltYWdlJTNEbWFza19pbWFnZSUyQyUyMG51bV9pbmZlcmVuY2Vfc3RlcHMlM0Q1MCUyQyUyMHN0cmVuZ3RoJTNEMC44MCkuaW1hZ2VzJTVCMCU1RCUwQWltYWdl",highlighted:`<span class="hljs-keyword">from</span> diffusers <span class="hljs-keyword">import</span> AutoPipelineForInpainting | |
| <span class="hljs-keyword">from</span> diffusers.utils <span class="hljs-keyword">import</span> load_image | |
| <span class="hljs-keyword">import</span> torch | |
| pipeline = AutoPipelineForInpainting.from_pretrained( | |
| <span class="hljs-string">"stabilityai/stable-diffusion-xl-base-1.0"</span>, torch_dtype=torch.float16, use_safetensors=<span class="hljs-literal">True</span> | |
| ).to(<span class="hljs-string">"cuda"</span>) | |
| img_url = <span class="hljs-string">"https://raw.githubusercontent.com/CompVis/latent-diffusion/main/data/inpainting_examples/overture-creations-5sI6fQgYIuo.png"</span> | |
| mask_url = <span class="hljs-string">"https://raw.githubusercontent.com/CompVis/latent-diffusion/main/data/inpainting_examples/overture-creations-5sI6fQgYIuo_mask.png"</span> | |
| init_image = load_image(img_url).convert(<span class="hljs-string">"RGB"</span>) | |
| mask_image = load_image(mask_url).convert(<span class="hljs-string">"RGB"</span>) | |
| prompt = <span class="hljs-string">"A majestic tiger sitting on a bench"</span> | |
| image = pipeline(prompt, image=init_image, mask_image=mask_image, num_inference_steps=<span class="hljs-number">50</span>, strength=<span class="hljs-number">0.80</span>).images[<span class="hljs-number">0</span>] | |
| image`,wrap:!1}}),F=new h({props:{code:"ZnJvbSUyMGRpZmZ1c2VycyUyMGltcG9ydCUyMEF1dG9QaXBlbGluZUZvckltYWdlMkltYWdlJTBBaW1wb3J0JTIwdG9yY2glMEElMEFwaXBlbGluZSUyMCUzRCUyMEF1dG9QaXBlbGluZUZvckltYWdlMkltYWdlLmZyb21fcHJldHJhaW5lZCglMEElMjAlMjAlMjAlMjAlMjJvcGVuYWklMkZzaGFwLWUtaW1nMmltZyUyMiUyQyUyMHRvcmNoX2R0eXBlJTNEdG9yY2guZmxvYXQxNiUyQyUyMHVzZV9zYWZldGVuc29ycyUzRFRydWUlMEEpJTBBJTIyVmFsdWVFcnJvciUzQSUyMEF1dG9QaXBlbGluZSUyMGNhbid0JTIwZmluZCUyMGElMjBwaXBlbGluZSUyMGxpbmtlZCUyMHRvJTIwU2hhcEVJbWcySW1nUGlwZWxpbmUlMjBmb3IlMjBOb25lJTIy",highlighted:`<span class="hljs-keyword">from</span> diffusers <span class="hljs-keyword">import</span> AutoPipelineForImage2Image | |
| <span class="hljs-keyword">import</span> torch | |
| pipeline = AutoPipelineForImage2Image.from_pretrained( | |
| <span class="hljs-string">"openai/shap-e-img2img"</span>, torch_dtype=torch.float16, use_safetensors=<span class="hljs-literal">True</span> | |
| ) | |
| <span class="hljs-string">"ValueError: AutoPipeline can't find a pipeline linked to ShapEImg2ImgPipeline for None"</span>`,wrap:!1}}),k=new _e({props:{title:"複数のパイプラインを使用する",local:"複数のパイプラインを使用する",headingTag:"h2"}}),E=new h({props:{code:"ZnJvbSUyMGRpZmZ1c2VycyUyMGltcG9ydCUyMEF1dG9QaXBlbGluZUZvclRleHQySW1hZ2UlMkMlMjBBdXRvUGlwZWxpbmVGb3JJbWFnZTJJbWFnZSUwQWltcG9ydCUyMHRvcmNoJTBBJTBBcGlwZWxpbmVfdGV4dDJpbWclMjAlM0QlMjBBdXRvUGlwZWxpbmVGb3JUZXh0MkltYWdlLmZyb21fcHJldHJhaW5lZCglMEElMjAlMjAlMjAlMjAlMjJydW53YXltbCUyRnN0YWJsZS1kaWZmdXNpb24tdjEtNSUyMiUyQyUyMHRvcmNoX2R0eXBlJTNEdG9yY2guZmxvYXQxNiUyQyUyMHVzZV9zYWZldGVuc29ycyUzRFRydWUlMEEpJTBBcHJpbnQodHlwZShwaXBlbGluZV90ZXh0MmltZykpJTBBJTIyJTNDY2xhc3MlMjAnZGlmZnVzZXJzLnBpcGVsaW5lcy5zdGFibGVfZGlmZnVzaW9uLnBpcGVsaW5lX3N0YWJsZV9kaWZmdXNpb24uU3RhYmxlRGlmZnVzaW9uUGlwZWxpbmUnJTNFJTIy",highlighted:`<span class="hljs-keyword">from</span> diffusers <span class="hljs-keyword">import</span> AutoPipelineForText2Image, AutoPipelineForImage2Image | |
| <span class="hljs-keyword">import</span> torch | |
| pipeline_text2img = AutoPipelineForText2Image.from_pretrained( | |
| <span class="hljs-string">"runwayml/stable-diffusion-v1-5"</span>, torch_dtype=torch.float16, use_safetensors=<span class="hljs-literal">True</span> | |
| ) | |
| <span class="hljs-built_in">print</span>(<span class="hljs-built_in">type</span>(pipeline_text2img)) | |
| <span class="hljs-string">"<class 'diffusers.pipelines.stable_diffusion.pipeline_stable_diffusion.StableDiffusionPipeline'>"</span>`,wrap:!1}}),Y=new h({props:{code:"cGlwZWxpbmVfaW1nMmltZyUyMCUzRCUyMEF1dG9QaXBlbGluZUZvckltYWdlMkltYWdlLmZyb21fcGlwZShwaXBlbGluZV90ZXh0MmltZyklMEFwcmludCh0eXBlKHBpcGVsaW5lX2ltZzJpbWcpKSUwQSUyMiUzQ2NsYXNzJTIwJ2RpZmZ1c2Vycy5waXBlbGluZXMuc3RhYmxlX2RpZmZ1c2lvbi5waXBlbGluZV9zdGFibGVfZGlmZnVzaW9uX2ltZzJpbWcuU3RhYmxlRGlmZnVzaW9uSW1nMkltZ1BpcGVsaW5lJyUzRSUyMg==",highlighted:`pipeline_img2img = AutoPipelineForImage2Image.from_pipe(pipeline_text2img) | |
| <span class="hljs-built_in">print</span>(<span class="hljs-built_in">type</span>(pipeline_img2img)) | |
| <span class="hljs-string">"<class 'diffusers.pipelines.stable_diffusion.pipeline_stable_diffusion_img2img.StableDiffusionImg2ImgPipeline'>"</span>`,wrap:!1}}),z=new h({props:{code:"ZnJvbSUyMGRpZmZ1c2VycyUyMGltcG9ydCUyMEF1dG9QaXBlbGluZUZvclRleHQySW1hZ2UlMkMlMjBBdXRvUGlwZWxpbmVGb3JJbWFnZTJJbWFnZSUwQWltcG9ydCUyMHRvcmNoJTBBJTBBcGlwZWxpbmVfdGV4dDJpbWclMjAlM0QlMjBBdXRvUGlwZWxpbmVGb3JUZXh0MkltYWdlLmZyb21fcHJldHJhaW5lZCglMEElMjAlMjAlMjAlMjAlMjJydW53YXltbCUyRnN0YWJsZS1kaWZmdXNpb24tdjEtNSUyMiUyQyUwQSUyMCUyMCUyMCUyMHRvcmNoX2R0eXBlJTNEdG9yY2guZmxvYXQxNiUyQyUwQSUyMCUyMCUyMCUyMHVzZV9zYWZldGVuc29ycyUzRFRydWUlMkMlMEElMjAlMjAlMjAlMjByZXF1aXJlc19zYWZldHlfY2hlY2tlciUzREZhbHNlJTJDJTBBKS50byglMjJjdWRhJTIyKSUwQSUwQXBpcGVsaW5lX2ltZzJpbWclMjAlM0QlMjBBdXRvUGlwZWxpbmVGb3JJbWFnZTJJbWFnZS5mcm9tX3BpcGUocGlwZWxpbmVfdGV4dDJpbWcpJTBBcHJpbnQocGlwZWxpbmVfaW1nMmltZy5jb25maWcucmVxdWlyZXNfc2FmZXR5X2NoZWNrZXIpJTBBJTIyRmFsc2UlMjI=",highlighted:`<span class="hljs-keyword">from</span> diffusers <span class="hljs-keyword">import</span> AutoPipelineForText2Image, AutoPipelineForImage2Image | |
| <span class="hljs-keyword">import</span> torch | |
| pipeline_text2img = AutoPipelineForText2Image.from_pretrained( | |
| <span class="hljs-string">"runwayml/stable-diffusion-v1-5"</span>, | |
| torch_dtype=torch.float16, | |
| use_safetensors=<span class="hljs-literal">True</span>, | |
| requires_safety_checker=<span class="hljs-literal">False</span>, | |
| ).to(<span class="hljs-string">"cuda"</span>) | |
| pipeline_img2img = AutoPipelineForImage2Image.from_pipe(pipeline_text2img) | |
| <span class="hljs-built_in">print</span>(pipeline_img2img.config.requires_safety_checker) | |
| <span class="hljs-string">"False"</span>`,wrap:!1}}),A=new h({props:{code:"cGlwZWxpbmVfaW1nMmltZyUyMCUzRCUyMEF1dG9QaXBlbGluZUZvckltYWdlMkltYWdlLmZyb21fcGlwZShwaXBlbGluZV90ZXh0MmltZyUyQyUyMHJlcXVpcmVzX3NhZmV0eV9jaGVja2VyJTNEVHJ1ZSUyQyUyMHN0cmVuZ3RoJTNEMC4zKSUwQXByaW50KHBpcGVsaW5lX2ltZzJpbWcuY29uZmlnLnJlcXVpcmVzX3NhZmV0eV9jaGVja2VyKSUwQSUyMlRydWUlMjI=",highlighted:`pipeline_img2img = AutoPipelineForImage2Image.from_pipe(pipeline_text2img, requires_safety_checker=<span class="hljs-literal">True</span>, strength=<span class="hljs-number">0.3</span>) | |
| <span class="hljs-built_in">print</span>(pipeline_img2img.config.requires_safety_checker) | |
| <span class="hljs-string">"True"</span>`,wrap:!1}}),q=new nl({props:{source:"https://github.com/huggingface/diffusers/blob/main/docs/source/ja/tutorials/autopipeline.md"}}),{c(){o=i("meta"),J=n(),M=i("p"),P=n(),u(j.$$.fragment),O=n(),w=i("p"),w.innerHTML=ve,ee=n(),W=i("p"),W.innerHTML=Ie,le=n(),u(b.$$.fragment),te=n(),G=i("p"),G.innerHTML=Re,se=n(),u(T.$$.fragment),ne=n(),B=i("p"),B.innerHTML=Xe,ae=n(),u(V.$$.fragment),ie=n(),g=i("div"),g.innerHTML=Ce,pe=n(),_=i("p"),_.innerHTML=$e,me=n(),v=i("ol"),v.innerHTML=Fe,oe=n(),I=i("p"),I.innerHTML=ke,ue=n(),u(R.$$.fragment),re=n(),Z=i("div"),Z.innerHTML=xe,ce=n(),X=i("p"),X.innerHTML=Se,ye=n(),u(C.$$.fragment),fe=n(),U=i("div"),U.innerHTML=Ee,de=n(),$=i("p"),$.textContent=He,Me=n(),u(F.$$.fragment),be=n(),u(k.$$.fragment),ge=n(),x=i("p"),x.innerHTML=Ye,Ze=n(),S=i("p"),S.innerHTML=Qe,Ue=n(),u(E.$$.fragment),he=n(),H=i("p"),H.innerHTML=ze,Je=n(),u(Y.$$.fragment),je=n(),Q=i("p"),Q.textContent=Ne,we=n(),u(z.$$.fragment),We=n(),N=i("p"),N.innerHTML=Ae,Ge=n(),u(A.$$.fragment),Te=n(),u(q.$$.fragment),Be=n(),L=i("p"),this.h()},l(e){const l=ll("svelte-u9bgzb",document.head);o=p(l,"META",{name:!0,content:!0}),l.forEach(t),J=a(e),M=p(e,"P",{}),Pe(M).forEach(t),P=a(e),r(j.$$.fragment,e),O=a(e),w=p(e,"P",{"data-svelte-h":!0}),m(w)!=="svelte-kcfjtt"&&(w.innerHTML=ve),ee=a(e),W=p(e,"P",{"data-svelte-h":!0}),m(W)!=="svelte-bhmuwk"&&(W.innerHTML=Ie),le=a(e),r(b.$$.fragment,e),te=a(e),G=p(e,"P",{"data-svelte-h":!0}),m(G)!=="svelte-fxxxlv"&&(G.innerHTML=Re),se=a(e),r(T.$$.fragment,e),ne=a(e),B=p(e,"P",{"data-svelte-h":!0}),m(B)!=="svelte-17vhb9v"&&(B.innerHTML=Xe),ae=a(e),r(V.$$.fragment,e),ie=a(e),g=p(e,"DIV",{class:!0,"data-svelte-h":!0}),m(g)!=="svelte-1yzwly4"&&(g.innerHTML=Ce),pe=a(e),_=p(e,"P",{"data-svelte-h":!0}),m(_)!=="svelte-bx1qu8"&&(_.innerHTML=$e),me=a(e),v=p(e,"OL",{"data-svelte-h":!0}),m(v)!=="svelte-1cyscr8"&&(v.innerHTML=Fe),oe=a(e),I=p(e,"P",{"data-svelte-h":!0}),m(I)!=="svelte-1tv7o7j"&&(I.innerHTML=ke),ue=a(e),r(R.$$.fragment,e),re=a(e),Z=p(e,"DIV",{class:!0,"data-svelte-h":!0}),m(Z)!=="svelte-9fi2fw"&&(Z.innerHTML=xe),ce=a(e),X=p(e,"P",{"data-svelte-h":!0}),m(X)!=="svelte-1a50jb8"&&(X.innerHTML=Se),ye=a(e),r(C.$$.fragment,e),fe=a(e),U=p(e,"DIV",{class:!0,"data-svelte-h":!0}),m(U)!=="svelte-1id5o5z"&&(U.innerHTML=Ee),de=a(e),$=p(e,"P",{"data-svelte-h":!0}),m($)!=="svelte-1iuzdt9"&&($.textContent=He),Me=a(e),r(F.$$.fragment,e),be=a(e),r(k.$$.fragment,e),ge=a(e),x=p(e,"P",{"data-svelte-h":!0}),m(x)!=="svelte-q2xv6p"&&(x.innerHTML=Ye),Ze=a(e),S=p(e,"P",{"data-svelte-h":!0}),m(S)!=="svelte-mczuk5"&&(S.innerHTML=Qe),Ue=a(e),r(E.$$.fragment,e),he=a(e),H=p(e,"P",{"data-svelte-h":!0}),m(H)!=="svelte-5m0bbd"&&(H.innerHTML=ze),Je=a(e),r(Y.$$.fragment,e),je=a(e),Q=p(e,"P",{"data-svelte-h":!0}),m(Q)!=="svelte-1m19tqu"&&(Q.textContent=Ne),we=a(e),r(z.$$.fragment,e),We=a(e),N=p(e,"P",{"data-svelte-h":!0}),m(N)!=="svelte-1vu2fjh"&&(N.innerHTML=Ae),Ge=a(e),r(A.$$.fragment,e),Te=a(e),r(q.$$.fragment,e),Be=a(e),L=p(e,"P",{}),Pe(L).forEach(t),this.h()},h(){D(o,"name","hf:doc:metadata"),D(o,"content",pl),D(g,"class","flex justify-center"),D(Z,"class","flex justify-center"),D(U,"class","flex justify-center")},m(e,l){tl(document.head,o),s(e,J,l),s(e,M,l),s(e,P,l),c(j,e,l),s(e,O,l),s(e,w,l),s(e,ee,l),s(e,W,l),s(e,le,l),c(b,e,l),s(e,te,l),s(e,G,l),s(e,se,l),c(T,e,l),s(e,ne,l),s(e,B,l),s(e,ae,l),c(V,e,l),s(e,ie,l),s(e,g,l),s(e,pe,l),s(e,_,l),s(e,me,l),s(e,v,l),s(e,oe,l),s(e,I,l),s(e,ue,l),c(R,e,l),s(e,re,l),s(e,Z,l),s(e,ce,l),s(e,X,l),s(e,ye,l),c(C,e,l),s(e,fe,l),s(e,U,l),s(e,de,l),s(e,$,l),s(e,Me,l),c(F,e,l),s(e,be,l),c(k,e,l),s(e,ge,l),s(e,x,l),s(e,Ze,l),s(e,S,l),s(e,Ue,l),c(E,e,l),s(e,he,l),s(e,H,l),s(e,Je,l),c(Y,e,l),s(e,je,l),s(e,Q,l),s(e,we,l),c(z,e,l),s(e,We,l),s(e,N,l),s(e,Ge,l),c(A,e,l),s(e,Te,l),c(q,e,l),s(e,Be,l),s(e,L,l),Ve=!0},p(e,[l]){const qe={};l&2&&(qe.$$scope={dirty:l,ctx:e}),b.$set(qe)},i(e){Ve||(y(j.$$.fragment,e),y(b.$$.fragment,e),y(T.$$.fragment,e),y(V.$$.fragment,e),y(R.$$.fragment,e),y(C.$$.fragment,e),y(F.$$.fragment,e),y(k.$$.fragment,e),y(E.$$.fragment,e),y(Y.$$.fragment,e),y(z.$$.fragment,e),y(A.$$.fragment,e),y(q.$$.fragment,e),Ve=!0)},o(e){f(j.$$.fragment,e),f(b.$$.fragment,e),f(T.$$.fragment,e),f(V.$$.fragment,e),f(R.$$.fragment,e),f(C.$$.fragment,e),f(F.$$.fragment,e),f(k.$$.fragment,e),f(E.$$.fragment,e),f(Y.$$.fragment,e),f(z.$$.fragment,e),f(A.$$.fragment,e),f(q.$$.fragment,e),Ve=!1},d(e){e&&(t(J),t(M),t(P),t(O),t(w),t(ee),t(W),t(le),t(te),t(G),t(se),t(ne),t(B),t(ae),t(ie),t(g),t(pe),t(_),t(me),t(v),t(oe),t(I),t(ue),t(re),t(Z),t(ce),t(X),t(ye),t(fe),t(U),t(de),t($),t(Me),t(be),t(ge),t(x),t(Ze),t(S),t(Ue),t(he),t(H),t(Je),t(je),t(Q),t(we),t(We),t(N),t(Ge),t(Te),t(Be),t(L)),t(o),d(j,e),d(b,e),d(T,e),d(V,e),d(R,e),d(C,e),d(F,e),d(k,e),d(E,e),d(Y,e),d(z,e),d(A,e),d(q,e)}}}const pl='{"title":"AutoPipeline","local":"autopipeline","sections":[{"title":"タスクに合わせてAutoPipeline を選択する","local":"タスクに合わせてautopipeline-を選択する","sections":[],"depth":2},{"title":"複数のパイプラインを使用する","local":"複数のパイプラインを使用する","sections":[],"depth":2}],"depth":1}';function ml(K){return De(()=>{new URLSearchParams(window.location.search).get("fw")}),[]}class yl extends Oe{constructor(o){super(),el(this,o,ml,il,Le,{})}}export{yl as component}; | |
Xet Storage Details
- Size:
- 25.3 kB
- Xet hash:
- 344a968baab472cff9cd54d1f580538703b183ff004a5538f4a26af5e2490d6b
·
Xet efficiently stores files, intelligently splitting them into unique chunks and accelerating uploads and downloads. More info.