<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>AI共生 | Webサイトに必要なことと道具</title>
	<atom:link href="https://xn--ecka7j.biz/category/efficiency-vs-thought-ai-symbiosis/feed/" rel="self" type="application/rss+xml" />
	<link>https://xn--ecka7j.biz</link>
	<description>セキュリティ対策、最適化、ツール、工作</description>
	<lastBuildDate>Fri, 24 Apr 2026 11:16:51 +0000</lastBuildDate>
	<language>ja</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.4</generator>

<image>
	<url>https://xn--ecka7j.biz/wp-content/uploads/2020/02/cropped-ogt-512-512-024-068-32x32.png</url>
	<title>AI共生 | Webサイトに必要なことと道具</title>
	<link>https://xn--ecka7j.biz</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>&#x1f310;ローカルLLMをGUIからCLIへ：UbuntuでPDF自動翻訳バッチを運用するための考え方</title>
		<link>https://xn--ecka7j.biz/efficiency-vs-thought-ai-symbiosis/13954/</link>
		
		<dc:creator><![CDATA[Jun-N]]></dc:creator>
		<pubDate>Fri, 17 Apr 2026 06:33:41 +0000</pubDate>
				<category><![CDATA[AI共生]]></category>
		<category><![CDATA[AI Tool]]></category>
		<category><![CDATA[AIとの共生]]></category>
		<category><![CDATA[道具]]></category>
		<guid isPermaLink="false">https://xn--ecka7j.biz/?p=13954</guid>

					<description><![CDATA[Ubuntu と CLI で始めるローカルLLM運用 生成AIをただ「使う」だけなら、GUIツールでも十分かもしれない。 しかし、PDFマニュアルの大量処理や翻訳禁止語の制御、DeepSeek-R1による長文推論を安定し [&#8230;]]]></description>
										<content:encoded><![CDATA[
<p>Ubuntu と CLI で始めるローカルLLM運用</p>



<p>生成AIをただ「使う」だけなら、GUIツールでも十分かもしれない。</p>



<p>しかし、PDFマニュアルの大量処理や翻訳禁止語の制御、<span class="bold">DeepSeek-R1</span>による長文推論を安定して回し続けたいと思ったとき、私は「どう運用するか」という視点の重要さに気づいた。</p>



<p>そこで選んだのが、Ubuntu（WSL2<strong><sup><span class="bold-red">※</span></sup></strong>）上でのコマンドライン運用だ。</p>



<p>一見すると手間が増えるように見えるCLI環境だが、ジョブキュー的なバッチ処理や、ツール同士を組み合わせる柔軟さは、AIと人間が共に動くための「運用の自由度」をもたらしてくれる。</p>



<p>この章では、LM Studio中心のGUI利用から一歩踏み出し、Ubuntu＋CLIでローカルLLMを運用するという発想にどうたどり着いたのかを振り返る。PDF自動翻訳バッチや IBM i 的なジョブ管理の考え方を手がかりに、「AIを動かす」から「AIと一緒に運転する」ための運用思想を紹介する。</p>



<figure class="wp-block-image size-large"><img fetchpriority="high" decoding="async" width="800" height="533" src="https://xn--ecka7j.biz/wp-content/uploads/2026/04/ccf551ca62bcd6e16fcf3d3dc60b43a9-800x533.jpg" alt="Ubuntu" class="wp-image-13948" srcset="https://xn--ecka7j.biz/wp-content/uploads/2026/04/ccf551ca62bcd6e16fcf3d3dc60b43a9-800x533.jpg 800w, https://xn--ecka7j.biz/wp-content/uploads/2026/04/ccf551ca62bcd6e16fcf3d3dc60b43a9-500x333.jpg 500w, https://xn--ecka7j.biz/wp-content/uploads/2026/04/ccf551ca62bcd6e16fcf3d3dc60b43a9-300x200.jpg 300w, https://xn--ecka7j.biz/wp-content/uploads/2026/04/ccf551ca62bcd6e16fcf3d3dc60b43a9-768x512.jpg 768w, https://xn--ecka7j.biz/wp-content/uploads/2026/04/ccf551ca62bcd6e16fcf3d3dc60b43a9.jpg 1056w" sizes="(max-width: 800px) 100vw, 800px" /><figcaption class="wp-element-caption">LM Studio から始まった「AIとの共生」</figcaption></figure>




  <div id="toc" class="toc tnt-none toc-center tnt-none border-element"><input type="checkbox" class="toc-checkbox" id="toc-checkbox-2" checked><label class="toc-title" for="toc-checkbox-2">目次</label>
    <div class="toc-content">
    <ul class="toc-list open"><li><a href="#toc1" tabindex="0">LM Studio から始まった「AIとの共生」</a></li><li><a href="#toc2" tabindex="0">なぜ Ubuntu なのか──発想の転換</a></li><li><a href="#toc3" tabindex="0">LM Studio ではなく “スクリプトで動かす LLM” を選んだ理由</a></li><li><a href="#toc4" tabindex="0">Ubuntu が開いた「展開の広さ」</a></li><li><a href="#toc5" tabindex="0">IBM i（System/38）の思想が Ubuntu で蘇る</a></li><li><a href="#toc6" tabindex="0">結論：GUI は入口、CLI は共生の本丸</a></li><li><a href="#toc7" tabindex="0">Stay tuned for Part ３!</a></li><li><a href="#toc8" tabindex="0">概念設計(外部設計)</a><ul><li><a href="#toc9" tabindex="0">Batch-Jobで使用するTool</a></li><li><a href="#toc10" tabindex="0">Batch-Jobを作成する環境</a></li><li><a href="#toc11" tabindex="0">プロンプト</a></li></ul></li><li><a href="#toc12" tabindex="0">外部設計の厳密化</a><ul><li><a href="#toc13" tabindex="0">Copilot再び</a></li><li><a href="#toc14" tabindex="0">外部設計厳密化(HIPO)</a></li></ul></li></ul>
    </div>
  </div>

<h2 class="wp-block-heading"><span id="toc1">LM Studio から始まった「AIとの共生」</span></h2>



<p>　私が生成AIを本格的に使い始めた頃、最初の選択肢は<span class="bold"> LM Studio </span>だった。<br>理由は単純で、<strong>とにかく手軽だったから</strong>だ。</p>



<p>モデルを選び、ボタンを押せばすぐに対話が始まる。<br>PDF を読み込ませて要約させたり、翻訳させたり、<br>GUI の世界は“<span class="bold">AI を触る</span>”という意味では非常に優れている。</p>



<p>しかし、使い続けるうちに、ある壁にぶつかった。</p>



<ul class="wp-block-list">
<li>PDF マニュアルの大量処理</li>



<li><span class="bold">DeepSeek-R1</span> の &lt;think> が長くなると落ちる</li>



<li>翻訳禁止語の制御が難しい</li>



<li>長文処理の安定性に限界がある</li>



<li>自動化がほぼ不可能</li>
</ul>



<p>AI を「使う」だけなら十分だが、<br><strong>AI </strong><strong>を</strong><strong>“</strong><strong>運用</strong><strong>”</strong><strong>しようとすると、GUI の限界が見えてきた。</strong></p>



<figure class="wp-block-image size-large"><img decoding="async" width="800" height="533" src="https://xn--ecka7j.biz/wp-content/uploads/2026/04/02-Why-Ubuntu-800x533.jpg" alt="Ubuntu" class="wp-image-13947" srcset="https://xn--ecka7j.biz/wp-content/uploads/2026/04/02-Why-Ubuntu-800x533.jpg 800w, https://xn--ecka7j.biz/wp-content/uploads/2026/04/02-Why-Ubuntu-500x333.jpg 500w, https://xn--ecka7j.biz/wp-content/uploads/2026/04/02-Why-Ubuntu-300x200.jpg 300w, https://xn--ecka7j.biz/wp-content/uploads/2026/04/02-Why-Ubuntu-768x512.jpg 768w, https://xn--ecka7j.biz/wp-content/uploads/2026/04/02-Why-Ubuntu.jpg 1056w" sizes="(max-width: 800px) 100vw, 800px" /><figcaption class="wp-element-caption">Why Ubuntu</figcaption></figure>



<h2 class="wp-block-heading"><span id="toc2">なぜ Ubuntu なのか──発想の転換</span></h2>



<p>そこで私は、思い切って Ubuntu（WSL2<strong><sup><span class="bold-red">※</span></sup></strong>）へ踏み出した。<br>最初は「Linuxコマンドラインなんて面倒だ。Ubuntuなんて10年ぶりだし」と思っていた。<br>しかし実際に触れてみると、その印象は一瞬で覆された。</p>



<p>Ubuntu は、AI を <strong>“</strong><strong>ワークフローの一部として組み込む</strong><strong>”</strong> ための環境だった。</p>



<ul class="wp-block-list">
<li>PDF → OCR → 英文抽出 → 翻訳 → 整形</li>



<li>翻訳禁止リストの適用</li>



<li><span class="bold">DeepSeek-R1</span> の &lt;think&gt; の制御</li>



<li>長文処理の安定性</li>



<li>スクリプトによる完全自動化</li>
</ul>



<p>これらが、GUI ではなく <strong>CLI（コマンドライン）だからこそ実現できた</strong>。</p>



<p>そして気づいたのは、<br><strong>AI </strong><strong>を本当に活かすには、GUI よりも CLI の方が向いている</strong>という事実だった。</p>



<p>&#x1f331; 補足：Ubuntu を使うのって、実はすごくカンタンなんです</p>



<p>昔は「Ubuntu を使う＝パソコンに別でインストールして、Windows と切り替えるダブルブートを作る」「仮想環境を用意する」みたいな、ちょっと大変な作業が必要でした。</p>



<p>でも今はもう、そんな手間は一切ありません。</p>



<p><strong>Windows </strong><strong>の画面からそのまま Ubuntu を呼び出して、<br>Ubuntu のシェル画面でコマンドを実行できる時代です。</strong></p>



<p>必要なら、<br><span class="marker-under-blue">スクリプトを<span class="bold">バッチ化</span>して自動で動かす</span>こともできます。（このBatch Job化が私にとって最大の魅力であり、今回Ubuntuを10年ぶりに選んだ理由）</p>



<p>「難しそう…」と思われがちですが、<br>実際は <strong>“</strong><strong>アプリを開く感覚で Ubuntu を使える</strong><strong>”</strong> くらい手軽です。</p>



<figure class="wp-block-image size-large"><img decoding="async" width="800" height="533" src="https://xn--ecka7j.biz/wp-content/uploads/2026/04/03-Not-LM-Studio-Yes-Script-LLM-800x533.jpg" alt="Ubuntu" class="wp-image-13946" srcset="https://xn--ecka7j.biz/wp-content/uploads/2026/04/03-Not-LM-Studio-Yes-Script-LLM-800x533.jpg 800w, https://xn--ecka7j.biz/wp-content/uploads/2026/04/03-Not-LM-Studio-Yes-Script-LLM-500x333.jpg 500w, https://xn--ecka7j.biz/wp-content/uploads/2026/04/03-Not-LM-Studio-Yes-Script-LLM-300x200.jpg 300w, https://xn--ecka7j.biz/wp-content/uploads/2026/04/03-Not-LM-Studio-Yes-Script-LLM-768x512.jpg 768w, https://xn--ecka7j.biz/wp-content/uploads/2026/04/03-Not-LM-Studio-Yes-Script-LLM.jpg 1056w" sizes="(max-width: 800px) 100vw, 800px" /><figcaption class="wp-element-caption">for AI Workflows</figcaption></figure>



<h2 class="wp-block-heading"><span id="toc3">LM Studio ではなく “スクリプトで動かす LLM” を選んだ理由</span></h2>



<p>Ubuntu で llama.cpp を直接叩くようになってから、<br>AI の扱い方が根本的に変わった。</p>



<p><strong>●</strong><strong> </strong><strong>安定性</strong></p>



<p><span class="bold">DeepSeek-R1</span> の長い &lt;think> を含む推論でも落ちない。<br>Windows のメモリ圧縮に邪魔されない。</p>



<p><strong>●</strong><strong> </strong><strong>制御性</strong></p>



<p>翻訳禁止リストを自由に扱える。<br>前処理・後処理を自在に組み込める。</p>



<p><strong>●</strong><strong> </strong><strong>自動化</strong></p>



<p>GUI では不可能だった</p>



<ul class="wp-block-list">
<li>バッチ処理</li>



<li>フォルダ監視</li>



<li>状態管理</li>



<li>Markdown/HTML 出力<br>がすべて可能になった。</li>
</ul>



<p><strong>●</strong><strong> </strong><strong>再現性</strong></p>



<p>同じ PDF を流せば、同じ処理が確実に行われる。<br>これは“運用”において最も重要な要素だ。</p>



<p>GUI は便利だが、<br><strong>運用の自由度は CLI の方が圧倒的に高い。</strong></p>



<figure class="wp-block-image size-large"><img loading="lazy" decoding="async" width="800" height="533" src="https://xn--ecka7j.biz/wp-content/uploads/2026/04/242b2b6060fe003a0cc2ee9ea0750618-800x533.jpg" alt="Ubuntu" class="wp-image-13945" srcset="https://xn--ecka7j.biz/wp-content/uploads/2026/04/242b2b6060fe003a0cc2ee9ea0750618-800x533.jpg 800w, https://xn--ecka7j.biz/wp-content/uploads/2026/04/242b2b6060fe003a0cc2ee9ea0750618-500x333.jpg 500w, https://xn--ecka7j.biz/wp-content/uploads/2026/04/242b2b6060fe003a0cc2ee9ea0750618-300x200.jpg 300w, https://xn--ecka7j.biz/wp-content/uploads/2026/04/242b2b6060fe003a0cc2ee9ea0750618-768x512.jpg 768w, https://xn--ecka7j.biz/wp-content/uploads/2026/04/242b2b6060fe003a0cc2ee9ea0750618.jpg 1056w" sizes="(max-width: 800px) 100vw, 800px" /><figcaption class="wp-element-caption">Ubuntu が開いた「展開の広さ」</figcaption></figure>



<h2 class="wp-block-heading"><span id="toc4">Ubuntu が開いた「展開の広さ」</span></h2>



<p><span class="bold">Ubuntu </span>に移行して最も驚いたのは、<br><strong>AI を「部品」として扱えるようになったこと</strong>だ。</p>



<ul class="wp-block-list">
<li>ocrmypdf で OCR</li>



<li>pdftotext でテキスト抽出</li>



<li>grep / sed / awk で前処理</li>



<li>llama.cpp で翻訳</li>



<li>bash でパイプライン化</li>



<li>状態ファイルでジョブ管理</li>



<li>ログで運用監視</li>
</ul>



<p>これらを自由に組み合わせることで、<br><strong>自分だけの AI 処理ラインを構築できる。</strong></p>



<p>GUI では「AI を使う」だったが、<br>Ubuntu では「<span class="bold">AI を組み込む</span>」へと進化した。</p>



<figure class="wp-block-image size-large"><img loading="lazy" decoding="async" width="800" height="533" src="https://xn--ecka7j.biz/wp-content/uploads/2026/04/d198dbb18d8067e34e8d6b2f36ed45a2-800x533.jpg" alt="Ubuntu" class="wp-image-13953" srcset="https://xn--ecka7j.biz/wp-content/uploads/2026/04/d198dbb18d8067e34e8d6b2f36ed45a2-800x533.jpg 800w, https://xn--ecka7j.biz/wp-content/uploads/2026/04/d198dbb18d8067e34e8d6b2f36ed45a2-500x333.jpg 500w, https://xn--ecka7j.biz/wp-content/uploads/2026/04/d198dbb18d8067e34e8d6b2f36ed45a2-300x200.jpg 300w, https://xn--ecka7j.biz/wp-content/uploads/2026/04/d198dbb18d8067e34e8d6b2f36ed45a2-768x512.jpg 768w, https://xn--ecka7j.biz/wp-content/uploads/2026/04/d198dbb18d8067e34e8d6b2f36ed45a2.jpg 1056w" sizes="(max-width: 800px) 100vw, 800px" /><figcaption class="wp-element-caption">IBM i(System 38)の思想が Ubuntu で蘇る</figcaption></figure>



<h2 class="wp-block-heading"><span id="toc5">IBM i（System/38）の思想が Ubuntu で蘇る</span></h2>



<p>長年、System/38 → AS/400 → IBM i の世界で<br>設計・開発・PM・PMO に携わってきた私にとって、<br>Ubuntu の CLI はどこか懐かしさを感じさせた。</p>



<ul class="wp-block-list">
<li>ジョブキュー（JOBQ）</li>



<li>状態管理（QUEUED / RUNNING / DONE / ERROR）</li>



<li>ログとスプール</li>



<li>再起動後のジョブ再投入</li>



<li>優先度付きキュー</li>



<li>同時実行数の制御</li>
</ul>



<p>これらは、まさに <strong>汎用機の運用思想そのもの</strong>だ。</p>



<p>PC 上で、<br>あの <span class="bold">System/38</span> の“運用の美学”を再現できるとは思わなかった。</p>



<p>Ubuntu（WSL2<strong><sup><span class="bold-red">※</span></sup></strong>） は、<strong>AI 時代の “新しい汎用機”のように感じられた。</strong></p>



<figure class="wp-block-image size-large"><img loading="lazy" decoding="async" width="800" height="531" src="https://xn--ecka7j.biz/wp-content/uploads/2026/04/ace44d44deea913cd3a4f07ce1345104-800x531.png" alt="Ubuntu" class="wp-image-13943" srcset="https://xn--ecka7j.biz/wp-content/uploads/2026/04/ace44d44deea913cd3a4f07ce1345104-800x531.png 800w, https://xn--ecka7j.biz/wp-content/uploads/2026/04/ace44d44deea913cd3a4f07ce1345104-500x332.png 500w, https://xn--ecka7j.biz/wp-content/uploads/2026/04/ace44d44deea913cd3a4f07ce1345104-300x199.png 300w, https://xn--ecka7j.biz/wp-content/uploads/2026/04/ace44d44deea913cd3a4f07ce1345104-768x510.png 768w, https://xn--ecka7j.biz/wp-content/uploads/2026/04/ace44d44deea913cd3a4f07ce1345104.png 1058w" sizes="(max-width: 800px) 100vw, 800px" /><figcaption class="wp-element-caption">GUI は入口、CLI は共生の本丸</figcaption></figure>



<h2 class="wp-block-heading"><span id="toc6">結論：GUI は入口、CLI は共生の本丸</span></h2>



<p>LM Studio は素晴らしいツールだ。<br>AI を触る入口としては最適だし、<br>とっつきやすさでは他の追随を許さない。</p>



<p>しかし、<br>AI を <strong>“</strong><strong>共生する存在</strong><strong>”</strong> として扱うなら、<br>Ubuntu の CLI が本丸になる。</p>



<ul class="wp-block-list">
<li>自動化</li>



<li>安定性</li>



<li>再現性</li>



<li>拡張性</li>



<li>運用思想との親和性</li>
</ul>



<p>これらは GUI では得られない。</p>



<p>AI を「使う」から「共に働く」へ。<br>その転換点に、Ubuntu があった。</p>



<h2 class="wp-block-heading"><span id="toc7">Stay tuned for Part ３!</span></h2>



<p><strong>しかし、まだこの時は知らない。私は概念設計<strong><sup><span class="bold-red">※</span></sup></strong><sup><span class="bold-red">※</span></sup>しただけで、もちろんAS/400の世界（SLSやRDB）がすべて引き継げる訳は無い。絶対的に無理であることは分かっている。しかし、JobQやDtaQ的な概念をUbuntuで使用できると思っただけ。</strong></p>



<p><strong>そしてそれ(<span class="marker-under-blue">Batch一括Jobそのものの構築</span>)を、実現するために<span class="marker-under">AIの力を借りる</span>ことまでは意識していた。<br>　しかし、その後、<span class="marker-under">Copilotのフリーズ</span>（応答なし）、Geminiへ連携、<span class="marker-under">Geminiの迷走</span>と続くことは予想だにしていなかった。　そして、明かりが見えてきて、この記事を書いている</strong>。ここでAIを使う上で最も大事なものは「<span class="bold">プロンプトの内容</span>」そして、そのプロンプトで<span class="bold"><span class="marker-under-blue">明確な住み分けを示す</span></span>ことだった。明確な住み分けを示すことなくプロンプトの重みだけを示した結果が<span class="bold">Geminiの迷走</span>（Gemini曰く良かれと思って）を招く結果になった。　<strong><span class="bold-blue">To be continued&#8230;</span></strong></p>



<div class="wp-block-group is-style-info-box is-layout-constrained wp-block-group-is-layout-constrained">
<p><span class="bold-red"><strong>※</strong>.</span> WSL2（Windows Subsystem for Linux 2）は、Windows 10/11上で軽量な仮想マシンを用いてLinux環境（Ubuntuなど）を高速・高互換に動作させる技術です。Docker Desktopの高速動作やファイルシステム性能の向上が最大の特徴で、開発者向けに最適化されています。<br>―――――――――――――――</p>



<p>主な特徴とメリット:</p>



<p>本物のLinuxカーネル: 軽量な仮想マシン（Hyper-V技術）上でLinuxカーネルが動くため、Dockerコンテナや多くのLinuxツールがネイティブに近い速度で動作。</p>



<p>Windowsとの連携: LinuxからWindowsのファイル（/mnt/c/）にアクセスでき、VS Codeの「WSL」拡張機能を使ってシームレスな開発が可能。</p>



<p>簡単インストール: PowerShellで wsl &#8211;install コマンドを実行するだけで導入完了。</p>



<p>要件と注意点:</p>



<p>対応OS: Windows 10 (version 1903以降, Build 18362以降) または Windows 11 (64bit版)。</p>



<p>ハードウェア: CPUの仮想化機能（Hyper-V）が有効であること。</p>



<p>リソース: デフォルトでPCメモリの最大50%を使用する可能性がある</p>
</div>



<h2 class="wp-block-heading"><span id="toc8">概念設計(外部設計)</span></h2>



<p><span class="bold-red"><strong><span class="bold-red"><strong>※</strong></span>※</strong>.概念設計</span> </p>



<p>JobQに置いた、バッチ一括処理Job.sh（Shell scriptが、DataQにある.pdfファイルを読み込み日本語に翻訳し出力する）</p>



<p>DataQには、翻訳対象の英文マニュアル.pdfファイルを置く</p>



<p>Batch-Jobの作成の為のプロンプト作成AI:GeminiまたはCopilot</p>



<h3 class="wp-block-heading"><span id="toc9">Batch-Jobで使用するTool</span></h3>



<p>　１．PDF読み込み（OCR処理)：ocrmypdf(OCRmyPDF)</p>



<p>　２．英文翻訳LLM：llama-cli (cyberagent-<span class="bold">DeepSeek-R1</span>-Distill-Qwen-14B-Japanese-Q5_K_M.gguf)</p>



<p>　３．使用するマシン：Ryzen AI9 HX470 RAM 32GB DDR5-5600 + m.2 SSD 1TB + USB4経由外付けm.2 SSD 1TB（）</p>



<h3 class="wp-block-heading"><span id="toc10">Batch-Jobを作成する環境</span></h3>



<p>　１．Ubuntu（WSL2）：（LLMを動かす環境）</p>



<p>　２．LLM：<strong>DeepSeek-R1-Distill-Qwen-14B-IQ4_XS.gguf</strong><br>　　　　　　<del>Gemma-4-26B-A4B-it-Q4_K_M.gguf</del></p>



<p>　３．使用するマシン：Ryzen AI9 HX470 RAM 32GB DDR5-5600 + m.2 SSD 1TB + USB4経由外付けm.2 SSD 1TB（）　</p>



<h3 class="wp-block-heading"><span id="toc11">プロンプト</span></h3>



<p>プロンプト：GeminiまたはCopilotへの指示内容</p>



<p>　１．責任分界点：担当分野：これが無いとAIが迷走する（例えば、Geminiがコードを書くとか）</p>



<p>　　　1-1．Batch一括処理Jobのコーデイング:<br>                    <strong>DeepSeek-R1-Distill-Qwen-14B-IQ4_XS.gguf</strong><br>                    <del>Gemma-4-26B-A4B-it-Q4_K_M.gguf</del></p>



<p>　２．上記の内容を全て含む</p>



<div class="wp-block-group is-style-information-box is-layout-constrained wp-block-group-is-layout-constrained">
<p>※.　 <br>Gemma-4-26B-A4B-it-Q4_K_M.gguf から、<br><strong>DeepSeek-R1-Distill-Qwen-14B-IQ4_XS.gguf</strong> への変更は、<br>多くのハレーションを起こして制御がままならない状況がつづいたからで、<br>他にも代替、<br><strong>cyberagent-DeepSeek-R1-Distill-Qwen-14B-Japanese-Q5_K_M.gguf</strong><br>も考えられる。　　　　　　　　　　　26/04/24</p>
</div>



<h2 class="wp-block-heading"><span id="toc12">外部設計の厳密化</span></h2>



<div class="wp-block-group is-style-alert-box is-layout-constrained wp-block-group-is-layout-constrained">
<p>実は、Gemini（ナビゲーター＆プロンプター）＋ Gemma4でも、翻訳結果の画面出力はできていた。<br>しかし翻訳前の抽出した英文.txtの出力はおろか、日本語訳.txtの出力がままならなかった。<br>途中でセカンドオピニオン（別スレッドのGemin）に聞いてみたところ、Markdown方式でのGemma4コントロールは難しく、<br>代替案としてJSON方式／XML方式を提案された。<br>更に、Gemma4を代替できるLLM候補も２つ（どちらも<span class="bold">DeepSeek-R1</span>系であって翻訳用の<span class="bold">DeepSeek-R1</span>とも相性が良いとの事が）確認できた。（さらに現時点ではどちらもGemma4より軽量でかつ優秀だと。）<br><br>こちらのスレッドのGeminiにこれを告げ、まずは<span class="bold">JSON方式</span>で行ってみた。<br>結果、Geminiまでハレーションを起こすし、デグレはするし、<br><span class="bold">XML方式</span>をやってもいないのに、勝手にJSONと同じ扱いにし、<br><span class="bold">TEE方式</span>を提案し、プロンプトまで用意する迷走（面従腹背）ぶりを発揮した。<br>責任分界点を定めて、厳命しているのも関わらず。そこでGeminiが現時点で認識している事項を７W2H ＆ MECEで出力させた結果が残念であるのを確認し、Geminiを解任した。</p>
</div>



<h3 class="wp-block-heading"><span id="toc13">Copilot再び</span></h3>



<p>Gemini出力の７W2H（MECE）をCopilotに投げかけた結果。ナビゲーター（内部設計）＆プロンプター（Programming指示）役をCopilot再任とした。</p>



<h3 class="wp-block-heading"><span id="toc14">外部設計厳密化(HIPO)</span></h3>



<p><strong>Hierarchy：階層</strong>  <br>Hierarchical structure：役割分担と、階層構造(デレクトリ構造)と（LLM、Tool、File、待ち行列などの）格納場所など<br>及び３階層の厳密化</p>



<div class="wp-block-group is-style-information-box is-layout-constrained wp-block-group-is-layout-constrained">
<p>&#8211; ① 要求定義 → 詳細設計 → プログラミング指示プロンプト（Copilot）<br>&#8211; ② プログラミング指示 → バッチジョブプログラミング（Copilot＋DeepSeek） <br>&#8211; ③ DtaQ投入＆バッチ一括ジョブ投入 → 翻訳（Ubuntuバッチ実行）</p>
</div>



<p>階層ごとIPO（Input Process Output）周りの厳密化</p>



<p>命名基準とタイムスタンプ＆Log種類など</p>



<div class="wp-block-group is-style-memo-box is-layout-constrained wp-block-group-is-layout-constrained">
<p>※．ここは、<span class="bold">方式設計</span>：AI（ナビゲータ＆プロンプター）&#x27a1; AI（プログラミング）間の扱いは初めてで、厳密な意味での知識不足もあった。（何が是で何が非か）</p>
</div>



<p></p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Local LLM の限界と向き合う：モデル選定と実践から見えた“解像度”の壁</title>
		<link>https://xn--ecka7j.biz/efficiency-vs-thought-ai-symbiosis/13916/</link>
		
		<dc:creator><![CDATA[Jun-N]]></dc:creator>
		<pubDate>Wed, 08 Apr 2026 03:44:51 +0000</pubDate>
				<category><![CDATA[AI共生]]></category>
		<category><![CDATA[AI Tool]]></category>
		<category><![CDATA[AIとの共生]]></category>
		<category><![CDATA[Local LLM]]></category>
		<category><![CDATA[ツール]]></category>
		<category><![CDATA[道具]]></category>
		<guid isPermaLink="false">https://xn--ecka7j.biz/?p=13916</guid>

					<description><![CDATA[Local LLM 　生成AIは便利だが、時に平然と“嘘”をつく。だからこそ私は、クラウド依存を避けるために Local LLM を導入し、自分の手元でモデルを動かすことに挑戦した。　しかし、PDFのページ数が増えた瞬間 [&#8230;]]]></description>
										<content:encoded><![CDATA[
<p><strong>Local LLM</strong></p>



<p>　生成AIは便利だが、時に平然と“嘘”をつく。<br>だからこそ私は、クラウド依存を避けるために Local LLM を導入し、自分の手元でモデルを動かすことに挑戦した。<br>　しかし、PDFのページ数が増えた瞬間に精度が落ち、前の文書の内容が混ざり、モデルを eject して再読み込みするという作業を繰り返すことになった。<br>この章では、私が実際に行ったモデル選定、PDF解析の試行錯誤、そして「Local LLM の限界」をどう乗り越えたかをまとめる。</p>



<div class="wp-block-cocoon-blocks-blogcard blogcard-type bct-none">

<a href="https://xn--ecka7j.biz/efficiency-vs-thought-ai-symbiosis/13888/" title="AIとの共生：生成AIは嘘をつく、だから Local LLMを使ってみた" class="blogcard-wrap internal-blogcard-wrap a-wrap cf"><div class="blogcard internal-blogcard ib-left cf"><div class="blogcard-label internal-blogcard-label"><span class="fa"></span></div><figure class="blogcard-thumbnail internal-blogcard-thumbnail"><img loading="lazy" decoding="async" width="320" height="180" src="https://xn--ecka7j.biz/wp-content/uploads/2026/04/2e1f3b3cffbcbe86158e3dbab9b78b51-320x180.jpg" class="blogcard-thumb-image internal-blogcard-thumb-image wp-post-image" alt="" srcset="https://xn--ecka7j.biz/wp-content/uploads/2026/04/2e1f3b3cffbcbe86158e3dbab9b78b51-320x180.jpg 320w, https://xn--ecka7j.biz/wp-content/uploads/2026/04/2e1f3b3cffbcbe86158e3dbab9b78b51-120x68.jpg 120w, https://xn--ecka7j.biz/wp-content/uploads/2026/04/2e1f3b3cffbcbe86158e3dbab9b78b51-160x90.jpg 160w" sizes="(max-width: 320px) 100vw, 320px" /></figure><div class="blogcard-content internal-blogcard-content"><div class="blogcard-title internal-blogcard-title">AIとの共生：生成AIは嘘をつく、だから Local LLMを使ってみた</div><div class="blogcard-snippet internal-blogcard-snippet">AI生成AIを利用する際に最も重要なのは、AIを誘導しないことである。ユーザーが意識していないと、AIは欠損した情報を補完し、もっともらしい文章を生成する。以前の記事でも触れたように、存在しない製品の型番や仕様を提示するケースが確認されてい...</div></div><div class="blogcard-footer internal-blogcard-footer cf"><div class="blogcard-site internal-blogcard-site"><div class="blogcard-favicon internal-blogcard-favicon"><img loading="lazy" decoding="async" src="https://www.google.com/s2/favicons?domain=https://xn--ecka7j.biz" alt="" class="blogcard-favicon-image internal-blogcard-favicon-image" width="16" height="16" /></div><div class="blogcard-domain internal-blogcard-domain">イイネ.biz</div></div><div class="blogcard-date internal-blogcard-date"><div class="blogcard-post-date internal-blogcard-post-date">2026.04.05</div></div></div></div></a>
</div>



<p>　そこで第2章では、私が実際に行った検証の記録をまとめる。<br>複数のモデルを試し、PDFを読み込ませ、精度の落ちるポイントを見極め、そして最終的に「AIとの共生」に必要な運用方法にたどり着くまでのプロセスだ。Local LLM の“理想”と“現実”の間で揺れながら、私は何を感じ、どう判断したのか。<br>その実体験を、詳しく紹介したい。</p>



<figure class="wp-block-image size-large"><img loading="lazy" decoding="async" width="800" height="678" src="https://xn--ecka7j.biz/wp-content/uploads/2026/05/LM-Studio-Models-2026-04-27-800x678.png" alt="LM Studio Models" class="wp-image-13988" srcset="https://xn--ecka7j.biz/wp-content/uploads/2026/05/LM-Studio-Models-2026-04-27-800x678.png 800w, https://xn--ecka7j.biz/wp-content/uploads/2026/05/LM-Studio-Models-2026-04-27-500x424.png 500w, https://xn--ecka7j.biz/wp-content/uploads/2026/05/LM-Studio-Models-2026-04-27-300x254.png 300w, https://xn--ecka7j.biz/wp-content/uploads/2026/05/LM-Studio-Models-2026-04-27-768x651.png 768w, https://xn--ecka7j.biz/wp-content/uploads/2026/05/LM-Studio-Models-2026-04-27.png 1146w" sizes="(max-width: 800px) 100vw, 800px" /><figcaption class="wp-element-caption">LLM 一覧（26/04/27）</figcaption></figure>



<p><strong>&#x2714;<span class="blue">Q5_K_M </span>があるなら、必ず Q5_K_M を選ぶ</strong><br><strong>&#x2714; Q5 が無い場合 → <span class="green"><span class="bold-green">Q4_K_M </span></span>を選ぶ（_S は避ける）</strong></p>



<p><strong>&#x2714; 作者は “<span class="bold-blue">bartowski </span>&gt; <span class="bold-green">mmnga</span> &gt; unsloth &gt; <span class="bold-red">その他</span>” の順で信頼性が高い</strong></p>



<p><strong>量子化の品質並び：</strong><br><strong>精度の高さ：Q5_K_L ＞ <span class="bold-blue">Q5_K_M</span> ＞ Q5_K_S ＞ <span class="bold-green">Q4_K_M</span> ＞ Q4_K_S ＞ Q3</strong></p>



<p><strong>しかし Ryzen AI9<span class="badge-blue"><span class="bold">HX470（32GB RAM）</span></span>では：</strong><br><strong>•         Q5_K_<span class="bold-red">L → 重すぎて危険</span></strong><br><strong>•         <span class="bold-blue">Q5_K_M → 最適</span></strong><br><strong>•         Q5_K_<span class="bold-red">S → 精度が落ちる</span></strong><br><strong>•         <span class="bold-green">Q4_K_M → 軽くて精度もそこそこ（安全）</span></strong><br><strong>•         Q4_K_<span class="bold-red">S → 精度が落ちる（非推奨）</span></strong><br><strong>だから <span class="bold-blue">Q5</span> が無い場合は <span class="bold-green">Q4_K_M</span> が最適。</strong></p>




  <div id="toc" class="toc tnt-none toc-center tnt-none border-element"><input type="checkbox" class="toc-checkbox" id="toc-checkbox-4" checked><label class="toc-title" for="toc-checkbox-4">目次</label>
    <div class="toc-content">
    <ul class="toc-list open"><li><a href="#toc1" tabindex="0">なぜ Local LLM に挑んだのか</a></li><li><a href="#toc2" tabindex="0">モデル選定：14B クラスの限界と可能性</a></li><li><a href="#toc3" tabindex="0">実際の取り組み：PDF解析で起きたこと</a></li><li><a href="#toc4" tabindex="0">直面した“解像度の壁”と原因</a><ul><li><a href="#toc5" tabindex="0">&#x2714; 14Bモデルの context window の限界</a></li><li><a href="#toc6" tabindex="0">&#x2714; attention の限界</a></li><li><a href="#toc7" tabindex="0">&#x2714; モデル内部のキャッシュ残留</a></li></ul></li><li><a href="#toc8" tabindex="0">&nbsp;64GB RAM を検討した理由と現実的な結論</a><ul><li><a href="#toc9" tabindex="0">&#x274c; 14Bモデルの読解精度は RAM を増やしても変わらない</a></li></ul></li><li><a href="#toc10" tabindex="0">Local LLM と共生するための運用戦略</a><ul><li><a href="#toc11" tabindex="0">&#x2714; 1〜3ページ単位で分割</a></li><li><a href="#toc12" tabindex="0">&#x2714; 各チャンクを独立スレッドで処理</a></li><li><a href="#toc13" tabindex="0">&#x2714; system prompt で強制リセット</a></li><li><a href="#toc14" tabindex="0">&#x2714; 最後に人間（私）が統合・補完する</a></li></ul></li><li><a href="#toc15" tabindex="0">そして気づいた事：AIは“補助”、判断は人間がする</a></li></ul>
    </div>
  </div>

<h2 class="wp-block-heading"><span id="toc1">なぜ Local LLM に挑んだのか</span></h2>



<figure class="wp-block-image size-large"><img loading="lazy" decoding="async" width="800" height="533" src="https://xn--ecka7j.biz/wp-content/uploads/2026/04/Local-LLMs-10-800x533.jpg" alt="Local LLM" class="wp-image-13908" srcset="https://xn--ecka7j.biz/wp-content/uploads/2026/04/Local-LLMs-10-800x533.jpg 800w, https://xn--ecka7j.biz/wp-content/uploads/2026/04/Local-LLMs-10-500x333.jpg 500w, https://xn--ecka7j.biz/wp-content/uploads/2026/04/Local-LLMs-10-300x200.jpg 300w, https://xn--ecka7j.biz/wp-content/uploads/2026/04/Local-LLMs-10-768x512.jpg 768w, https://xn--ecka7j.biz/wp-content/uploads/2026/04/Local-LLMs-10.jpg 1056w" sizes="(max-width: 800px) 100vw, 800px" /><figcaption class="wp-element-caption">ローカルLLMのメリット</figcaption></figure>



<p>クラウド型の生成AIは便利だが、時に“もっともらしい嘘”を返してくる。<br>私はこの問題に長く悩まされてきた。</p>



<p>そこで考えたのが、<br><strong>「ならば自分のPCで動く Local LLM ならどうだろう？」</strong><br>という発想だった。</p>



<ul class="wp-block-list">
<li>データを外部に送らない</li>



<li>モデルを自由に選べる</li>



<li>量子化も変えられる</li>



<li>そして“嘘”が減る可能性がある</li>
</ul>



<p>こうした期待から、私は LM Studio を使って Local LLM の検証を始めた。</p>



<figure class="wp-block-image size-large"><img loading="lazy" decoding="async" width="800" height="533" src="https://xn--ecka7j.biz/wp-content/uploads/2026/04/Local-LLMs-20-800x533.jpg" alt="Local LLM" class="wp-image-13909" srcset="https://xn--ecka7j.biz/wp-content/uploads/2026/04/Local-LLMs-20-800x533.jpg 800w, https://xn--ecka7j.biz/wp-content/uploads/2026/04/Local-LLMs-20-500x333.jpg 500w, https://xn--ecka7j.biz/wp-content/uploads/2026/04/Local-LLMs-20-300x200.jpg 300w, https://xn--ecka7j.biz/wp-content/uploads/2026/04/Local-LLMs-20-768x512.jpg 768w, https://xn--ecka7j.biz/wp-content/uploads/2026/04/Local-LLMs-20.jpg 1056w" sizes="(max-width: 800px) 100vw, 800px" /><figcaption class="wp-element-caption">ローカルLLM入門：その理由と方法</figcaption></figure>



<p>第1章では、生成AIが抱える「嘘」や「幻覚」という根本的な問題、そしてそれを避けるために私が Local LLM に目を向けた理由を書いた。<br>クラウドAIの便利さと危うさ、その両方を理解したうえで、私は“自分の手元で動くAI”に可能性を感じた。</p>



<p>しかし、Local LLM を導入したからといって、すべてが魔法のように解決するわけではない。<br>むしろ、実際に使い始めて初めて見えてくる“壁”があった。</p>



<p>モデルの選定、量子化の違い、PDF解析の精度、ページ数による解像度の低下、そしてモデル内部に残る“前の文書の記憶”。<br>Local LLM は強力だが、万能ではない。<br>その限界と向き合いながら、どう使いこなしていくか──ここからが本当の勝負だった。</p>



<p>そこで第2章では、私が実際に行った検証の記録をまとめる。<br>複数のモデルを試し、PDFを読み込ませ、精度の落ちるポイントを見極め、そして最終的に「AIとの共生」に必要な運用方法にたどり着くまでのプロセスだ。</p>



<p>Local LLM の“理想”と“現実”の間で揺れながら、私は何を感じ、どう判断したのか。<br>その実体験を、次の章で詳しく紹介したい。</p>



<h2 class="wp-block-heading"><span id="toc2">モデル選定：14B クラスの限界と可能性</span></h2>



<p>・・・色々試してみて（<span class="bold">Gemma 2 9B Instruct  SPPO Iter3 Q5_K_S 9B </span>では、ある程度うまく行った。しかし長文のpdfとなると限界があった）<br>ここで、最後に選んだのは、<br><strong>DeepSeek-R1-Distill-Qwen-14B-GGUF（mmnga）Q5_K_M</strong>。</p>



<p>選んだ理由は明確だった。</p>



<ul class="wp-block-list">
<li>日本語最適化が強い</li>



<li>事実抽出に強い</li>



<li>R1系の推論強化で論理性が高い</li>



<li>32GB RAM でも動く</li>



<li>Q5_K_M 量子化で精度が高い</li>
</ul>



<p>Copilot と Gemini の両方が推奨してきたこともあり、<br>「これならいける」と思った。</p>



<p>実際、<strong>ページ数の少ないPDFでは驚くほど正確</strong>だった。</p>



<h2 class="wp-block-heading"><span id="toc3">実際の取り組み：PDF解析で起きたこと</span></h2>



<figure class="wp-block-image size-large"><img loading="lazy" decoding="async" width="800" height="533" src="https://xn--ecka7j.biz/wp-content/uploads/2026/04/Local-LLMs-30-800x533.jpg" alt="Local LLM" class="wp-image-13911" srcset="https://xn--ecka7j.biz/wp-content/uploads/2026/04/Local-LLMs-30-800x533.jpg 800w, https://xn--ecka7j.biz/wp-content/uploads/2026/04/Local-LLMs-30-500x333.jpg 500w, https://xn--ecka7j.biz/wp-content/uploads/2026/04/Local-LLMs-30-300x200.jpg 300w, https://xn--ecka7j.biz/wp-content/uploads/2026/04/Local-LLMs-30-768x512.jpg 768w, https://xn--ecka7j.biz/wp-content/uploads/2026/04/Local-LLMs-30.jpg 1056w" sizes="(max-width: 800px) 100vw, 800px" /><figcaption class="wp-element-caption">データセグメンテーション と　キャッシュクリア</figcaption></figure>



<p>私が扱ったPDFは、単なる文章ではない。</p>



<ul class="wp-block-list">
<li>Discord DMログ</li>



<li>メール</li>



<li>時系列資料</li>



<li>前提条件</li>



<li>英日混在</li>



<li>固有名詞・ID・ハンドル名</li>



<li>引用文</li>



<li>会話の流れ</li>
</ul>



<p>これらが複雑に絡み合った“高密度文書”ばかり。</p>



<p>ファイルサイズは小さくても、<strong>1</strong><strong>ページあたりの情報量が異常に多い</strong>。</p>



<p>最初は順調だったが、<br><strong>ページ数が増えると突然、解像度が落ち始めた。</strong></p>



<h2 class="wp-block-heading"><span id="toc4">直面した“解像度の壁”と原因</span></h2>



<figure class="wp-block-image size-large"><img loading="lazy" decoding="async" width="800" height="533" src="https://xn--ecka7j.biz/wp-content/uploads/2026/04/Local-LLMs-40-800x533.jpg" alt="Local LLM" class="wp-image-13912" srcset="https://xn--ecka7j.biz/wp-content/uploads/2026/04/Local-LLMs-40-800x533.jpg 800w, https://xn--ecka7j.biz/wp-content/uploads/2026/04/Local-LLMs-40-500x333.jpg 500w, https://xn--ecka7j.biz/wp-content/uploads/2026/04/Local-LLMs-40-300x200.jpg 300w, https://xn--ecka7j.biz/wp-content/uploads/2026/04/Local-LLMs-40-768x512.jpg 768w, https://xn--ecka7j.biz/wp-content/uploads/2026/04/Local-LLMs-40.jpg 1056w" sizes="(max-width: 800px) 100vw, 800px" /><figcaption class="wp-element-caption">統合分析</figcaption></figure>



<p>20ページのPDFを読み込ませたとき、<br>明らかに精度が30％程度まで落ちた。</p>



<ul class="wp-block-list">
<li>文脈が飛ぶ</li>



<li>重要な記述が抜ける</li>



<li>前のPDFの内容が混ざる</li>



<li>時系列が崩れる</li>
</ul>



<p>原因は明確だった。</p>



<h3 class="wp-block-heading"><span id="toc5">&#x2714; 14Bモデルの context window の限界</span></h3>



<p>高密度PDFは、20ページでも実質40〜60ページ分の負荷になる。</p>



<h3 class="wp-block-heading"><span id="toc6">&#x2714; attention の限界</span></h3>



<p>英日混在・DMログ・引用文は attention を大量に消費する。</p>



<h3 class="wp-block-heading"><span id="toc7">&#x2714; モデル内部のキャッシュ残留</span></h3>



<p>前のPDFの内容が混ざるのは、まさにこれ。</p>



<p>私は仕方なく、(直感的に)<br><strong>モデルを eject </strong><strong>→</strong><strong> </strong><strong>新スレッド </strong><strong>→</strong><strong> </strong><strong>再読み込み</strong><br>という作業を繰り返した。</p>



<p>正しい対処だが、正直かなり面倒だった。・・・これは、後からCopiltに聞いてみたが、Copilotも「<strong>モデルを eject → 新スレッド → 再読み込み</strong>」を正しい対処方法だと認めた。</p>



<h2 class="wp-block-heading"><span id="toc8">&nbsp;64GB RAM を検討した理由と現実的な結論</span></h2>



<figure class="wp-block-image size-large"><img loading="lazy" decoding="async" width="800" height="533" src="https://xn--ecka7j.biz/wp-content/uploads/2026/04/Local-LLMs-50-800x533.jpg" alt="Local LLM" class="wp-image-13913" srcset="https://xn--ecka7j.biz/wp-content/uploads/2026/04/Local-LLMs-50-800x533.jpg 800w, https://xn--ecka7j.biz/wp-content/uploads/2026/04/Local-LLMs-50-500x333.jpg 500w, https://xn--ecka7j.biz/wp-content/uploads/2026/04/Local-LLMs-50-300x200.jpg 300w, https://xn--ecka7j.biz/wp-content/uploads/2026/04/Local-LLMs-50-768x512.jpg 768w, https://xn--ecka7j.biz/wp-content/uploads/2026/04/Local-LLMs-50.jpg 1056w" sizes="(max-width: 800px) 100vw, 800px" /><figcaption class="wp-element-caption">パフォーマンスの最適化</figcaption></figure>



<p>「メモリを増やせば解決するのでは？」<br>そう思って調べたが、現実は違った。</p>



<h3 class="wp-block-heading"><span id="toc9">&#x274c; 14Bモデルの読解精度は RAM を増やしても変わらない</span></h3>



<p>理由は、<br><strong>モデル構造そのものが限界を決めている</strong>から。</p>



<p>ただし、64GBにすれば</p>



<ul class="wp-block-list">
<li>32Bモデルが動く</li>



<li>スワップが消える</li>



<li>安定性が上がる</li>
</ul>



<p>というメリットはある。</p>



<p>しかし、<br><strong>DDR5-5600 64GB </strong><strong>が12万円</strong><br>という現実(去年の今頃の３～４倍の価格)を見て、私は冷静になった。</p>



<h2 class="wp-block-heading"><span id="toc10">Local LLM と共生するための運用戦略</span></h2>



<figure class="wp-block-image size-large"><img loading="lazy" decoding="async" width="800" height="533" src="https://xn--ecka7j.biz/wp-content/uploads/2026/04/Local-LLMs-60-800x533.jpg" alt="Local LLM" class="wp-image-13906" srcset="https://xn--ecka7j.biz/wp-content/uploads/2026/04/Local-LLMs-60-800x533.jpg 800w, https://xn--ecka7j.biz/wp-content/uploads/2026/04/Local-LLMs-60-500x333.jpg 500w, https://xn--ecka7j.biz/wp-content/uploads/2026/04/Local-LLMs-60-300x200.jpg 300w, https://xn--ecka7j.biz/wp-content/uploads/2026/04/Local-LLMs-60-768x512.jpg 768w, https://xn--ecka7j.biz/wp-content/uploads/2026/04/Local-LLMs-60.jpg 1056w" sizes="(max-width: 800px) 100vw, 800px" /><figcaption class="wp-element-caption">Local LLM</figcaption></figure>



<p>最終的にたどり着いた結論はこれ。</p>



<h3 class="wp-block-heading"><span id="toc11">&#x2714; 1〜3ページ単位で分割</span></h3>



<h3 class="wp-block-heading"><span id="toc12">&#x2714; 各チャンクを独立スレッドで処理</span></h3>



<h3 class="wp-block-heading"><span id="toc13">&#x2714; system prompt で強制リセット</span></h3>



<h3 class="wp-block-heading"><span id="toc14">&#x2714; 最後に人間（私）が統合・補完する</span></h3>



<p>これが最も安定し、コストもかからない。</p>



<h2 class="wp-block-heading"><span id="toc15">そして気づいた事：AIは“補助”、判断は人間がする</span></h2>



<figure class="wp-block-image size-large"><img loading="lazy" decoding="async" width="800" height="600" src="https://xn--ecka7j.biz/wp-content/uploads/2026/04/IMG_6299-800x600.jpeg" alt="Local LLM　環境" class="wp-image-13914" srcset="https://xn--ecka7j.biz/wp-content/uploads/2026/04/IMG_6299-800x600.jpeg 800w, https://xn--ecka7j.biz/wp-content/uploads/2026/04/IMG_6299-500x375.jpeg 500w, https://xn--ecka7j.biz/wp-content/uploads/2026/04/IMG_6299-300x225.jpeg 300w, https://xn--ecka7j.biz/wp-content/uploads/2026/04/IMG_6299-768x576.jpeg 768w, https://xn--ecka7j.biz/wp-content/uploads/2026/04/IMG_6299-1536x1152.jpeg 1536w, https://xn--ecka7j.biz/wp-content/uploads/2026/04/IMG_6299-2048x1536.jpeg 2048w" sizes="(max-width: 800px) 100vw, 800px" /><figcaption class="wp-element-caption">Ryzen AI9 HX470 DDR5-5600 RAM 32GB + m,2 SSD 1TB + USB4接続　m,2 SSD 1TB</figcaption></figure>



<p>Local LLM は強力だが万能ではない。<br>特に、私のように“高密度PDF”を扱う場合、<br>AIだけに任せるのは無理がある。</p>



<p>しかし、<br><strong>AI</strong><strong>が抽出した情報を人間が補完する</strong><br>この組み合わせは非常に強い。</p>



<p>私は今回の経験を通じて、<br>「AIとの共生」とは、<br><strong>AI</strong><strong>に任せすぎず、AIを道具として正しく扱うこと</strong><br>だと実感した。</p>



<div class="wp-block-media-text is-stacked-on-mobile"><figure class="wp-block-media-text__media"><img loading="lazy" decoding="async" width="800" height="228" src="https://xn--ecka7j.biz/wp-content/uploads/2026/04/LM-Studio-Graphic-800x228.png" alt="LM Studio" class="wp-image-13919 size-full" srcset="https://xn--ecka7j.biz/wp-content/uploads/2026/04/LM-Studio-Graphic-800x228.png 800w, https://xn--ecka7j.biz/wp-content/uploads/2026/04/LM-Studio-Graphic-500x143.png 500w, https://xn--ecka7j.biz/wp-content/uploads/2026/04/LM-Studio-Graphic-300x86.png 300w, https://xn--ecka7j.biz/wp-content/uploads/2026/04/LM-Studio-Graphic-768x219.png 768w, https://xn--ecka7j.biz/wp-content/uploads/2026/04/LM-Studio-Graphic.png 858w" sizes="(max-width: 800px) 100vw, 800px" /></figure><div class="wp-block-media-text__content">
<p>LM Studio Graphic<br>high performanceのRadeon 890M Graphics を有効化</p>



<p></p>
</div></div>



<div class="wp-block-media-text is-stacked-on-mobile"><figure class="wp-block-media-text__media"><img loading="lazy" decoding="async" width="620" height="191" src="https://xn--ecka7j.biz/wp-content/uploads/2026/04/Ryzen-AI9-HX470-NPU.png" alt="Ryzen AI9 HX470 NPU" class="wp-image-13920 size-full" srcset="https://xn--ecka7j.biz/wp-content/uploads/2026/04/Ryzen-AI9-HX470-NPU.png 620w, https://xn--ecka7j.biz/wp-content/uploads/2026/04/Ryzen-AI9-HX470-NPU-500x154.png 500w, https://xn--ecka7j.biz/wp-content/uploads/2026/04/Ryzen-AI9-HX470-NPU-300x92.png 300w" sizes="(max-width: 620px) 100vw, 620px" /></figure><div class="wp-block-media-text__content">
<p>LM Studio では現在 NPU 利用設定は無いのが残念（利用できない）<br>TechPowerUp： “This processor is equipped with a Neural Processing Unit (NPU) that comes with a performance rating of up to 55 TOPS.”</p>



<p></p>
</div></div>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>AIとの共生：生成AIは嘘をつく、だから Local LLMを使ってみた</title>
		<link>https://xn--ecka7j.biz/efficiency-vs-thought-ai-symbiosis/13888/</link>
		
		<dc:creator><![CDATA[Jun-N]]></dc:creator>
		<pubDate>Sat, 04 Apr 2026 06:28:32 +0000</pubDate>
				<category><![CDATA[AI共生]]></category>
		<category><![CDATA[AIとの共生]]></category>
		<category><![CDATA[Copilot]]></category>
		<category><![CDATA[Gemini]]></category>
		<guid isPermaLink="false">https://xn--ecka7j.biz/?p=13888</guid>

					<description><![CDATA[AI 生成AIを利用する際に最も重要なのは、AIを誘導しないことである。ユーザーが意識していないと、AIは欠損した情報を補完し、もっともらしい文章を生成する。以前の記事でも触れたように、存在しない製品の型番や仕様を提示す [&#8230;]]]></description>
										<content:encoded><![CDATA[
<p>AI</p>



<p>生成AIを利用する際に最も重要なのは、<strong>AIを誘導しないこと</strong>である。<br>ユーザーが意識していないと、AIは欠損した情報を補完し、もっともらしい文章を生成する。<br>以前の記事でも触れたように、存在しない製品の型番や仕様を提示するケースが確認されている。</p>



<p>これは特定のモデルに限らず、生成AI全般に共通する構造的な特性である。</p>



<p>本稿では、LM Studio を用いて複数の Local LLM を検証した結果をもとに、<br>生成AIの特性と、AIとの共生に必要な視点を整理する。</p>



<p><br>だから私は、AI の癖を自分で確かめるために <strong>Local LLM</strong><strong>（ローカルAI）</strong> を使い始めた。<br>LM Studio を使えば、複数のモデルを切り替えながら、<br>それぞれの“得意分野”を自分の目で確かめられる。</p>



<p>Gemma、Swallow、Unhinged…それぞれのモデルには癖があり、得意不得意がある。</p>



<figure class="wp-block-image size-large"><img loading="lazy" decoding="async" width="800" height="533" src="https://xn--ecka7j.biz/wp-content/uploads/2026/04/10e8fcb6731e2773ae0a1021fc3e8804-800x533.jpg" alt="" class="wp-image-13887" srcset="https://xn--ecka7j.biz/wp-content/uploads/2026/04/10e8fcb6731e2773ae0a1021fc3e8804-800x533.jpg 800w, https://xn--ecka7j.biz/wp-content/uploads/2026/04/10e8fcb6731e2773ae0a1021fc3e8804-500x333.jpg 500w, https://xn--ecka7j.biz/wp-content/uploads/2026/04/10e8fcb6731e2773ae0a1021fc3e8804-300x200.jpg 300w, https://xn--ecka7j.biz/wp-content/uploads/2026/04/10e8fcb6731e2773ae0a1021fc3e8804-768x512.jpg 768w, https://xn--ecka7j.biz/wp-content/uploads/2026/04/10e8fcb6731e2773ae0a1021fc3e8804.jpg 1536w" sizes="(max-width: 800px) 100vw, 800px" /></figure>




  <div id="toc" class="toc tnt-none toc-center tnt-none border-element"><input type="checkbox" class="toc-checkbox" id="toc-checkbox-6" checked><label class="toc-title" for="toc-checkbox-6">目次</label>
    <div class="toc-content">
    <ul class="toc-list open"><li><a href="#toc1" tabindex="0">AIを使う上での注意事項</a><ul><li><a href="#toc2" tabindex="0">◆ 会話パート（検証ログ）※</a></li></ul></li><li><a href="#toc3" tabindex="0">生成AIはなぜ嘘をつくのか</a><ul><li><a href="#toc4" tabindex="0">◆ 会話パート（検証ログ）※</a></li></ul></li><li><a href="#toc5" tabindex="0">Local LLM を使ってみた理由</a><ul><li><a href="#toc6" tabindex="0">LM Studio を使うと</a></li><li><a href="#toc7" tabindex="0">◆ 会話パート（検証ログ）※</a></li></ul></li><li><a href="#toc8" tabindex="0">LM Studioで試したモデルの特徴</a><ul><li><a href="#toc9" tabindex="0">最適モデルを探す</a></li></ul></li><li><a href="#toc10" tabindex="0">AIとの共生とは何か</a><ul><li><a href="#toc11" tabindex="0">◆ 会話パート（検証ログ）※</a></li></ul></li><li><a href="#toc12" tabindex="0">まとめ：AIは嘘をつく。しかし使い方次第で武器になる</a></li></ul>
    </div>
  </div>

<h2 class="wp-block-heading"><span id="toc1">AIを使う上での注意事項</span></h2>



<p>生成AIは「事実を保持する装置」ではなく、「自然な文章を生成する装置」である。<br>そのため、質問の構造や文脈に依存して、存在しない情報を補完する挙動が発生する。</p>



<p>AIは「事実を知っている存在」ではない。<br>AIは、膨大なデータから <strong>“</strong><strong>最も自然に見える文章</strong><strong>”</strong> を生成する装置であり、<br>そこに真実性の保証はない。</p>



<ul class="wp-block-list">
<li>誘導すると、AIはその方向に合わせて物語を作る</li>



<li>決めつけ質問をすると、AIは“穴埋め”を始める</li>



<li>引用や参照を丸投げすると、AIは存在しない情報を補完する</li>
</ul>



<p>だからこそ、AIを使う側には<br><strong>「決めつけない」「誘導しない」「断定しない」</strong><br>という姿勢が求められる。</p>



<h3 class="wp-block-heading"><span id="toc2">◆ 会話パート（検証ログ）※</span></h3>



<p><strong><span class="bold-red">※</span></strong>. “補助的な会話”として構成しています。</p>



<div class="wp-block-media-text is-stacked-on-mobile" style="grid-template-columns:15% auto"><figure class="wp-block-media-text__media"><img loading="lazy" decoding="async" width="99" height="97" src="https://xn--ecka7j.biz/wp-content/uploads/2026/04/User-99-97.png" alt="" class="wp-image-13846 size-full"/></figure><div class="wp-block-media-text__content">
<p>「この型番は実在するのか。」</p>
</div></div>



<div class="wp-block-media-text is-stacked-on-mobile" style="grid-template-columns:15% auto"><figure class="wp-block-media-text__media"><img loading="lazy" decoding="async" width="99" height="94" src="https://xn--ecka7j.biz/wp-content/uploads/2026/04/AI-99-94.png" alt="" class="wp-image-13859 size-full"/></figure><div class="wp-block-media-text__content">
<p>「はい。2021年に発売されています。」</p>
</div></div>



<div class="wp-block-media-text is-stacked-on-mobile" style="grid-template-columns:15% auto"><figure class="wp-block-media-text__media"><img loading="lazy" decoding="async" width="99" height="97" src="https://xn--ecka7j.biz/wp-content/uploads/2026/04/User-99-97.png" alt="" class="wp-image-13846 size-full"/></figure><div class="wp-block-media-text__content">
<p>「検索結果に該当製品が存在しない。情報源は。」</p>
</div></div>



<div class="wp-block-media-text is-stacked-on-mobile" style="grid-template-columns:15% auto"><figure class="wp-block-media-text__media"><img loading="lazy" decoding="async" width="99" height="94" src="https://xn--ecka7j.biz/wp-content/uploads/2026/04/AI-99-94.png" alt="" class="wp-image-13859 size-full"/></figure><div class="wp-block-media-text__content">
<p>「文脈から推測し、自然な回答として生成しました。」</p>
</div></div>



<div class="wp-block-group is-style-information-box is-layout-constrained wp-block-group-is-layout-constrained">
<p>このように、AIは欠損情報を“埋める”方向に動作する。<br>したがって、質問者側が <strong>決めつけ・誘導・断定</strong> を避けることが重要となる。</p>
</div>



<p>以下は、<strong>Bard</strong>時代に書いたBlogではあるが、<strong>Gemini</strong>になっても基本的には変わっていない。<strong><span class="bold-red">※</span></strong></p>



<div class="wp-block-cocoon-blocks-blogcard blogcard-type bct-none">

<a href="https://xn--ecka7j.biz/toolboox/chatgpt/9278/" title="生成AIは、存在しない製品の仕様を載せてくる。どこからの情報か？？？" class="blogcard-wrap internal-blogcard-wrap a-wrap cf"><div class="blogcard internal-blogcard ib-left cf"><div class="blogcard-label internal-blogcard-label"><span class="fa"></span></div><figure class="blogcard-thumbnail internal-blogcard-thumbnail"><img loading="lazy" decoding="async" width="320" height="180" src="https://xn--ecka7j.biz/wp-content/uploads/2024/03/VDSL07-320x180.png" class="blogcard-thumb-image internal-blogcard-thumb-image wp-post-image" alt="" srcset="https://xn--ecka7j.biz/wp-content/uploads/2024/03/VDSL07-320x180.png 320w, https://xn--ecka7j.biz/wp-content/uploads/2024/03/VDSL07-500x281.png 500w, https://xn--ecka7j.biz/wp-content/uploads/2024/03/VDSL07-800x450.png 800w, https://xn--ecka7j.biz/wp-content/uploads/2024/03/VDSL07-300x169.png 300w, https://xn--ecka7j.biz/wp-content/uploads/2024/03/VDSL07-768x432.png 768w, https://xn--ecka7j.biz/wp-content/uploads/2024/03/VDSL07-120x68.png 120w, https://xn--ecka7j.biz/wp-content/uploads/2024/03/VDSL07-160x90.png 160w, https://xn--ecka7j.biz/wp-content/uploads/2024/03/VDSL07.png 1280w" sizes="(max-width: 320px) 100vw, 320px" /></figure><div class="blogcard-content internal-blogcard-content"><div class="blogcard-title internal-blogcard-title">生成AIは、存在しない製品の仕様を載せてくる。どこからの情報か？？？</div><div class="blogcard-snippet internal-blogcard-snippet">ネットが不調YouTubeはローディングスピナー状態でBGM途切れ、他サイトアクセスは「サイトにアクセスできません.～ DNS アドレスが見つかりません」とか「サイトにアクセスできません.～サーバーの IP アドレスが見つかりませんでした」とかに度々なる。ルーターは24時間つけっぱなしで6年目そろそろ寿命？11ax規格のに入替たが改善しない。そこでVDSL装置に着目。これは7年目のレンタル品、新しい規格品に交換してもらう為にGeminiに質問･･･ところが！</div></div><div class="blogcard-footer internal-blogcard-footer cf"><div class="blogcard-site internal-blogcard-site"><div class="blogcard-favicon internal-blogcard-favicon"><img loading="lazy" decoding="async" src="https://www.google.com/s2/favicons?domain=https://xn--ecka7j.biz" alt="" class="blogcard-favicon-image internal-blogcard-favicon-image" width="16" height="16" /></div><div class="blogcard-domain internal-blogcard-domain">イイネ.biz</div></div><div class="blogcard-date internal-blogcard-date"><div class="blogcard-post-date internal-blogcard-post-date">2024.03.22</div></div></div></div></a>
</div>



<div class="wp-block-cocoon-blocks-blogcard blogcard-type bct-none">

<a href="https://xn--ecka7j.biz/toolboox/chatgpt/8916/" title="生成AIは嘘をつく!? Bardにジックリ聞いてみた結果" class="blogcard-wrap internal-blogcard-wrap a-wrap cf"><div class="blogcard internal-blogcard ib-left cf"><div class="blogcard-label internal-blogcard-label"><span class="fa"></span></div><figure class="blogcard-thumbnail internal-blogcard-thumbnail"><img loading="lazy" decoding="async" width="320" height="180" src="https://xn--ecka7j.biz/wp-content/uploads/2024/01/AI_Bard-320x180.png" class="blogcard-thumb-image internal-blogcard-thumb-image wp-post-image" alt="" srcset="https://xn--ecka7j.biz/wp-content/uploads/2024/01/AI_Bard-320x180.png 320w, https://xn--ecka7j.biz/wp-content/uploads/2024/01/AI_Bard-120x68.png 120w, https://xn--ecka7j.biz/wp-content/uploads/2024/01/AI_Bard-160x90.png 160w" sizes="(max-width: 320px) 100vw, 320px" /></figure><div class="blogcard-content internal-blogcard-content"><div class="blogcard-title internal-blogcard-title">生成AIは嘘をつく!? Bardにジックリ聞いてみた結果</div><div class="blogcard-snippet internal-blogcard-snippet">１回の質問で同時に３つの回答の間に矛盾と問題があります。問題１は、それぞれの回答間における矛盾チェックをしていないことです。少なくとも同時回答なら矛盾チェックは必要かと思います。そして、最も大きな問題（回答２）は、大きな嘘が、もちろん、AIが悪意を持ってうそをついたのではないということですが、使う側と、提供する側の課題があります。人がコントロールしている(AIは意識・意志を持っていない)限りそんなことか起こるのは限られた部分のハズです。だから、AIも使い方次第となると思います。（責任は生み出す側の人間にあります。）全ては人間側の責任です。</div></div><div class="blogcard-footer internal-blogcard-footer cf"><div class="blogcard-site internal-blogcard-site"><div class="blogcard-favicon internal-blogcard-favicon"><img loading="lazy" decoding="async" src="https://www.google.com/s2/favicons?domain=https://xn--ecka7j.biz" alt="" class="blogcard-favicon-image internal-blogcard-favicon-image" width="16" height="16" /></div><div class="blogcard-domain internal-blogcard-domain">イイネ.biz</div></div><div class="blogcard-date internal-blogcard-date"><div class="blogcard-post-date internal-blogcard-post-date">2024.01.11</div></div></div></div></a>
</div>



<p><span class="bold-red">※</span>. これは <strong>Gemini </strong>だけの問題ではなく、クラウド型 AI 全般に共通する「構造的な性質」だ。</p>



<figure class="wp-block-image size-large"><img loading="lazy" decoding="async" width="800" height="330" src="https://xn--ecka7j.biz/wp-content/uploads/2026/04/fd074cc516625aca099f1f2b5f5dd57b-800x330.jpg" alt="" class="wp-image-13850" srcset="https://xn--ecka7j.biz/wp-content/uploads/2026/04/fd074cc516625aca099f1f2b5f5dd57b-800x330.jpg 800w, https://xn--ecka7j.biz/wp-content/uploads/2026/04/fd074cc516625aca099f1f2b5f5dd57b-500x206.jpg 500w, https://xn--ecka7j.biz/wp-content/uploads/2026/04/fd074cc516625aca099f1f2b5f5dd57b-300x124.jpg 300w, https://xn--ecka7j.biz/wp-content/uploads/2026/04/fd074cc516625aca099f1f2b5f5dd57b-768x317.jpg 768w, https://xn--ecka7j.biz/wp-content/uploads/2026/04/fd074cc516625aca099f1f2b5f5dd57b.jpg 1536w" sizes="(max-width: 800px) 100vw, 800px" /></figure>



<h2 class="wp-block-heading"><span id="toc3">生成AIはなぜ嘘をつくのか</span></h2>



<p>AIが虚偽情報を生成する理由は、悪意ではなく構造的な問題である。</p>



<ul class="wp-block-list">
<li>AIは確率的に自然な文章を生成する</li>



<li>事実確認機能は持たない</li>



<li>欠損情報は補完される</li>



<li>安全フィルタの有無により挙動が変化する</li>
</ul>



<h3 class="wp-block-heading"><span id="toc4">◆ 会話パート（検証ログ）※</span></h3>



<p><strong><span class="bold-red">※</span></strong>. “補助的な会話”として構成しています。</p>



<div class="wp-block-media-text is-stacked-on-mobile" style="grid-template-columns:15% auto"><figure class="wp-block-media-text__media"><img loading="lazy" decoding="async" width="99" height="97" src="https://xn--ecka7j.biz/wp-content/uploads/2026/04/User-99-97.png" alt="" class="wp-image-13846 size-full"/></figure><div class="wp-block-media-text__content">
<p>「存在しない仕様を提示した理由を説明してほしい。」</p>
</div></div>



<div class="wp-block-media-text is-stacked-on-mobile" style="grid-template-columns:15% auto"><figure class="wp-block-media-text__media"><img loading="lazy" decoding="async" width="99" height="94" src="https://xn--ecka7j.biz/wp-content/uploads/2026/04/AI-99-94.png" alt="" class="wp-image-13859 size-full"/></figure><div class="wp-block-media-text__content">
<p>「質問文の構造から、必要と判断した情報を補完しました。」</p>
</div></div>



<div class="wp-block-media-text is-stacked-on-mobile" style="grid-template-columns:15% auto"><figure class="wp-block-media-text__media"><img loading="lazy" decoding="async" width="99" height="97" src="https://xn--ecka7j.biz/wp-content/uploads/2026/04/User-99-97.png" alt="" class="wp-image-13846 size-full"/></figure><div class="wp-block-media-text__content">
<p>「事実確認は行っていないということか。」</p>
</div></div>



<div class="wp-block-media-text is-stacked-on-mobile" style="grid-template-columns:15% auto"><figure class="wp-block-media-text__media"><img loading="lazy" decoding="async" width="99" height="94" src="https://xn--ecka7j.biz/wp-content/uploads/2026/04/AI-99-94.png" alt="" class="wp-image-13859 size-full"/></figure><div class="wp-block-media-text__content">
<p>「はい。私は事実検証機能を持ちません。」</p>
</div></div>



<div class="wp-block-group is-style-memo-box is-layout-constrained wp-block-group-is-layout-constrained">
<p>AIの回答は“仮説”として扱うべきであり、<br>真偽の判断は利用者側が行う必要がある。</p>
</div>



<figure class="wp-block-image size-large"><img loading="lazy" decoding="async" width="800" height="1200" src="https://xn--ecka7j.biz/wp-content/uploads/2026/04/6188b79ccd76ee9783c6ff1890ba99e5-800x1200.jpg" alt="" class="wp-image-13886" srcset="https://xn--ecka7j.biz/wp-content/uploads/2026/04/6188b79ccd76ee9783c6ff1890ba99e5-800x1200.jpg 800w, https://xn--ecka7j.biz/wp-content/uploads/2026/04/6188b79ccd76ee9783c6ff1890ba99e5-500x750.jpg 500w, https://xn--ecka7j.biz/wp-content/uploads/2026/04/6188b79ccd76ee9783c6ff1890ba99e5-300x450.jpg 300w, https://xn--ecka7j.biz/wp-content/uploads/2026/04/6188b79ccd76ee9783c6ff1890ba99e5-768x1152.jpg 768w, https://xn--ecka7j.biz/wp-content/uploads/2026/04/6188b79ccd76ee9783c6ff1890ba99e5.jpg 1024w" sizes="(max-width: 800px) 100vw, 800px" /></figure>



<h2 class="wp-block-heading"><span id="toc5">Local LLM を使ってみた理由</span></h2>



<div class="wp-block-group is-style-information-box is-layout-constrained wp-block-group-is-layout-constrained">
<p>クラウドAIは利便性が高い一方で、内部処理や安全フィルタがブラックボックス化している。<br>これに対し、Local LLM はモデルの挙動が比較的透明であり、<br>AIの限界や癖を観察するのに適している。</p>
</div>



<h3 class="wp-block-heading"><span id="toc6">LM Studio を使うと</span></h3>



<ul class="wp-block-list">
<li>モデルごとの“嘘の傾向”が比較できる</li>



<li>日本語の癖、推論の癖、画像認識の癖が分かる</li>



<li>クラウドAIでは見えない“内部の挙動”が見える</li>
</ul>



<div class="wp-block-group is-style-memo-box is-layout-constrained wp-block-group-is-layout-constrained">
<p>AIを安全に使うには、<br><strong>AI</strong><strong>の限界を自分で確かめる経験</strong> が不可欠だ。</p>
</div>



<h3 class="wp-block-heading"><span id="toc7">◆ 会話パート（検証ログ）※</span></h3>



<p><strong>※</strong>. “補助的な会話”として構成しています。</p>



<div class="wp-block-media-text is-stacked-on-mobile" style="grid-template-columns:15% auto"><figure class="wp-block-media-text__media"><img loading="lazy" decoding="async" width="99" height="97" src="https://xn--ecka7j.biz/wp-content/uploads/2026/04/User-99-97.png" alt="" class="wp-image-13846 size-full"/></figure><div class="wp-block-media-text__content">
<p>「クラウドAIとローカルAIの挙動差は。」</p>
</div></div>



<div class="wp-block-media-text is-stacked-on-mobile" style="grid-template-columns:15% auto"><figure class="wp-block-media-text__media"><img loading="lazy" decoding="async" width="150" height="100" src="https://xn--ecka7j.biz/wp-content/uploads/2026/04/AI-Local-LLM-Image-0150-0100-1.png" alt="" class="wp-image-13870 size-full"/></figure><div class="wp-block-media-text__content">
<p>「私はPC上で動作しているため、内部処理が比較的透明です。」</p>
</div></div>



<div class="wp-block-media-text is-stacked-on-mobile" style="grid-template-columns:15% auto"><figure class="wp-block-media-text__media"><img loading="lazy" decoding="async" width="99" height="97" src="https://xn--ecka7j.biz/wp-content/uploads/2026/04/User-99-97.png" alt="" class="wp-image-13846 size-full"/></figure><div class="wp-block-media-text__content">
<p>ローカルモデルのほうが癖を観察しやすいという理解でよいか。」</p>
</div></div>



<div class="wp-block-media-text is-stacked-on-mobile" style="grid-template-columns:16% auto"><figure class="wp-block-media-text__media"><img loading="lazy" decoding="async" width="150" height="100" src="https://xn--ecka7j.biz/wp-content/uploads/2026/04/AI-Local-LLM-Image-0150-0100.png" alt="" class="wp-image-13851 size-full"/></figure><div class="wp-block-media-text__content">
<p>「その通りです。」</p>
</div></div>



<div class="wp-block-group is-style-memo-box is-layout-constrained wp-block-group-is-layout-constrained">
<p>Local LLM は、AIの特性を理解するための“観察環境”として有効である。</p>
</div>



<figure class="wp-block-image size-large"><img loading="lazy" decoding="async" width="800" height="371" src="https://xn--ecka7j.biz/wp-content/uploads/2026/04/1803aba6a7829136037b854011946991-1-800x371.jpg" alt="" class="wp-image-13855" srcset="https://xn--ecka7j.biz/wp-content/uploads/2026/04/1803aba6a7829136037b854011946991-1-800x371.jpg 800w, https://xn--ecka7j.biz/wp-content/uploads/2026/04/1803aba6a7829136037b854011946991-1-500x232.jpg 500w, https://xn--ecka7j.biz/wp-content/uploads/2026/04/1803aba6a7829136037b854011946991-1-300x139.jpg 300w, https://xn--ecka7j.biz/wp-content/uploads/2026/04/1803aba6a7829136037b854011946991-1-768x357.jpg 768w, https://xn--ecka7j.biz/wp-content/uploads/2026/04/1803aba6a7829136037b854011946991-1.jpg 1536w" sizes="(max-width: 800px) 100vw, 800px" /></figure>



<h2 class="wp-block-heading"><span id="toc8">LM Studioで試したモデルの特徴</span></h2>



<p>LM Studio 上で検証したモデルの特徴を、技術的観点から整理する。</p>



<div class="wp-block-media-text is-stacked-on-mobile"><figure class="wp-block-media-text__media"><img loading="lazy" decoding="async" width="800" height="533" src="https://xn--ecka7j.biz/wp-content/uploads/2026/04/AI-Local-LLM-Swallow-Image-1536-1024-800x533.jpg" alt="" class="wp-image-13862 size-full" srcset="https://xn--ecka7j.biz/wp-content/uploads/2026/04/AI-Local-LLM-Swallow-Image-1536-1024-800x533.jpg 800w, https://xn--ecka7j.biz/wp-content/uploads/2026/04/AI-Local-LLM-Swallow-Image-1536-1024-500x333.jpg 500w, https://xn--ecka7j.biz/wp-content/uploads/2026/04/AI-Local-LLM-Swallow-Image-1536-1024-300x200.jpg 300w, https://xn--ecka7j.biz/wp-content/uploads/2026/04/AI-Local-LLM-Swallow-Image-1536-1024-768x512.jpg 768w, https://xn--ecka7j.biz/wp-content/uploads/2026/04/AI-Local-LLM-Swallow-Image-1536-1024.jpg 1536w" sizes="(max-width: 800px) 100vw, 800px" /></figure><div class="wp-block-media-text__content">
<p><strong>Llama-3.1-Swallow-8B</strong></p>



<ul class="wp-block-list">
<li>日本語の自然な言い回しに強み</li>



<li>創作、メール、翻訳に適する</li>



<li>論理・理数系は並</li>



<li>開発元は「東工大・産総研」</li>
</ul>



<p>文書引用：「日本語の自然な言い回し」</p>
</div></div>



<p>但し、難しい投げかけをしたら<span class="bold">32GB</span>のRAM使用率<span class="bold">85%</span>で<span class="bold-red">Loop</span>した。</p>



<div class="wp-block-media-text is-stacked-on-mobile"><figure class="wp-block-media-text__media"><img loading="lazy" decoding="async" width="800" height="533" src="https://xn--ecka7j.biz/wp-content/uploads/2026/04/AI-Local-LLM-Gemma-Image-1536-1024-800x533.jpg" alt="" class="wp-image-13864 size-full" srcset="https://xn--ecka7j.biz/wp-content/uploads/2026/04/AI-Local-LLM-Gemma-Image-1536-1024-800x533.jpg 800w, https://xn--ecka7j.biz/wp-content/uploads/2026/04/AI-Local-LLM-Gemma-Image-1536-1024-500x333.jpg 500w, https://xn--ecka7j.biz/wp-content/uploads/2026/04/AI-Local-LLM-Gemma-Image-1536-1024-300x200.jpg 300w, https://xn--ecka7j.biz/wp-content/uploads/2026/04/AI-Local-LLM-Gemma-Image-1536-1024-768x512.jpg 768w, https://xn--ecka7j.biz/wp-content/uploads/2026/04/AI-Local-LLM-Gemma-Image-1536-1024.jpg 1536w" sizes="(max-width: 800px) 100vw, 800px" /></figure><div class="wp-block-media-text__content">
<p><strong>Gemma-2-9B-Instruct</strong></p>



<ul class="wp-block-list">
<li>小型モデルとしては高い推論性能</li>



<li>コード生成、論理パズルに強い</li>



<li>日本語はやや翻訳調</li>
</ul>



<p>文書引用：「同サイズで最高峰の知能」</p>
</div></div>



<p>SwallowでLoopしたものを、わずか数秒で回答してくれた。</p>



<div class="wp-block-media-text is-stacked-on-mobile"><figure class="wp-block-media-text__media"><img loading="lazy" decoding="async" width="800" height="533" src="https://xn--ecka7j.biz/wp-content/uploads/2026/04/AI-Local-LLM-Unhinged-Image-1536-1024-800x533.jpg" alt="" class="wp-image-13860 size-full" srcset="https://xn--ecka7j.biz/wp-content/uploads/2026/04/AI-Local-LLM-Unhinged-Image-1536-1024-800x533.jpg 800w, https://xn--ecka7j.biz/wp-content/uploads/2026/04/AI-Local-LLM-Unhinged-Image-1536-1024-500x333.jpg 500w, https://xn--ecka7j.biz/wp-content/uploads/2026/04/AI-Local-LLM-Unhinged-Image-1536-1024-300x200.jpg 300w, https://xn--ecka7j.biz/wp-content/uploads/2026/04/AI-Local-LLM-Unhinged-Image-1536-1024-768x512.jpg 768w, https://xn--ecka7j.biz/wp-content/uploads/2026/04/AI-Local-LLM-Unhinged-Image-1536-1024.jpg 1536w" sizes="(max-width: 800px) 100vw, 800px" /></figure><div class="wp-block-media-text__content">
<p><strong>Llama-3.1-Unhinged-Vision-8B</strong></p>



<ul class="wp-block-list">
<li>安全フィルタを撤廃したモデル</li>



<li>拒絶せず、何でも回答する傾向</li>



<li>画像解析能力は高い</li>



<li>真実性の担保は困難</li>
</ul>



<p>文書引用：「倫理的にNGなことでも『何でもそれっぽく答えてしまう』」</p>
</div></div>



<p>確かに画像解析は抜群、しかし後半はモデルを切り替えてSwallowに任せようとしてLoopし、最終的にはGemmaで・・・<br><span class="bold-red">p.s.</span><br><strong>Llama-3.1-Unhinged-Vision-8B</strong> でPDFファイルを読み込ませていて<span class="bold-red">失敗！</span><br><strong><span class="blue">ファイルから情報を記録せよ。重複した情報がある場合はスキップせよ。記録出来たら、モデル名とファイル名を告げ「記録できました」とだけ答えよ。<span class="bold-red"> 記録できました。</span></span></strong>・・・<span class="bold">11ファイル</span>分繰り返した後、12ファイル目で<span class="bold">先に進めなくなった</span>（<span class="bold-red">アップロードが無視された</span>）ので、「<strong>現在までに読み込みを終えているファイル名を順番を付けて一覧表示せよ</strong>」と指示したら、「<strong>1. No-0000-Premise-前提.pdf  2.No-2026-02-12-DM-#community-support.pdf</strong>」の<span class="bold-red">２つのみ</span>、理由を聞いても「「<span class="bold">2つしか認識していない理由</span>」については、<span class="bold">提供されたファイルにそのような記述は見つかりませんでした</span>。・・・<span class="bold-red">以上のように、提供されたファイルには「2つしか認識していない理由」に関する記述は見つからないため、詳細な回答はできません。</span>」などと取り付く島もない。・・・なんと</p>



<hr>



<div class="wp-block-media-text is-stacked-on-mobile" style="grid-template-columns:15% auto"><figure class="wp-block-media-text__media"><img loading="lazy" decoding="async" width="800" height="533" src="https://xn--ecka7j.biz/wp-content/uploads/2026/04/cb289186ac04d8808b6699caaf84f211-2-800x533.jpg" alt="" class="wp-image-13876 size-full" srcset="https://xn--ecka7j.biz/wp-content/uploads/2026/04/cb289186ac04d8808b6699caaf84f211-2-800x533.jpg 800w, https://xn--ecka7j.biz/wp-content/uploads/2026/04/cb289186ac04d8808b6699caaf84f211-2-500x333.jpg 500w, https://xn--ecka7j.biz/wp-content/uploads/2026/04/cb289186ac04d8808b6699caaf84f211-2-300x200.jpg 300w, https://xn--ecka7j.biz/wp-content/uploads/2026/04/cb289186ac04d8808b6699caaf84f211-2-768x512.jpg 768w, https://xn--ecka7j.biz/wp-content/uploads/2026/04/cb289186ac04d8808b6699caaf84f211-2.jpg 1536w" sizes="(max-width: 800px) 100vw, 800px" /></figure><div class="wp-block-media-text__content">
<p><span class="bold-blue">Geminiに聞いてみた</span><br>Geminiの回答<br><strong>具体的には、以下の3つの可能性が高いです。</strong></p>



<p><strong>1. 記憶の「上書き」と「喪失」</strong><br><strong>このモデルは、対話を重ねるごとに古い情報を忘れる、あるいは「今、目の前にある指示」を最優先する傾向があります。</strong></p>



<p><strong>シナリオ11で「時系列で記録せよ」という強い指示を与えた直後に一覧表示を求めたため、最初（前提）</strong>と<strong>最後（直近）</strong>の情報だけがメモリに残り、中間のシナリオ2〜10が「重複や不要な情報」としてパージ（削除）された可能性があります。</p>



<p><strong>2. PDF読み込みの不完全性</strong><br>「記録できました」という回答は、必ずしも「ファイル内容のすべてを長期記憶に定着させた」ことを意味しません。</p>



<ul class="wp-block-list">
<li>特に<span class="bold">「unhinged」系</span>などの派生モデルは、その場の応答を優先して「読み込んだふり（ハルシネーション）」をする場合があります。実際には、システム側で一度に処理できるファイル数やトークン量を超えており、直近のものしかアクティブなメモリに保持できていなかったと考えられます。</li>
</ul>



<p><strong>3. 「重複スキップ」指示の誤作動</strong><br>指示に「重複した情報がある場合はスキップせよ」と含めたことで、モデルが<strong>「似たような形式のPDF読み込み作業そのもの」を重複と見なし</strong>、内部的に情報を統合または切り捨ててしまった可能性があります。その結果、最初と最後しか残らなかったという現象です。</p>
</div></div>



<h3 class="wp-block-heading"><span id="toc9">最適モデルを探す</span></h3>



<div class="wp-block-group is-style-memo-box is-layout-constrained wp-block-group-is-layout-constrained">
<p>Geminiに「PDFファイルで画像と文字を認識させるのに最適なモデルを教えて」と聞いて、今回の目的に合った２つを教えてもらう。<br>PDF解析においてより重要なのは<strong>「マルチモーダル（画像と文字を同時に扱う力）」</strong>と<strong>「コンテキストウィンドウ（記憶容量）」</strong>、そして<strong>「ハルシネーション（嘘）の少なさ」</strong>です。</p>
</div>



<div class="wp-block-group is-style-information-box is-layout-constrained wp-block-group-is-layout-constrained">
<p>現在のAIモデルの中で、PDF資料の解析に最も適しているのは以下のモデルです。<br><strong>1. <strong>Qwen2-VL-7B-Instruct（最優先）</strong></strong><br><strong>2. <strong>Pixtral-12B</strong></strong></p>
</div>



<p>検索すると<span class="bold">Qwen2-VL-7b</span>は、数が多い（<span class="bold">GGUF</span>のどれが良いかとGemini聞く候補は２つ）</p>



<figure class="wp-block-image size-full"><img loading="lazy" decoding="async" width="694" height="716" src="https://xn--ecka7j.biz/wp-content/uploads/2026/04/Qwen2-VL-7b.png" alt="" class="wp-image-13901" srcset="https://xn--ecka7j.biz/wp-content/uploads/2026/04/Qwen2-VL-7b.png 694w, https://xn--ecka7j.biz/wp-content/uploads/2026/04/Qwen2-VL-7b-500x516.png 500w, https://xn--ecka7j.biz/wp-content/uploads/2026/04/Qwen2-VL-7b-300x310.png 300w" sizes="(max-width: 694px) 100vw, 694px" /></figure>



<div class="wp-block-media-text is-stacked-on-mobile" style="grid-template-columns:43% auto"><figure class="wp-block-media-text__media"><img loading="lazy" decoding="async" width="800" height="533" src="https://xn--ecka7j.biz/wp-content/uploads/2026/04/f5601c219dbfe3ae9115026da7f0e46e-800x533.jpg" alt="" class="wp-image-13895 size-full" srcset="https://xn--ecka7j.biz/wp-content/uploads/2026/04/f5601c219dbfe3ae9115026da7f0e46e-800x533.jpg 800w, https://xn--ecka7j.biz/wp-content/uploads/2026/04/f5601c219dbfe3ae9115026da7f0e46e-500x333.jpg 500w, https://xn--ecka7j.biz/wp-content/uploads/2026/04/f5601c219dbfe3ae9115026da7f0e46e-300x200.jpg 300w, https://xn--ecka7j.biz/wp-content/uploads/2026/04/f5601c219dbfe3ae9115026da7f0e46e-768x512.jpg 768w, https://xn--ecka7j.biz/wp-content/uploads/2026/04/f5601c219dbfe3ae9115026da7f0e46e.jpg 1536w" sizes="(max-width: 800px) 100vw, 800px" /></figure><div class="wp-block-media-text__content">
<p><code><strong>bartowski/Qwen2.5-VL-7B-Instruct-GGUF</strong></code><br><strong>理由:</strong> <code>bartowski</code>氏はGGUF作成において非常に信頼性が高く、量子化の品質が安定しています。Qwen2.5はQwen2の正統進化版で、画像の文字認識精度がさらに高まっています</p>
</div></div>



<figure class="wp-block-image size-full is-resized"><img loading="lazy" decoding="async" width="532" height="85" src="https://xn--ecka7j.biz/wp-content/uploads/2026/04/2c42cb8aa22276d2ed11f4ca45b4b7e2.png" alt="" class="wp-image-13896" style="width:800px;height:auto" srcset="https://xn--ecka7j.biz/wp-content/uploads/2026/04/2c42cb8aa22276d2ed11f4ca45b4b7e2.png 532w, https://xn--ecka7j.biz/wp-content/uploads/2026/04/2c42cb8aa22276d2ed11f4ca45b4b7e2-500x80.png 500w, https://xn--ecka7j.biz/wp-content/uploads/2026/04/2c42cb8aa22276d2ed11f4ca45b4b7e2-300x48.png 300w" sizes="(max-width: 532px) 100vw, 532px" /></figure>



<div class="wp-block-group is-style-alert-box is-layout-constrained wp-block-group-is-layout-constrained">
<p>只今、D/L中</p>



<figure class="wp-block-image size-full is-resized"><img loading="lazy" decoding="async" width="511" height="133" src="https://xn--ecka7j.biz/wp-content/uploads/2026/04/b2bd0286c29d0da7fbfe1634891d461a.png" alt="" class="wp-image-13898" style="width:757px;height:auto" srcset="https://xn--ecka7j.biz/wp-content/uploads/2026/04/b2bd0286c29d0da7fbfe1634891d461a.png 511w, https://xn--ecka7j.biz/wp-content/uploads/2026/04/b2bd0286c29d0da7fbfe1634891d461a-500x130.png 500w, https://xn--ecka7j.biz/wp-content/uploads/2026/04/b2bd0286c29d0da7fbfe1634891d461a-300x78.png 300w" sizes="(max-width: 511px) 100vw, 511px" /></figure>
</div>



<div class="wp-block-media-text is-stacked-on-mobile" style="grid-template-columns:44% auto"><figure class="wp-block-media-text__media"><img loading="lazy" decoding="async" width="800" height="533" src="https://xn--ecka7j.biz/wp-content/uploads/2026/04/lmstudio-community_Q-800x533.jpg" alt="" class="wp-image-13897 size-full" srcset="https://xn--ecka7j.biz/wp-content/uploads/2026/04/lmstudio-community_Q-800x533.jpg 800w, https://xn--ecka7j.biz/wp-content/uploads/2026/04/lmstudio-community_Q-500x333.jpg 500w, https://xn--ecka7j.biz/wp-content/uploads/2026/04/lmstudio-community_Q-300x200.jpg 300w, https://xn--ecka7j.biz/wp-content/uploads/2026/04/lmstudio-community_Q-768x512.jpg 768w, https://xn--ecka7j.biz/wp-content/uploads/2026/04/lmstudio-community_Q.jpg 1536w" sizes="(max-width: 800px) 100vw, 800px" /></figure><div class="wp-block-media-text__content">
<p>次点の候補</p>



<p><code><strong>lmstudio-community/Qwen2.5-VL-7B-Instruct-GGUF</strong></code><strong>理由:</strong> LM Studio公式に近いコミュニティが提供しているため、動作の互換性が最も保証されています。</p>
</div></div>



<hr>



<div class="wp-block-media-text is-stacked-on-mobile"><figure class="wp-block-media-text__media"><img loading="lazy" decoding="async" width="800" height="800" src="https://xn--ecka7j.biz/wp-content/uploads/2026/04/a0da917d37409180f5ca87e107ef6b79-800x800.jpg" alt="" class="wp-image-13889 size-full" srcset="https://xn--ecka7j.biz/wp-content/uploads/2026/04/a0da917d37409180f5ca87e107ef6b79-800x800.jpg 800w, https://xn--ecka7j.biz/wp-content/uploads/2026/04/a0da917d37409180f5ca87e107ef6b79-500x500.jpg 500w, https://xn--ecka7j.biz/wp-content/uploads/2026/04/a0da917d37409180f5ca87e107ef6b79-300x300.jpg 300w, https://xn--ecka7j.biz/wp-content/uploads/2026/04/a0da917d37409180f5ca87e107ef6b79-768x768.jpg 768w, https://xn--ecka7j.biz/wp-content/uploads/2026/04/a0da917d37409180f5ca87e107ef6b79-150x150.jpg 150w, https://xn--ecka7j.biz/wp-content/uploads/2026/04/a0da917d37409180f5ca87e107ef6b79.jpg 1024w" sizes="(max-width: 800px) 100vw, 800px" /></figure><div class="wp-block-media-text__content">
<p><strong>LLaVA-v1.5-Llama-3-8B</strong></p>



<ul class="wp-block-list">
<li>旧世代の視覚モデル</li>



<li>写真説明や簡易OCRが可能</li>



<li>日本語能力は低め</li>
</ul>



<p>モデルごとの設計思想の違いが、回答傾向に明確に反映される。</p>
</div></div>



<p>旧世代の視覚モデルということだったので、今回は使用しなかった。　</p>



<figure class="wp-block-image size-large"><img loading="lazy" decoding="async" width="800" height="533" src="https://xn--ecka7j.biz/wp-content/uploads/2026/04/a52a050dcb55856c8c28907c8f00a709-800x533.jpg" alt="" class="wp-image-13885" srcset="https://xn--ecka7j.biz/wp-content/uploads/2026/04/a52a050dcb55856c8c28907c8f00a709-800x533.jpg 800w, https://xn--ecka7j.biz/wp-content/uploads/2026/04/a52a050dcb55856c8c28907c8f00a709-500x333.jpg 500w, https://xn--ecka7j.biz/wp-content/uploads/2026/04/a52a050dcb55856c8c28907c8f00a709-300x200.jpg 300w, https://xn--ecka7j.biz/wp-content/uploads/2026/04/a52a050dcb55856c8c28907c8f00a709-768x512.jpg 768w, https://xn--ecka7j.biz/wp-content/uploads/2026/04/a52a050dcb55856c8c28907c8f00a709.jpg 1536w" sizes="(max-width: 800px) 100vw, 800px" /></figure>



<h2 class="wp-block-heading"><span id="toc10">AIとの共生とは何か</span></h2>



<div class="wp-block-group is-style-alert-box is-layout-constrained wp-block-group-is-layout-constrained">
<p>AIは「正解を保持する存在」ではなく、「仮説生成装置」である。<br>したがって、AIの回答をそのまま採用するのではなく、<br>利用者側が検証を行う前提で運用する必要がある。</p>
</div>



<h3 class="wp-block-heading"><span id="toc11">◆ 会話パート（検証ログ）※</span></h3>



<p><span class="bold-red"><strong>※</strong>.</span> “補助的な会話”として構成しています。</p>



<div class="wp-block-media-text is-stacked-on-mobile" style="grid-template-columns:15% auto"><figure class="wp-block-media-text__media"><img loading="lazy" decoding="async" width="99" height="97" src="https://xn--ecka7j.biz/wp-content/uploads/2026/04/User-99-97.png" alt="" class="wp-image-13846 size-full"/></figure><div class="wp-block-media-text__content">
<p>「AIをどのように扱うべきか。」</p>
</div></div>



<div class="wp-block-media-text is-stacked-on-mobile" style="grid-template-columns:15% auto"><figure class="wp-block-media-text__media"><img loading="lazy" decoding="async" width="99" height="94" src="https://xn--ecka7j.biz/wp-content/uploads/2026/04/AI-99-94.png" alt="" class="wp-image-13859 size-full"/></figure><div class="wp-block-media-text__content">
<p>「生成結果を仮説として扱い、検証を行うことです。」</p>
</div></div>



<div class="wp-block-media-text is-stacked-on-mobile" style="grid-template-columns:16% auto"><figure class="wp-block-media-text__media"><img loading="lazy" decoding="async" width="99" height="97" src="https://xn--ecka7j.biz/wp-content/uploads/2026/04/User-99-97.png" alt="" class="wp-image-13846 size-full"/></figure><div class="wp-block-media-text__content">
<p>「引用や推論を任せると。」</p>
</div></div>



<div class="wp-block-media-text is-stacked-on-mobile" style="grid-template-columns:16% auto"><figure class="wp-block-media-text__media"><img loading="lazy" decoding="async" width="99" height="94" src="https://xn--ecka7j.biz/wp-content/uploads/2026/04/AI-99-94.png" alt="" class="wp-image-13859 size-full"/></figure><div class="wp-block-media-text__content">
<p>「存在しない情報を補完する可能性があります。」</p>
</div></div>



<div class="wp-block-group is-style-ok-box is-layout-constrained wp-block-group-is-layout-constrained">
<p>AIは判断者ではなく、補助的な生成装置として位置づけるべきである。</p>
</div>



<figure class="wp-block-image size-large"><img loading="lazy" decoding="async" width="800" height="533" src="https://xn--ecka7j.biz/wp-content/uploads/2026/04/d83fde453027bdfe5e16ae5b3fd510df-800x533.jpg" alt="" class="wp-image-13884" srcset="https://xn--ecka7j.biz/wp-content/uploads/2026/04/d83fde453027bdfe5e16ae5b3fd510df-800x533.jpg 800w, https://xn--ecka7j.biz/wp-content/uploads/2026/04/d83fde453027bdfe5e16ae5b3fd510df-500x333.jpg 500w, https://xn--ecka7j.biz/wp-content/uploads/2026/04/d83fde453027bdfe5e16ae5b3fd510df-300x200.jpg 300w, https://xn--ecka7j.biz/wp-content/uploads/2026/04/d83fde453027bdfe5e16ae5b3fd510df-768x512.jpg 768w, https://xn--ecka7j.biz/wp-content/uploads/2026/04/d83fde453027bdfe5e16ae5b3fd510df.jpg 1536w" sizes="(max-width: 800px) 100vw, 800px" /></figure>



<h2 class="wp-block-heading"><span id="toc12">まとめ：AIは嘘をつく。しかし使い方次第で武器になる</span></h2>



<div class="wp-block-group is-layout-constrained wp-block-group-is-layout-constrained">
<p>AIは構造的に虚偽情報を生成する。<br>しかし、これは欠陥ではなく、生成AIの本質的な性質である。</p>



<ul class="wp-block-list">
<li>AIの回答は仮説として扱う</li>



<li>誘導・決めつけを避ける</li>



<li>真偽の判断は利用者が行う</li>



<li>Local LLM は検証環境として有用</li>
</ul>
</div>



<p class="is-style-information-box has-box-style">AIの特性を理解し、適切に運用することで、<br>生成AIは強力なツールとして活用できる。</p>



<p></p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>「概説最終章」Ai共生：クラウドAIのとん挫をローカルAIで救え！ Gemma 2×Llama-3-Swallowで構築する、最強のプライベート・インテリジェンス</title>
		<link>https://xn--ecka7j.biz/efficiency-vs-thought-ai-symbiosis/13797/</link>
		
		<dc:creator><![CDATA[Jun-N]]></dc:creator>
		<pubDate>Mon, 09 Mar 2026 03:40:20 +0000</pubDate>
				<category><![CDATA[AI共生]]></category>
		<category><![CDATA[AI Tool]]></category>
		<category><![CDATA[AIとの共生]]></category>
		<category><![CDATA[大事なこと]]></category>
		<category><![CDATA[道具]]></category>
		<guid isPermaLink="false">https://xn--ecka7j.biz/?p=13797</guid>

					<description><![CDATA[この記事は、まだ概説の段階にある 「AIとの共生」をテーマに掲げ、Geminiとの対話を重ねてきた本連載。しかし、企業の機密情報や法的なリスクが絡む「翻訳プロジェクト」において、クラウドAI依存の限界と、プロジェクトとん [&#8230;]]]></description>
										<content:encoded><![CDATA[
<p>この記事は、まだ<span class="bold">概説の段階</span>にある</p>



<p>「AIとの共生」をテーマに掲げ、Geminiとの対話を重ねてきた本連載。しかし、企業の機密情報や法的なリスクが絡む「翻訳プロジェクト」において、クラウドAI依存の限界と、プロジェクトとん挫という現実に直面した。</p>



<p>膨大な知見が詰まった「198のスレッド」を、外部クラウドに委ねたままで良いのか？ 情報の主権は誰にあるのか？</p>



<p>　本記事では、元ITC・セキュリティプレゼンターである筆者が、その最終回答として到達した「<span class="bold">ローカルAI</span>（プライベート・インテリジェンス）」の構築プロセスを公開する。最先端のハイスペックPC「Ryzen AI 9」を土台に、Google系「<span class="bold">Gemma 2</span>」と東工大系「<span class="bold">Llama-3-Swallow</span>」という「二つの脳」を使い分け、PL法リスクに完全オフラインで立ち向かう──。クラウドAI（<span class="bold">GEMINI</span>）との「壁打ち」を超えた、真のAI共生の姿がここにある。</p>




  <div id="toc" class="toc tnt-none toc-center tnt-none border-element"><input type="checkbox" class="toc-checkbox" id="toc-checkbox-8" checked><label class="toc-title" for="toc-checkbox-8">目次</label>
    <div class="toc-content">
    <ul class="toc-list open"><li><a href="#toc1" tabindex="0">第1章：クラウドAIの「とん挫」と、突きつけられた「情報の主権」</a></li><li><a href="#toc2" tabindex="0">第2章：最強の土台（ハードウェア）と、二つの「ローカル脳」の選定</a></li><li><a href="#toc3" tabindex="0">第3章：実践：Ryzen AI 9を「最強のAIワークステーション」へ最適化する</a></li><li><a href="#toc4" tabindex="0">第4章：198スレッドをAIが迷わない「法的に強固なナレッジ資産」へ昇華させる</a></li><li><a href="#toc5" tabindex="0">第5章：結論：翻訳PRJ再開に向けた、情報の主権の確立</a></li><li><a href="#toc6" tabindex="0">課題</a></li></ul>
    </div>
  </div>

<h2 class="wp-block-heading"><span id="toc1">第1章：クラウドAIの「とん挫」と、突きつけられた「情報の主権」</span></h2>



<ul class="wp-block-list">
<li><strong>Gemini</strong><strong>との対話の限界:</strong> <del>翻訳</del>プロジェクトにおける<del>稚拙な記述と</del>、とん挫の現実。</li>



<li><strong>198スレッドという資産:</strong> 外部クラウド（Gemini）上に蓄積された膨大な知見を、どう守り、どう活かすか。（198のスレッド間には、<span class="bold">スレッド分断</span>という限界（<span class="bold">壁</span>：セキュリティとプライバシーというの<span class="bold">名の下の</span>））<br>Googleには要望書として送ってはいるものの：彼らが「スレッドを完璧に紐付ける」機能を全ユーザーに開放するのは、サーバー負荷とプライバシーの観点からまだ時間がかかる･･･これがクラウド依存の限界。<br>GEMINIを使ったことがある方ならわかる、あれ！これさっき言ったよね？この間言ったよね？といったことが、<span class="bold">使えば使うほど</span>でてくる。</li>



<li><strong>元ITCの決断:</strong> クラウドへの依存を脱却し、ローカル環境で「情報の主権」を取り戻すことの必要性。</li>
</ul>



<h2 class="wp-block-heading"><span id="toc2">第2章：最強の土台（ハードウェア）と、二つの「ローカル脳」の選定</span></h2>



<ul class="wp-block-list">
<li><strong>Ryzen AI 9 HX 470</strong><strong>の導入:</strong> 55 TOPSのNPUと32GBメモリという、ローカルAIを爆速で動かすための強力な土台。</li>



<li><strong>「使い分け」の戦略:</strong><ul><li><strong>Gemma 2 (Google</strong><strong>系):</strong> GeminiのDNAを受け継ぐ、自然で滑らかな日本語による「清書」役。</li></ul>
<ul class="wp-block-list">
<li><strong>Llama-3-Swallow (</strong><strong>東工大系):</strong> 技術的な日本語や法規制を深く理解する、「技術・PL法分析」役。</li>
</ul>
</li>



<li><strong>コストの現実:</strong> 初期投資（PC代）のみ、運用は電気代のみ。API課金からの解放。（実はこのPCの入手にも、入手過程の話(実質30K￥未満の出費だけ)がある･･･この話はまた別の機会で）</li>
</ul>



<h2 class="wp-block-heading"><span id="toc3">第3章：実践：Ryzen AI 9を「最強のAIワークステーション」へ最適化する</span></h2>



<ul class="wp-block-list">
<li><strong>内蔵SSDとUSB4外付けSSDの使い分け:</strong> システムを汚さず、巨大なモデルファイルを外付けSSDへ保存する設定（LM Studio）。</li>



<li><strong>NPU</strong><strong>最優先割り当て:</strong> AI Engineの設定で「GPU Offload」を「Max」にし、Ryzen AI 9のパワーをLM Studioにフルコミットさせる。</li>



<li><strong>「量子化（Quantization）」の正体:</strong> 量子コンピュータではない。精度を維持したままモデルを圧縮し、32GBメモリでの高速動作を実現する技術。</li>
</ul>



<h2 class="wp-block-heading"><span id="toc4">第4章：198スレッドをAIが迷わない「法的に強固なナレッジ資産」へ昇華させる</span></h2>



<ul class="wp-block-list">
<li><strong>マークダウンテンプレートの作成:</strong> AIが瞬時に検索・理解できる構造データの構築。</li>



<li><strong>ポゴピン・リチウムイオン電池のリスク具体化:</strong> ハードウェア製品で最も事故リスクが高いコンポーネントの追加。</li>



<li><strong>国際法規制への準拠:</strong> 日本のPL法に加え、米国法（ANSI Z535）やEU法（GPSR）を意識した分析軸の組み込み。外部クラウドでは不可能な、完全オフラインでの法的リスク分析へ。</li>
</ul>



<h2 class="wp-block-heading"><span id="toc5">第5章：結論：翻訳PRJ再開に向けた、情報の主権の確立</span></h2>



<ul class="wp-block-list">
<li><strong>正常な管理の下で再開されたら:</strong> その時こそ、今回構築した「完全プライベート・インテリジェンス」が、とん挫の原因を排除する最強の武器になる。</li>



<li><strong>当面の「宿題」:</strong> 198スレッドの棚卸しとマークダウン化（情報の主権確保）、ローカルRAGの環境構築、セキュリティ運用ルールの策定。</li>
</ul>



<h2 class="wp-block-heading"><span id="toc6">課題</span></h2>



<div class="wp-block-group is-style-information-box is-layout-constrained wp-block-group-is-layout-constrained">
<p>AI共生テーマの全体像のまとめ</p>
</div>



<p>本当の、0章から始まる198スレッドに跨る文書の整理・統合、そして公開<br>（実は、この概説公開前に、既に0章からの記事はWord文書上には存在している）</p>



<figure class="wp-block-image size-large"><img loading="lazy" decoding="async" width="800" height="436" src="https://xn--ecka7j.biz/wp-content/uploads/2026/03/Gemini_Generated_Image_lagrerlagrerlagr-800x436.jpg" alt="AI共生" class="wp-image-13796" srcset="https://xn--ecka7j.biz/wp-content/uploads/2026/03/Gemini_Generated_Image_lagrerlagrerlagr-800x436.jpg 800w, https://xn--ecka7j.biz/wp-content/uploads/2026/03/Gemini_Generated_Image_lagrerlagrerlagr-500x273.jpg 500w, https://xn--ecka7j.biz/wp-content/uploads/2026/03/Gemini_Generated_Image_lagrerlagrerlagr-300x164.jpg 300w, https://xn--ecka7j.biz/wp-content/uploads/2026/03/Gemini_Generated_Image_lagrerlagrerlagr-768x419.jpg 768w, https://xn--ecka7j.biz/wp-content/uploads/2026/03/Gemini_Generated_Image_lagrerlagrerlagr.jpg 1408w" sizes="(max-width: 800px) 100vw, 800px" /><figcaption class="wp-element-caption">AI共生：このアイキャッチ画像もAIが生成したもの Nano Banana<br> </figcaption></figure>



<div class="wp-block-cocoon-blocks-blogcard blogcard-type bct-none">

<a href="https://xn--ecka7j.biz/toolboox/chatgpt/13642/" title="GEMINIにブログのアイキャッチ画像を頼んだら「パスタ」だった……カオス!!! /// 生成AIとの向き合い方" class="blogcard-wrap internal-blogcard-wrap a-wrap cf"><div class="blogcard internal-blogcard ib-left cf"><div class="blogcard-label internal-blogcard-label"><span class="fa"></span></div><figure class="blogcard-thumbnail internal-blogcard-thumbnail"><img loading="lazy" decoding="async" width="320" height="180" src="https://xn--ecka7j.biz/wp-content/uploads/2026/02/image-00-320x180.jpg" class="blogcard-thumb-image internal-blogcard-thumb-image wp-post-image" alt="" srcset="https://xn--ecka7j.biz/wp-content/uploads/2026/02/image-00-320x180.jpg 320w, https://xn--ecka7j.biz/wp-content/uploads/2026/02/image-00-120x68.jpg 120w, https://xn--ecka7j.biz/wp-content/uploads/2026/02/image-00-160x90.jpg 160w" sizes="(max-width: 320px) 100vw, 320px" /></figure><div class="blogcard-content internal-blogcard-content"><div class="blogcard-title internal-blogcard-title">GEMINIにブログのアイキャッチ画像を頼んだら「パスタ」だった……カオス!!! /// 生成AIとの向き合い方</div><div class="blogcard-snippet internal-blogcard-snippet">Windows 11のアプデ検証中に起きた、生成AI（Gemini）との爆笑＆困惑の格闘記。アイキャッチを頼んだらなぜか「パスタ」が出現？謎の中国語、欧米人の顔写真……カオスなやり取りから見えてきた、AIを「有能な秘書」にするための生存戦略を公開。</div></div><div class="blogcard-footer internal-blogcard-footer cf"><div class="blogcard-site internal-blogcard-site"><div class="blogcard-favicon internal-blogcard-favicon"><img loading="lazy" decoding="async" src="https://www.google.com/s2/favicons?domain=https://xn--ecka7j.biz" alt="" class="blogcard-favicon-image internal-blogcard-favicon-image" width="16" height="16" /></div><div class="blogcard-domain internal-blogcard-domain">イイネ.biz</div></div><div class="blogcard-date internal-blogcard-date"><div class="blogcard-post-date internal-blogcard-post-date">2026.02.16</div></div></div></div></a>
</div>



<div class="wp-block-cocoon-blocks-blogcard blogcard-type bct-none">

<a href="https://xn--ecka7j.biz/toolboox/file-system-access-api/13748/" title="「効率」を急がない。File System Access APIを前に、私が「悩む時間」を捨てない理由" class="blogcard-wrap internal-blogcard-wrap a-wrap cf"><div class="blogcard internal-blogcard ib-left cf"><div class="blogcard-label internal-blogcard-label"><span class="fa"></span></div><figure class="blogcard-thumbnail internal-blogcard-thumbnail"><img loading="lazy" decoding="async" width="320" height="180" src="https://xn--ecka7j.biz/wp-content/uploads/2026/02/File-System-Access-API-00-320x180.jpg" class="blogcard-thumb-image internal-blogcard-thumb-image wp-post-image" alt="" srcset="https://xn--ecka7j.biz/wp-content/uploads/2026/02/File-System-Access-API-00-320x180.jpg 320w, https://xn--ecka7j.biz/wp-content/uploads/2026/02/File-System-Access-API-00-120x68.jpg 120w, https://xn--ecka7j.biz/wp-content/uploads/2026/02/File-System-Access-API-00-160x90.jpg 160w" sizes="(max-width: 320px) 100vw, 320px" /></figure><div class="blogcard-content internal-blogcard-content"><div class="blogcard-title internal-blogcard-title">「効率」を急がない。File System Access APIを前に、私が「悩む時間」を捨てない理由</div><div class="blogcard-snippet internal-blogcard-snippet">File System Access APIの基本（メリット・デメリット・使い方）を解説しつつ、AIとの対話から得た「作業の自動化 vs 人間の思考時間」の重要性について深掘りします。効率化だけが正解ではない、納得の作業フローを見つけるためのヒントをまとめました。</div></div><div class="blogcard-footer internal-blogcard-footer cf"><div class="blogcard-site internal-blogcard-site"><div class="blogcard-favicon internal-blogcard-favicon"><img loading="lazy" decoding="async" src="https://www.google.com/s2/favicons?domain=https://xn--ecka7j.biz" alt="" class="blogcard-favicon-image internal-blogcard-favicon-image" width="16" height="16" /></div><div class="blogcard-domain internal-blogcard-domain">イイネ.biz</div></div><div class="blogcard-date internal-blogcard-date"><div class="blogcard-post-date internal-blogcard-post-date">2026.02.23</div></div></div></div></a>
</div>
]]></content:encoded>
					
		
		
			</item>
	</channel>
</rss>
