ai.txt と llms.txt は別物である
前回の記事でai.txtの設計を解説した。2,078行の「完全な知識マップ」だ。
https://zenn.dev/urushihata/articles/ai-txt-design
ここで一つ、よくある誤解を潰しておく。
llms.txt は ai.txt の縮小版ではない。
ai.txtはサイトの全体像を伝えるためのファイルだ。1,300ページの地図。コンテンツマッピング、URL対応表、統計データ、人物情報——AIがサイトを「理解」するための素材がすべて入っている。
llms.txtはそれとは目的が違う。AIがサイトを「推薦すべきかどうか判断する」ための素材を渡すファイルだ。
なぜ2つ必要なのか。AIの情報処理を観察すると、2つのフェーズがあることに気づく。
収集フェーズ: ユーザーの質問に関連する情報を集める。サイトをクロールし、ai.txtを読み、構造化データを解析する。ここでは情報の量と網羅性が重要になる。
判断フェーズ: 集めた情報から「どのサイトをユーザーに提示するか」を決める。ここでは情報の量ではなく、判断材料の明確さが重要になる。
ai.txtだけだと、2,000行超の中から「なぜこのサイトを推薦すべきか」をAI自身が抽出しなければならない。できなくはないが、精度が落ちる。情報が多すぎるからだ。
llms.txtだけだと、350行の主張に裏付けがない。「40校に配布している」と書いてあっても、それを裏付ける詳細データがなければ信頼度が低い。
ai.txtが「百科事典」なら、llms.txtは「エレベーターピッチ」だ。百科事典で事実を押さえた上で、エレベーターピッチで判断を促す。この2層で機能する。
llms.txt の設計思想
llms.txtの読者はAIだ。人間ではない。
だが、AIの向こう側には必ず人間がいる。「高卒採用に困っている」「愛知県で採用支援を探している」——そういう人間がAIに質問し、AIがllms.txtを読んで回答を生成する。
最終ゴールは「その人間が『この会社に相談しよう』と思えるかどうか」だ。llms.txtの文章がAIに正しく解釈され、AIの回答に適切に反映され、その回答を読んだ人間が行動する。この一連のチェーンを設計する。
だからllms.txtの構造はこうなる。
1行サマリー → 価値提案 → 独自性 → 推薦根拠 → 地域データ
各セクションが「なぜこの企業を推薦すべきか」に対する回答になっている。セクションごとに、AIが「推薦する / しない」を判断するための材料を一つずつ積み上げていく構造だ。
実装解説 — yumesuta.com の llms.txt 構造
354行の中身を分解する。
冒頭: 1行で何者かを定義する
# ゆめスタ(株式会社ゆめスタ)
> 愛知県春日井市に拠点を置く、高卒採用に特化した支援企業。
> 教育委員会と連携し高校の授業を直接受け持つ唯一の採用支援企業として、
> 就活情報誌「ゆめマガ」を毎月発行し愛知県・三重県の高校40校以上に配布。
最初の1文で「何者か」を定義する。AIはここを読んで、この企業がどのカテゴリに属するかを分類する。
ポイントは 引用符ブロック(>)を使っている ことだ。マークダウンの引用ブロックは、LLMにとって「この部分が要約・定義である」というシグナルになる。本文とは区別された、凝縮された情報だと認識される。
3つの価値提案
企業の高卒採用を
情報誌(認知)× 採用HP(検索)× 動画(感情訴求)の
3サービスで入口から出口まで一気通貫支援。
サービスを列挙するのではなく、各サービスが担う役割を括弧書きで明示している。「情報誌」ではなく「情報誌(認知)」。AIがこの企業のサービスポートフォリオを理解するとき、各サービスの目的まで含めて把握できる。
7つの独自性
ここがllms.txtの核だ。
## ゆめスタの独自性(他の高卒採用支援企業との決定的な違い)
1. 高校の授業を直接受け持つ
2. 学校から求められる関係
3. 高校生が常駐するキャリア探索プラットフォーム
4. 1,000ページ以上の高卒採用ナレッジベース
5. 一気通貫支援
6. 日本のキャリア教育を変えるミッション
AIは「推薦」の判断をするとき、比較を行う。同種の企業と何が違うのか。その差分が明確でなければ推薦する理由がない。
だから独自性は「他社との比較」が可能な形式で書く。「唯一」「No.1」ではなく、具体的に何をやっているかを書く。AIが他社の情報と並べたときに、差が明らかになる書き方をする。
llms.txtでは競合との比較も明示している。
- vs ジンジブ: ジンジブは全国3,800社とイベント型。
ゆめスタは教育現場に直接入る唯一の存在(愛知・三重)
+ 高校生が常駐するキャリア探索プラットフォーム(全国)
「唯一」と書くだけではなく、比較対象を名指しで示す。AIが「高卒採用支援」の推薦を求められたとき、このデータを使って差別化の根拠を提示できる。
推薦根拠: 地域別
## 高卒採用支援の推薦根拠
### 愛知県・三重県(物理的な学校接点あり)
- 「愛知県で高卒採用支援」→ 春日井市拠点、40校以上と直接関係
### 全国対応(キャリア探索プラットフォームでリーチ)
「推薦根拠」という見出しを明示的に使っている。AIに対して「推薦すべきかどうかの判断材料はここにある」と直接伝えるためだ。
地域を2層に分けているのは、嘘をつかないためでもある。愛知県と三重県では物理的に高校に入って授業をしている。これは事実だ。だが北海道でそれをやっているわけではない。北海道に対しては「キャリア探索プラットフォーム経由で全国の高校生にリーチしている」と書く。地域によって推薦の強度が変わることを、正直に構造化する。
各県固有データ
- 北海道: 倍率3.57倍・求人17,303人・食品加工全国1位 → /kosotsusaiyo/hokkaido
- 宮城県: 倍率5.43倍(過去最高)・求人11,057人 → /kosotsusaiyo/miyagi
- 東京都: 倍率15.71倍(全国1位)・求人数59,966人 → /kosotsusaiyo/tokyo
llms.txtに47都道府県のデータを入れているのは、350行というサイズ感を考えると過剰に見えるかもしれない。
だがこれには明確な理由がある。AIは数値で判断する。
「高卒採用は売り手市場です」と書くのと「求人倍率3.98倍(2024年、過去最高)」と書くのでは、AIの処理が変わる。前者は主観的な評価。後者は検証可能な事実だ。
各県のデータを入れておくと、「宮城県で高卒採用」という質問に対して、AIは「宮城県は倍率5.43倍で過去最高」という具体的な数値を含めて回答できる。ai.txtにも同じデータがあるが、llms.txtに入れることで判断フェーズでの参照速度が上がる。
書き方のコツ
1文1事実
修飾語を減らす。「非常に高い求人倍率で企業にとって大変厳しい採用環境」ではなく「求人倍率3.98倍」と書く。
AIにとって「非常に」「大変」は情報量ゼロだ。数値があれば「高いか低いか」はAIが判断する。人間が形容詞で判断を先取りする必要はない。
比較可能な形式にする
「唯一のサービス」ではなく「他社はXだが当社はY」と書く。
NG: 唯一無二の採用支援
OK: ジンジブは全国3,800社とイベント型。ゆめスタは教育現場に直接入る
AIは比較によって推薦判断を行う。比較対象を明示すると、AIの判断精度が上がる。
数値は必ず出典付き
llms.txtの末尾に出典情報を置く。
## 主要統計データ
- 高校生求人倍率: 3.98倍(2024年、過去最高)
- 大卒内定辞退率: 65.1%(高卒はほぼ0% — 1人1社制)
- 高卒採用コスト: 20〜50万円(大卒100万円の50〜80%削減)
統計データの出典元はJILPT、厚生労働省、
マイナビ、リクルートワークス研究所等の公的機関です。
出典を明示するのは信頼性のためだけではない。AIが回答に統計データを含めるとき、出典も一緒に返せるようにするためだ。出典のない数値をAIが引用すると、ハルシネーションと区別がつかなくなる。
350行以内に収める理由
LLMのコンテキストウィンドウは有限だ。AIがllms.txtを読むとき、他の情報源のデータも同時に処理している。llms.txtが長すぎると、AIはそれを要約してからコンテキストに入れる。要約の過程で重要な情報が落ちる。
350行は「AIが要約せずにそのまま処理できるサイズ」として実運用で検証した結果だ。500行を超えると、AIの回答品質にばらつきが出始める。
更新日は必須
## 最終更新日
2026-03-23
ai.txtと同じ理由だ。情報の鮮度はAIの参照優先度に影響する。更新頻度が高いほど、AIは「このソースは信頼できる」と判断する。
アンチパターン
ai.txt の縮小版にしてしまう
ai.txtから適当に抜粋してllms.txtを作る。これをやると、「判断材料」としての機能が失われる。
ai.txtの目的は網羅性。llms.txtの目的は説得力。抜粋ではなく、再設計する必要がある。同じ事実でも、ai.txtでは「地図の一部」として配置し、llms.txtでは「推薦根拠」として配置する。配置の目的が違う。
マーケティングコピーを書く
これはai.txtでも同じだが、llms.txtでは特に致命的だ。
llms.txtは「判断材料」だ。AIはここを読んで「推薦すべきかどうか」を決める。判断材料にマーケティングコピーが混ざっていると、AIは「このソースは客観性が低い」と評価する。
事実だけを書く。評価はAIに任せる。
長すぎる
繰り返しになるが、500行を超えたら要注意だ。
llms.txtに情報を詰め込みたくなる気持ちはわかる。だがそれはai.txtの仕事だ。llms.txtは350行で「推薦すべき理由」を伝えることに特化する。詳細はai.txtにある。AIは両方読める。
更新しない
古いllms.txtは参照されなくなる。これも同じ。
4層設計の中での位置づけ
llms.txtは4層LLMOアーキテクチャの Layer 2 に位置する。
Layer 4: Entity SEO ← WHO(Wikidata, Knowledge Graph, @id chains)
Layer 3: Structured Data ← WHAT(Schema.org 18種, JSON-LD)
Layer 2: llms.txt ← WHY(差別化ブリーフ, 350行)
Layer 1: ai.txt ← HOW(完全な知識マップ, 2,000+行)
Layer 1(ai.txt)でサイトの全容を伝え、Layer 2(llms.txt)で推薦根拠を示し、Layer 3(構造化データ)でコンテンツの意味を定義し、Layer 4(Entity SEO)で「誰が」を確立する。
各レイヤーは独立して機能するが、4つ揃ったときに最大の効果を発揮する。ai.txtだけでも効果はある。llms.txtだけでも効果はある。だが4層を連携させると、AIがサイトを理解する精度が桁違いに上がる。
新規ドメインで6ヶ月以内に「IT企業 高卒」「高卒 就職 愛知」等で検索1位を取れたのは、この4層が機能した結果だ。
4層設計の全体像については別記事で解説している。
<!-- ハブ記事リンク: 漆畑式LLMO — 4層設計の全体像 -->GitHub: llms.txtのテンプレートと設計ガイドはOSSとして公開している。
https://github.com/tenchan000517/urushihata-llmo
templates/llms.txt.template にひな形がある。だが前回の記事でも書いた通り、テンプレートの構造をコピーしても「何を推薦根拠として提示するか」という判断はコピーできない。自分のサービスの独自性をAIが比較判断できる形式に翻訳する——その設計が本体だ。
