まとめ
WordPressで作成してあるブログを、主要な生成AIから読まれないようにしたい。
そのために、サイト内の Public_html\ドメイン名 ディレクトリに robots.txt を作成して、中に所定の記述をした。
やりたいこと
WordPressで作成してあるブログを、主要な生成AIから読まれないようにしたい。
環境
- レンタルサーバー:ConoHa WING
- WordPress のバージョン:6.8代
- その他:1つの契約の中にブログが複数あり
やったこと
サイト内の Public_html\ドメイン名 ディレクトリに robots.txt を作成して、中に所定の記述をした。
流れは以下の通り。
ConoHaコントロールパネルにログイン
[サイト管理]に入り、必要に応じて目的のサイトに[切り替え]る。
[ファイルマネージャー]をクリック
Public_html\ドメイン名 と辿っていく。
そこに、robots.txt を新規作成する。
robots.txt の中身を編集し、以下を記述して保存。
ここには、Gemini など今現在主要であると思われる生成AIによる読みとりのみを不許可としたい旨を書いた。
ser-agent: GPTBot Disallow: / User-agent: Google-Extended Disallow: / User-agent: xai-crawler Disallow: / User-agent: ClaudeBot Disallow: / User-agent: Amazonbot Disallow: / User-agent: * Allow: /
各クローラーが上記の記述に従ってくれるのであれば、それらには読み取られなくなる。
従ってくれるかどうかは、各クローラー次第らしい。
結果テスト
- ウェブブラウザーでブログのURL/robots.txt にアクセスし、上記のテキストが見えることを確認する。
- ConoHaコントロールパネル —[サイト管理]— 必要に応じて目的のサイトに[切り替え]—[アクセス解析]—[ログ]—[アクセスログ]にて、ログを見てみたりする。


