WordPressサイトを主要な生成AIから読まれないようにする

ソフトウェア
ConoHaファイルマネージャーで見たところ

まとめ

WordPressで作成してあるブログを、主要な生成AIから読まれないようにしたい。
そのために、サイト内の Public_html\ドメイン名 ディレクトリに robots.txt を作成して、中に所定の記述をした。

やりたいこと

WordPressで作成してあるブログを、主要な生成AIから読まれないようにしたい。

環境

  • レンタルサーバー:ConoHa WING
  • WordPress のバージョン:6.8代
  • その他:1つの契約の中にブログが複数あり

やったこと

サイト内の Public_html\ドメイン名 ディレクトリに robots.txt を作成して、中に所定の記述をした。
流れは以下の通り。

ConoHaコントロールパネルにログイン

[サイト管理]に入り、必要に応じて目的のサイトに[切り替え]る。

[ファイルマネージャー]をクリック

Public_html\ドメイン名 と辿っていく。

そこに、robots.txt を新規作成する。

ConoHaファイルマネージャーで見たところ

robots.txt の中身を編集し、以下を記述して保存。
ここには、Gemini など今現在主要であると思われる生成AIによる読みとりのみを不許可としたい旨を書いた。

ser-agent: GPTBot
Disallow: /

User-agent: Google-Extended
Disallow: /

User-agent: xai-crawler
Disallow: /

User-agent: ClaudeBot
Disallow: /

User-agent: Amazonbot
Disallow: /

User-agent: *
Allow: /

各クローラーが上記の記述に従ってくれるのであれば、それらには読み取られなくなる。
従ってくれるかどうかは、各クローラー次第らしい。

結果テスト

  • ウェブブラウザーでブログのURL/robots.txt にアクセスし、上記のテキストが見えることを確認する。
  • ConoHaコントロールパネル —[サイト管理]— 必要に応じて目的のサイトに[切り替え]—[アクセス解析]—[ログ]—[アクセスログ]にて、ログを見てみたりする。
タイトルとURLをコピーしました