SEO(検索エンジン最適化)を理解する最初のステップは「検索エンジンを知ること」から始まる。

本記事では、検索エンジンの基本的な仕組みについて解説する。

検索エンジンには、「ディレクトリ型検索エンジン」と「ロボット型検索エンジン」の2種類が存在する。

ディレクトリ型検索エンジン

検索エンジンの運営会社が、人力で厳選したサイトのみを登録・分類することで構築したウェブディレクトリ内を検索する。

目視でコンテンツの良し悪しを判断するため、検索エンジンにインデックスされるコンテンツの質は高くなるものの、2008年の時点で世界のWebページ総数は1兆以上存在しており、これらを目視で判別することはもはや不可能である。

よって、現在は次の「ロボット型検索エンジン」が主流である。

ロボット型検索エンジン

ロボット型検索エンジンは、それまで人力で行っていたページの登録・分類をロボットにより自動的に行う検索エンジンである。

ディレクトリ型検索エンジンよりも遥かに効率的にページをインデックスすることが可能であるが、ページの良し悪し(=検索順位)を決める基準(アルゴリズム)を悪用されるケースが多々あり、日々アルゴリズムのアップデートとその克服のいたちごっこが続いている。

ロボット型検索エンジンの主な仕組みは以下の通りである。

クローリング

検索エンジンは、あらかじめインターネット上にあるWebページの情報を収集して分類しておき、その中からデータを探す仕組みになっている。

Webページを次々に巡回して情報を取得する機能のことを「クロール」といい、Google ではWebクローラと呼ばれるソフトウェアを使用して公開されているWebページを探す。

クローラはユーザーがWeb上でコンテンツを閲覧する時と同じように、Webページを見てページ上のリンクをたどり、リンクからリンクへ移動し、Webページに関するデータをGoogleのサーバーに蓄積する。

インデックス

クローラが特定のWebページを見つけると、ユーザーがインターネット検索を行った時と同様にWebページのコンテンツが表示される。

その中でキーワードやWebサイトの新しさといった主要なシグナルに注目し、「検索インデックス」にそのすべての情報を記録していく。

ランキングアルゴリズム

検索結果の順位を決める検索アルゴリズムには200を超える要素があると言われているが、特に「RankBrain(ユーザーが入力したキーワードとWebページの関連性を判断するAIベースの検索アルゴリズム)」はGoogleの検索アルゴリズムでも特に重要視されている。

RankBrainはユーザーが入力したキーワードからユーザーの意図を探って関連するWebページを探す役割を担っている。

つまるところ、高品質なコンテンツ=ユーザーにとって価値があるページ=ユーザーが求めている情報が掲載されているページであり、ユーザーの検索意図に対応するコンテンツの作成が求められている。

ランキングアルゴリズムはブラックボックスではあるが、どのようなページ・コンテンツが高品質あるいは低品質と評価されるかは、大まかに以下のように分類できる。

高品質なコンテンツの定義

検索意図との関連性
  • 検索クエリと同じキーワードがWebページに含まれている
専門性(独自性)
  • 一定以上のボリュームで、同じ分野の、他の記事に出現しない希少性が高い単語を使用している
権威性
  • テーマが特化されていて、コンテンツの質と量が充実している
信頼性
  • 運営者情報を徹底的に開示している
ユーザービリティ
  • Webページを異なるブラウザで正しく表示できる

  • パソコンやタブレット、スマートフォンなどのデバイスで正しく表示される
  • 速度の遅いインターネットを使用しているユーザーでもストレスなくページを読み込める

低品質なコンテンツの定義

有料リンク
  • SEO目的の不自然なサイトから被リンクを購入して評価を高めようとする
クローキング
  • クローラがWebサイトに訪問した際、ユーザーが見るものとは異なる内容のWebページを閲覧させる
ワードサラダ
  • 自動生成のテキストコンテンツでキーワード単位の評価を稼ごうとする
隠しリンク・テキスト
  • フォントサイズを0にする

  • 背景と同じ文字色を使用する
  • CSSを使用して画面上に表示させなくする
コピーコンテンツ
  • あるページに書かれた内容をそのまま他のページにも使用する

関連記事:SEOの歴史と未来の考察