SEO対策とは?無料で学ぼう!上位表示の方法

作成日(公開日):
最終更新日:
SEO対策とは?無料で学ぼう!上位表示の方法

WEBサイトの運営に携わる人なら必ずといっていいほど耳にするワード、それが「SEO」です。
何となくSEOという言葉を使っているけど、検索エンジンの検索結果に上位表示させるための取り組みがSEO。といわれてもピンと来ない人も多いはずです。

WEBサイトやブログの運営を始めてから日が浅いうちは、ネットや書籍などを見ながら手探り状態でSEOを実施してしまいがちです。ただ、そもそもSEOって何なのか?といった疑問を抱えながらでは、今やっていることが正しいことなのか、あるいは施策に見合う効果がでているのかさえ把握することができません。

今回は、これからSEOの勉強をしていく方に向けに、SEO全般に関する基本的な知識をわかりやすく図解付きでまとめました。キーワードの選定方法やツールの使い方、Googleの動向、考え方までSEO周りの情報を幅広く網羅した内容になっているので、ぜひご参考ください。

1.

SEO対策の定義や意義

SEOに関する情報は、WEB上でたくさん紹介されています。それでも正直、情報量が多すぎて何のことだかさっぱりわからない・・・。と頭を抱えている人も多いのではないでしょうか。
まずは、SEOというワードを初めて聞いた人でもわかるように、そもそもSEOとは何か?ということからご紹介します。

1-1.

SEOの意味について

SEOとは、検索エンジン最適化(Search Engine Optimization)の略称で、エス・イー・オーと読みます。

 

これだけだと意味がよくわからないので、まずは普段WEB上で何か調べものをするときのことを思い浮かべてみてください。
私たちは、ネットサーフィンをしたり、何か調べ物をしたり、あるいはネット通販で物を買うときにGoogleやYahoo!を使います。このような普段からよく使うGoogleやYahoo!などの検索システム、そう、これこそが検索エンジンです。

 

検索エンジン最適化とは、GoogleやYahoo!などの主要な検索エンジンでの検索結果で、WEBサイトの順位を改善し、露出を増やすための取り組みです。

 

もっと簡単に言うと、
あなたのWEBサイトを検索結果の1ページ目の上位に表示させるための方法
それがSEOです。

 

1-2.

なぜSEO対策が必要なのか?何のためにするのか?

最初に、しっかり理解しておきたいことがあります。
それは、SEOによる検索順位の向上は、あくまで手段であって、目的ではないということです。

 

SEOの目的は、最初にWEBサイトやブログを作成したときの目的や目標を達成することです。
つまり、SEOにより検索順位が上がってWEBサイトの露出が増えて、検索エンジンからのアクセスが増加したとしても、WEBサイトを運営している目的が達成されなければ意味がないのです。

 

例えば、SEOによって実現できるWEBサイトの目的には、以下のようなことです。

 

・会社の認知度を高めたい
・商品やサービスの売上をアップしたい
・来客数を増やしたい
・広告収入を増やしたい
・ブランドのイメージを向上させたい
・資料請求やお問い合わせを増やしたい
・多くの人とコミュニケーションを図りたい
・役立つ情報を多くの人に広めたい

このような目的や目標を達成する手段としてSEOは効果的な手法とされていて、これをSEO対策といいます。

 

2.

検索エンジンの仕組み

ここまで何度も検索エンジンという言葉が出てきましたが、WEBサイトが検索エンジンの検索結果に表示されるまでの仕組みをきちんと理解している人はそれほど多くないのではないでしょうか。
検索エンジンの仕組みを知ることは、WEBサイトやブログを運営する上で非常に役に立つ知識なので、ここでしっかり理解しておきましょう。

 

2-1.

検索エンジンとは?

検索エンジンとは、調べ物をしている時や困った時などに、キーワードで検索して必要な情報をインターネット上に表示してくれるシステムのことです。

 

例えば、東京で人気のレストランを探しているときは、検索エンジンに「東京 人気レストラン」といったキーワードを入れて検索をします。すると、検索結果には東京で人気のレストランに関する情報がたくさん表示されます。

 

このように、ユーザーが調べたい情報に対して、最適な情報を表示するための仕組みが検索エンジンです。

 

現在、使用されている検索エンジンの代表格は以下の3つです。

 

  • Google
  • Yahoo!
  • Bing

 

それぞれの検索エンジンについて、簡単に紹介します。

 

▶Google

世界的に有名な検索エンジンが、Google(グーグル)です。
世界の検索エンジンのシェア率はGoogleの検索エンジンだけで9割を超えています。また、日本国内におけるGoogleの検索エンジンのシェア率も実質9割以上を占めているとされています。(現在Yahoo!もGoogleの検索エンジンを使用している為)
このことから、効果的なSEOを行うためには、Googleの検索アルゴリズムに注目してWEBサイトを運営することが必要不可欠であると考えられています。

 


▶Yahoo!

検索エンジンの日本におけるシェア率の第二位は、Yahoo!(ヤフー)です。
Yahoo!検索エンジンのシェア率は3~5割ほどとされていますが、2011年12月1日からGoogleのアルゴリズムを採用したことで、現在はGoogleが国内の検索エンジンシェア率の実質9割以上を保持していることになります。
GoogleとYahoo!はユーザー層などの違いもありますが、どちらもGoogleの検索テクノロジーを採用しているので、基本的にはGoogleの検索エンジンに対してSEO対策をすることで結果的にYahoo!検索のSEO対策になります。になります。

 


▶Bing

日本国内の検索エンジンのシェア率の第三位は、Bing(ビング)です。
GoogleとYahoo!で9割以上のシェア率を占めていることから、Bingの日本国内におけるシェア率は約5~9%ほどです。ただ、台湾や香港におけるBingのシェア率は15~17%ほどとされる調査結果もあるので、アジア圏を意識したWEBサイトを運営している人は、知識としてSEO対策の方法を知ることは無駄にはならないはずです。


2-2.

サイトが検索結果に表示されるまでの過程

検索エンジンは、私たちが知りたい情報や問題が解決されるような適切な情報を検索結果に表示してくれるシステムですが、一体どのようにしてWEBサイトが検索結果に表示されるのでしょうか。
ここでは、WEBサイトが検索結果に表示されるまでの仕組みをわかりやすく解説します。

▶検索結果が表示されるまでの3つの過程

Google、Yahoo!、Bingなどの主要検索エンジンは、ロボット型検索エンジンが採用されています。ロボット型検索エンジンは、WEB上に存在するWEBサイトのページ情報を集めてデータベース化するシステムのことです。

 

ユーザーがGoogleやYahoo!などの検索エンジンを使って検索すると、あらかじめ集められたデータベースに問い合わせられて、ユーザーが使った検索キーワードに対して適切な情報を持っているWEBサイトが検索結果に表示されるようになります。

 

検索エンジンがWEBサイトを検索結果に表示させるまでの仕組みは、以下のような3つの過程で成り立っていることを覚えておきましょう。

 

(1)クローリング
(2)インデックス
(3)クエリプロセス

 

(1)クローリング

検索エンジンの情報収集ロボットであるクローラーは、周期的にWEB上を巡回してWEBサイトを発見します。これをクローリングといいます。
WEBサイトやページを作っても、クローラーに発見されなければWEB上に存在しない扱いになってしまうため、できるだけ早くクローラーに発見されるための工夫が必要です。

 

クローラーの巡回しやすさをクローラビリティといいます。このクローラビリティが改善されるとクローラーの回遊率が向上し、WEBサイトの情報が適切に伝達されるようになります。このようなクローラビリティ改善のために行う工夫もSEO施策の一つです。

 

(2)インデックス

クローリングで発見されたWEBサイトの情報は、検索エンジンのデータベースに送られて保管されます。これをインデックスといいます。ちなみに、インデックスにデータが保管されることを、インデックスされる、インデックス化、インデクシング(indexing)と呼びます。

 

検索エンジンは、WEB上で増え続ける膨大な量の情報をインデックスすることでデータベース化しています。インデックスされたことでようやく検索エンジンにWEBサイトの情報が認められたことになり、検索結果に反映されます。

 

ただ、検索エンジンはWEB上のすべての情報をインデックスするわけではありません。
クローラーが巡回して、重要だと判断された情報だけがインデックスされるので、あなたのWEBサイトを検索結果に反映させるには検索エンジンに価値のあるサイト(ページ)と思ってもらう事が必須というわけです。

 

(3)クエリプロセス

検索エンジンは、インデックスされた情報を相対的に評価して、検索順位を決めて検索結果として表示させます。
これをクエリプロセス、あるいはランク付けといい、検索エンジンの検索順位を決めるために用いられる評価の基準や評価の算出方法のことをアルゴリズムといいます。

 

▶Googleの検索アルゴリズムとは?

ユーザーが求めているサイトを評価して、検索結果における検索順位を決めるための要素として用いられるGoogle独自の評価基準のことをGoogleの検索アルゴリズムといいます。

 

現在、Googleの検索アルゴリズムの数は200以上あるといわれています。
Googleは公平性を考慮してどのようなアルゴリズムがあるのか、具体的に明かしてはいませんが、大規模なアルゴリズムのアップデートや変更があるときは何らかの形でアナウンスされる場合もあります。

 

ただ、年間で数百回のアルゴリズムの見直しが行われ、Googleの検索アルゴリズムは日々変動しているので、すべてのアルゴリズムの特性を理解することは非常に困難です。
そこで、WEBサイト運営者にできることは

・過去にあった代表的なアルゴリズムの変動について把握し理解すること
・時代の変遷などを考慮しながら進化するアルゴリズムの動向を常にチェックすること
・Googleの方針に沿ったWEBサイトを作成し運用する

ということです。

 

このうち、Googleの方針とは何か?といえば、それは常にユーザーファーストであることです。
ユーザーにとって有益な情報が多く、使いやすいユーザーファーストなWEBサイトを作ることがSEOをする上で有効的な手法であり、このようなユーザーファーストなWEBサイトはアルゴリズムの変更に影響を受けにくいとされています。

 

3.

どういったサイトが上位表示されるのか?

SEOは必ず検索順位が上がると約束されたものではありません。
ただ、そういった中でも、順調に検索順位を上げて上位表示されているWEBサイトが存在します。

 

SEOを活用して「検索順位が上がりやすいWEBサイトを作る」ことはSEOを実施する上でとても重要なことです。

 

それでは早速、検索結果に上位表示されやすいWEBサイトの特徴を紹介します。

 

3-1.

検索者の意図を汲み取ったユーザーファーストなサイト

200以上存在するとされているGoogleのアルゴリズムですが、すべてを解明するのは大変な労力と時間がかかります。
そういった中、正しいSEOを実施して大きな成果を上げるには、原則としてGoogleの理念を理解した上でSEO対策ができていることが必須といえるでしょう。

 

ということで、SEO初心者の方はまず、Googleが公表している「Googleが掲げる10の事実」をしっかり読み込み理解を深めましょう!

Google の使命は、世界中の情報整理し、世界中の人がアクセスできて使えるようにすることです。

Googleが掲げる10の事実

そこには、Googleが掲げている理念として「ユーザーファーストであることが第一」と書かれています。
そして、Googleが掲げるユーザーファーストという理念を踏まえれば、
検索者(ユーザー)の意図を汲み取ったユーザビリティの高いWEBサイト作りを行うことが重要であることがわかります。

 

こういったことを強く意識しながらSEOに取り組むことで、その結果、それが正しいSEO対策となって検索結果に上位表示されやすいWEBサイトを作ることにつながります。

 

ちなみに、現在におけるSEO対策で最も取り組まれている施策は以下の3つです。

・内部対策
・コンテンツ対策
・外部対策

ユーザーがGoogleやYahoo!などの検

これら3つの基本的な施策はどれも、Googleが目指すユーザーファーストの理念に見合う施策ばかりです。
詳しくは、第4章の「具体的な対策方法・やるべきこと」にて紹介します。

 

3-2.

E-A-Tを意識して運用されているサイト

近年、SEOにおいて特に重要になったと考えられているのが「YMYL」や「E-A-T」です。

 

▶YMYL(Your Money or Your Life)

YMYL(Your Money or Your Life)は、Googleの検索品質評価ガイドラインにて定義されている評価項目のひとつです。YMYLに該当するWEBサイトのジャンルは、お金生活に関わるものです。

 

つまりGoogleは、ユーザーに重大な影響を及ぼすYMYLに関するコンテンツを上位表示させるには、それ相応の信頼性の高いコンテンツが必要であるとしています。

 

Googleは、このようなYMYLコンテンツを扱うWEBサイトに対して、厳しい基準を持ってその品質を評価しています。
そして、Googleが品質を評価する基準として挙げているのが、信頼性という点でYMYLと関わりが深い「E-A-T」です。

 

▶E-A-Tとは?

E-A-T」は、YMYLと同じくGoogleの検索品質評価ガイドラインで公式に定義されているWEBサイトを評価する基準のひとつです。

 

E-A-Tは、以下の3つの要素の頭文字をとったGoogleの造語です。

1. Expertise(専門性)
2. Authoritativeness(権威性)
3. TrustWorthiness (信頼性)

 

Googleは以前から、ユーザーファーストであることを重視しています。
そして、最近特に注目されているE-A-Tという概念は、このユーザーファーストの概念をベースにしたものです。

 

これだけ聞くと何だか難しいように感じられますが、
要するにGoogleは、
正しい情報をしっかり掘り下げて、コンテンツを見る人にわかりやすく伝えることを意識したWEBサイト
を高く評価する、ということをいっています。

 

例えば、ある分野に絞ってWEBサイトのコンテンツを充実させたとします。
すると、その分野について専門性が高いWEBサイトである、とGoogleに評価されやすくなり、その結果、検索順位の上昇につながります。上位表示されるとユーザーの目に触れる機会が増えて認知度が高まります。
そして、最終的にWEBサイトの権威性や信頼性も高まりやすくなる、というわけです。

 

つまりこれは、きちんとE-A-Tを追求したWEBサイト作りをしていれば検索結果に上位表示されやすくなるということを表しています。

 

今後、E-A-Tの重要度はさらに増していくと言われているので、上位表示されやすいWEBサイトを作ろうと思ったら、E-A-Tを強く意識してSEOに取り組むことが必須といえるでしょう。

 

3-3.

検索エンジンからの情報発信に気を配る・より支持を受けているサイト

Googleなどの検索エンジンのアルゴリズムは、その時代の変遷などを考慮しながら常に進化しています。
そのため、アップデートの遍歴や検索エンジンからの情報発信に常に気を配ることで、WEBサイトの改善やSEO対策に生かすことができます。

 

Googleでは、ユーザーの検索意図に応えたWEBサイトを上位表示させるように、日々アルゴリズムを更新しています。そのような環境で安定した検索順位をキープするためには、ユーザーが本当に知りたいことは何かを追及して、多くのユーザーが利用し、支持されるWEBサイト作りをすることが大切です。

 

このように、常に検索エンジンからの情報発信に気を配ること、そしてより多くのユーザーから支持を受けるWEBサイト作りを追求していければ、大規模なアルゴリズムの更新があったとしてもアップデートに影響されにくく、結果的に今よりも高い順位に表示されやすいWEBサイトを構築できるはずです。

 

4.

具体的な対策方法・やるべきこと

Googleの検索エンジンのアルゴリズムは日々進化を続けています。
それと同じく、SEO対策の手法も時代とともに変化を遂げ、数え切れないほどの手法がWEB上に散乱しています。
そのため、SEO初心者の中には、SEO対策について調べると色々な情報が出てきて、結局「何から始めたらいいのか分からない・・・」と感じている人が多いようです。

 

この章では、これからSEO対策を始める人にもわかりやすく、SEOの具体的な対策方法について注意点を交えながら詳しく解説します。

 

4-1.

SEOの対策方法や注意すべきことはたくさんある

WEB上には、SEO対策の手法についてさまざまな情報が溢れています。
ただ、SEOと一口に言っても何を指すかは非常に曖昧で、見る人によってさまざまな意味に解釈されます。
そのため、必ずしも何が正しくて何が間違っているといった明確な答えがないこともSEOの特徴です。

 

Googleなどの検索エンジンは毎日のように検索アルゴリズムの更新を重ねているので、
SEO対策はそのときの状況に応じて柔軟に対策方法を変える必要があります。

 

 

これからSEOをはじめる人は以下で挙げる3つのステップを参考にSEO対策を進めてみてください。

 

▶SEO対策の3つのステップ

SEOの取り組みには、大きく分けて3つのステップがあります。

 

【第1ステップ.キーワード選定】
【第2ステップ.ページ制作・運用】
【第3ステップ.順位計測・確認】

 

今回は、この3つのステップのうち、第1~2のステップについて言及します。

 

第3ステップの【順位計測・確認】については以下をご覧ください。
SEOの順位計測ツールおすすめ16選!機能をタイプ別に比較

 

4-2.

【第1ステップ.キーワード選定】

SEO対策の第1のステップは、キーワード選定です。

 

キーワード選定は、ユーザーが求めるニーズを理解したうえで、
そのニーズに応えられる有益な情報を提供できるようにするためにも重要な作業です。

 

質の高いコンテンツを作っているはずなのに、なかなかアクセス数が増えない……。といった問題を抱えているとしたら、最初にするキーワード選定のミスが原因かもしれません。

 

例えば、選んだキーワードによって、同じWEBサイトでもアクセス数やコンバージョン率が異なることがあります。それに、ほとんど誰にも検索されていないキーワードを狙っても、WEBサイトの目的を達成できなければあまり意味がありません。

 

それでは、具体的にどのようなキーワードをどのように選定すればいいのかを以下で紹介します。

 

4-2-1.キーワード選定の種類と考え方

キーワードは、ユーザーがGoogleやYahoo!などの検索エンジンに入力した語句や単語のことです。

 

ここでは、キーワード選定をする上で押さえておきたい

  • キーワードの種類
  • キーワード選定の基本的な考え方を3つのステップにわけて紹介します。

 

▶キーワードの種類

キーワードは、以下のようにさまざまな種類があります。

 

  • 単体キーワード
  • ロングテールキーワード(複合キーワード)
  • ビッグキーワード
  • スモールキーワード
  • ミドルキーワード

 

・単体キーワード

1語のみのキーワードです。例えば、「SEO」「対策」「キーワード」などが単体キーワードにあたります。

ロングテールキーワード

複数の単語を組み合わせて作られたキーワードです。例えば、「SEO やり方」「SEO 効果」「SEO キーワード選定 考え方」などのキーワードがロングテールキーワードにあたります。

ビッグキーワード、スモールキーワード、ミドルキーワード

これら3つのキーワードは、組み合わせられた単語の数ではなく、GoogleやYahoo!などの検索エンジンでの月間検索回数や競合性を指します。
詳しくは「4-2-2.難易度が異なるビッグ・ミドル・スモール」をご覧ください。

 

▶キーワード選定の考え方

キーワード選定の基本的な考え方として、以下3つの手順を紹介します。

 

手順1:ツールを使ってキーワードをリストアップ
手順2:キーワードを調査する
手順3:キーワードを絞り込む

 

手順1:ツールを使ってキーワードをリストアップ
まずは、ターゲットとなるユーザーが自分のサイトを探す時にどんなキーワードで検索をするか想像しながら、たくさんのキーワードをリストアップします。Googleが無料で提供しているGoogle広告(Google Adwords)の「キーワードプランナー」を使うと、簡単にキーワード候補を洗い出せます。

 

思いつく限りのキーワード候補を出したら、それを元にキーワード候補をさらに増やしていきます。
goodkeyword」や「関連キーワード取得ツール(仮名・β版)」などの無料ツールを使うと、ユーザーの検索動向や質問サイトの内容などから、効率的に関連キーワードを抽出できます。

手順2:キーワードを調査する
キーワード候補をリストアップしたら、検索ボリュームや競合性などをチェックします。
Google AdWordsのキーワードプランナーを使うと、そのキーワードの月間平均検索ボリュームや競合性などを調べられます。

 

キーワードプランナーを使ったキーワード調査でみるべきポイントは、

・検索ボリュームの確認
・競合性の確認
・1クリックあたりの単価の確認

 

一般的に検索ボリュームが多ければ上位表示された時にサイトへのアクセスが多くなり、
検索ボリュームが少なければWEBサイトへのアクセスは少なくなります。
ただし、検索ボリュームが少なくても、1クリックの単価が高いキーワードは
競合性が高く人気のキーワードと考えられます。
これは、検索ボリュームが少ないがコンバージョン率が高いキーワードであると言う事が考えられます。

 

手順3:キーワードを絞り込む
検索ボリュームが多いビッグキーワードだけを狙っても良い成果は期待できません。
ビッグキーワードは検索数が多く上位表示された時にアクセスは増加しますがビッグキーワード経由の流入はコンバージョンが低い傾向にあります。
また、競合性が高いため検索結果で上位表示させる難易度も高いです。
逆に、検索数の少ないスモールキーワードは上位表示された時にアクセスは少ないですが、コンバージョンが高い傾向にあります。
また、競合性が少ない為、上位表位をさせる際の難易度も低めです。
そのため、キーワード選定を行う際は検索数の多いキーワードから少ないキーワードまでバランス良くキーワード選定を行う事が重要です。

 

ポイントはコンバージョンにつながりやすいロングテールキーワードを選ぶです。
コンバージョンとは、WEBサイトを運営する目的を達成すること、つまり成果を表す言葉です。
SEOを行って上位表示されるようになっても、WEBサイトの目的を達成できなければ意味がありません。
そこで重要なのが、ユーザーのニーズにマッチしたコンバージョンにつながりやすいロングテールキーワードを選ぶということです。

 

例えば、
「ホテル」「ダイエット」「保険」などのビッグキーワードは、テーマが広すぎるため、コンバージョンは低い傾向にあります。

 

一方、「ホテル 東京 おすすめ」「ダイエット サプリ おすすめ」「保険 会社 口コミ」など、複数の単語を組み合わせて作られたスモールキーワードは、検索数は少なくなりますが検索ユーザーの目的がはっきりとしていている為、検索ボリュームが少なくても流入したユーザーのコンバージョンは高い傾向にあります。

 

つまり、コンバージョンにつながりやすいロングテールキーワードとは、ビッグキーワードに目的、場所、評価などを組み合わせたキーワードになります。

 

4-2-2.難易度が異なるビッグ・ミドル・スモール

キーワード選定の基本的なステップ全体を通して必ずチェックしておくべきこと、
それは「キーワードの難易度」です。

 

キーワードの難易度を確認せずにSEO対策を始めてしまうと、キーワードによっては難易度が高すぎて、上位表示されるまでに時間がかかってしまうこともあります。
特に、人気のあるキーワードは競合サイトも同じように上位表示を狙っているので、サイト内のコンテンツを充実させないとなかなか上位表示されない可能性があります。

 

▶キーワードによる難易度の違い

ビッグキーワード・スモールキーワード・ミドルキーワードは、それぞれ検索エンジンにおける月間検索回数や競合性の大小が異なりますが、以下のように難易度という面でも大きな違いがあります。

 

ビッグキーワード

月間検索回数が多く、競合性が高いキーワードです。
もともと検索ボリュームが多いので、SEO対策をして上位表示されれば多くのアクセスが期待できます。ただ、その一方で競合サイトが多いことから、SEO対策の難易度は非常に高いキーワードです。

スモールキーワード

月間検索回数が少なく、競合性が低いキーワードです。
検索ボリュームは少ないですが、コンバージョンにつながりやすいといった特徴があります。競合サイトが少ないので検索順位が上がりやすく、難易度の低いキーワードです。

ミドルキーワード

検索回数がビッグキーワードとスモールキーワードの中間程度のキーワードです。
検索ボリューム、競合性ともにビックキーワードとスモールキーワードの中間に位置します。ある程度ボリュームがあるので難易度が高すぎることなく、SEO初心者でも検索結果に上位表示しやすいキーワードです。

 

長期にわたり上位表示化されないと、期待通りのアクセスを集められないだけでなく、WEBサイトの目的を達成できずコストばかりかかってしまいます。

 

そのため、SEO対策のキーワードを決めるときは、
検索ボリュームや競合性だけを調べるだけでなく、
必ずそれぞれのキーワードの難易度をチェック
した上で、上位表示を狙うためのSEO対策を始めることが大切です。

 

4-3.

【第2ステップ.ページ制作・運用】

SEO対策の第2のステップは、ページ制作・運用です。

 

ページを制作・運用するときは、常にGoogleの推奨するルールに従ってSEO対策をする必要があります。この点を踏まえて対策をすることでWEBサイトの上位化が見込めます。

 

まずは必ず押さえておくべきやっていいSEO対策とやってはいけないSEO対策について紹介します。

 

▶ホワイトハットSEOとブラックハットSEO

SEOには、ホワイトハットSEOブラックハットSEOと呼ばれる2つの手法が存在します。

 

ホワイトハットSEO
Googleが定めているガイドラインに沿った正当な手法で検索順位を上げることを指します。

 

ブラックハットSEO
Googleが定めているガイドラインに沿わない悪質な手法で検索順位を上げることを指します。

 

つまり、

 

ホワイトハットSEOは、やっていいSEO対策。
ブラックハットSEOは、やってはいけないSEO対策。

 

となります。

 

具体的にいうと、

 

ホワイトハットSEOは一般的に、

・Googleが推奨するユーザーファーストの方針を考慮してWEBサイトを制作・運用する
・ユーザーにとって有益で役立つ情報を提供する
・ユーザーのためになるSEO対策で上位表示を目指す

といった正当な手法のことです。

 

ホワイトハットSEOを実施すると、ユーザーの利便性が向上する、検索エンジンに対して正しい情報を伝えられるなど、さまざまな効果が期待できます。

 

ブラックハットSEOとは一般的に、

・Googleの方針に背いた手法を用いて検索順位を上げる
・ユーザーの利便性を無視した不正な方法を使う
・検索エンジンのアルゴリズムの脆弱性をつく

といった悪質な手法のことです。

 

ブラックハットSEOのような不正なSEO対策をしているWEBサイトは、Googleからペナルティを受けてしまう可能性が高くなります。
ペナルティとは、Google側が不正や違反をしているWEBサイトに対して実施する罰のことです。検索順位が大幅に下がってしまう、インデックスのデータベースから削除されて検索結果に反映されなくなる、といった大きな代償が待っています。

 

SEO初心者の人は、知らないうちにブラックハットSEOを使ってしまわないように、
次のようなブラックハットSEOの手法に細心の注意を払いましょう。

 

【ブラックハットSEOの主な手法】

  • 隠しテキスト
  • 隠しリンク
  • ワードサラダ
  • クローキング
  • コピーコンテンツ
  • 過剰な相互リンク集
  • 誘導ページの利用
  • 関係ないキーワードの詰め込み

 

このようなリスクの高いブラックハットSEOのような手法は避け、
Googleのガイドラインに沿った正当なホワイトハットSEOの手法を用いることを前提に、
次の【第2ステップ.ページ制作・運用】を見ていきましょう。

 

 

SEOの要素をおおまかにわけると「内部対策」と「外部対策」があります。
以下では、これら2つのSEO対策の基本知識について詳しくまとめていきます。

 

 

4-3-1.内部対策

内部対策とは、

・クローラーが読み込みやすいWEBサイトになるように最適化する
・ユーザーにとって見やすいWEBサイトになるように最適化する

などの調整をするSEO対策のことです。

つまり、サイト自体の評価を高めるための施策が内部対策です。

 

例えば、

  • 良質なコンテンツの作成
  • 内部リンクの最適化
  • htmlタグのキーワード比率の最適化

 

などは、内部対策と呼ばれるものです。

 

内部対策と一口にいっても、やるべき内容は広範囲にわたります。
ここでは、確実に押さえておきたい内部対策の基本知識についてまとめています。

 

▶良質なコンテンツとは?

最新のアルゴリズムにおいて、良質なコンテンツがなければ評価されることはないといっても過言ではありません。どれだけ内部対策を強化しても、闇雲にコンテンツを増やしただけでは上位表示させることが困難だからです。

 

良質なコンテンツとは、

・検索キーワードの意図を汲んでいる
・検索ユーザーが知りたい情報が記載してある
・E-A-Tが担保されている

といったコンテンツのことです。

・検索キーワードの意図を汲んでいるコンテンツ

コンテンツの質に求められる条件の一つ、それは検索ユーザーのニーズ、つまり検索キーワードの意図を汲んでいるコンテンツであるかどうかということです。

 

検索キーワードによってユーザーのニーズは異なります。よって、ユーザーのニーズを満たす情報を含めたコンテンツを作成し続けることで、自然と良質なコンテンツを増やすことにつながります。

 

良質なコンテンツを作るには、上記SEO対策の第1ステップでご紹介したSEOキーワードの選定がとても重要な作業になります。キーワードの選定でユーザーの検索ニーズを把握できれば、そのニーズに応えられる情報を提供することができます。
これが、コンテンツの質を上げて良質なコンテンツを作るための具体的なポイントです。

 

・検索ユーザーが知りたい情報が記載してある

検索ユーザーにとって価値のある有益な情報とは、自分の疑問を解決できる情報です。
つまり、良質なコンテンツとは、ユーザーの「質問」に対する「回答」になっているコンテンツのことです。

 

ユーザーは何か知りたいことがあったり、わからないことがあったりするときに検索をしてその答えを探します。よって、SEOの対策キーワードを決めたら、ユーザーが求めている回答は何なのかをしっかり考えて、最良の回答となる情報をコンテンツに含めることが重要です。
このようなユーザーが満足できる質問に対する回答が含まれたコンテンツであれば、それは良質なコンテンツと呼べるでしょう。

 

・E-A-Tが担保されているコンテンツ

E-A-Tは、専門性・権威性・信頼性といった3つの要素を表すGoogleの造語です。
WEBサイトを評価する基準のひとつで、良質なコンテンツとして認められるために不可欠な要素であると昨今大きく注目されています。

 

正しい情報をしっかり掘り下げて、専門知識や権威性、そして信頼性をコンテンツに持たせることで、コンテンツ自体の信憑性が増して、ユーザーの満足度につながります。

 

昨今、GoogleはこのE-A-Tをより重視するようになりました。よって、今後はWEBサイトを上位表示させようと思ったら、必然的にE-A-Tを意識した良質なコンテンツを作成する必要があるといえるでしょう。

 

▶基本的な内部対策チェックポイント

内部対策の方法はいくつかありますが、ここでは基本的な内部対策のチェックポイントを以下6つの項目にわけてまとめます。

 

(1)title、descriptionの最適化
(2)URL構造の最適化
(3)サイト内リンクの最適化
(4)Googlebot制御
(5)コンテンツの質・量
(6)コンテンツの最適化

 

(1)title、description、keywordsの最適化

WEBサイトは、HTMLといったマークアップ言語を用いて作られています。HTMLは、タグという仕組みを使って、タイトルや見出し、画像やリンクなどの機能を付加してページに表示しています。
SEOの内部対策において重要とされているタグは、title(タイトル)、meta description(メタディスクリプション)、meta keywords(メタキーワード)です。

 

・title:検索エンジンの検索結果に表示されるタイトルの役割を持つ重要なタグ
・meta descriptionWEBサイトの目的や重要なキーワードなどの情報を、検索エンジンに正しく認識してもらうための重要なタグ
・meta keywords:ページのキーワードを指定するためのタグ

(1ーa)title、descriptionはユニークになっているか?
検索エンジンはサイトをクロールする際に、titleタグとmeta descriptionタグを必ず取得します。
titleタグとmeta descriptionタグは、ページがどのような内容(テーマ)で書かれているのかを判断する要因の1つとして扱われます。よって、全ページでページ内容を的確に表現している、オリジナルかつユニークな情報をtitleタグとmeta descriptionタグにそれぞれ記述しましょう。

 

(1ーb)titleにキーワードが含まれているか?
titleタグは、検索エンジンが重要視する要素です。
キーワードを含む適切な文言でページを構成することで、対象ページの評価向上につながるので、titleタグにキーワードが含まれているかを確認しましょう。
titleタグは、単一キーワードよりも、先頭にキーワードを配置した方が効果的ですし、ユーザーへの訴求力も高まります。また、titleタグに含めるテキストの文字数は31文字以内に収めるのが理想です。

 

(1ーc)<meta description> はクリックを促す文言になっているか?
<meta description>にキーワードを含めて、ユーザーがクリックしたくなるような文言になるように意識しましょう。
検索結果に省略されずに表示されるように、そしてユーザーへの訴求力を高めるために、meta descriptionタグに含めるテキストの文字数は、100文字程度に収めるのが理想です。

 

(1-d)<meta keywords>はページ内容を端的に表すキーワードが設定されているか?
<meta keywords>には、ページの内容をはっきり表すキーワードを入れましょう。
Googleの検索エンジンは、<meta keywords>を検索結果の順位付けの評価に含めていません。よって、meta keywordsタグの記述が上位表示につながるわけではありません。
ただ、将来的に順位決定の指標となる可能性もゼロではないので、余裕があれば記述しておきましょう。


(2)URL構造の最適化

URL構造を最適化すると、情報を受ける側のユーザーが混乱することなく、スムーズに目的のWEBサイトのページにアクセスできます。
Googleの検索エンジンにページを正しく評価してもらい、
内部評価を向上させるためにも、
URL構造の最適化は欠かすことのできない内部対策といえます。

(2ーa)ページ内容を表す分かりやすいURLになっているか?
URLの中に、カテゴリやコンテンツ内容が分かる単語を使用すると、そのURLのページが何について書かれたコンテンツなのかを想定できるようになります。
複数の単語を組み合わせる場合は、ハイフンで区切り、英単語は小文字で統一しましょう。

 

(2ーb)URLの文字列は長すぎないか?
検索エンジンに認識されるURLの長さは、通常のHTMLファイル名と同様の長さが適切です。そのため、URLの文字列が長すぎていないかを確認しましょう。
できるだけ短くて分かりやすいURLにすれば、ユーザーにも検索エンジンにも伝わりやすいURL構造になります。ちなみに、XMLサイトマップに記載できるURLの上限は2,048文字です。

 

(2ーc)URLはすべてのページでユニークになっているか?
Googleの検索エンジンは、URLごとにページを判断し、評価をしています。よって、同一URLが存在しないように、すべてのページでユニークなURLにする必要があります。
例えば、動的コンテンツの検索結果ページには、パラメータ(付加情報の文字列)を組み合わせたURLが個別に存在します。「さまざまな条件」「キーワード」などを選び、動的コンテンツの検索結果を絞り込んだ際も、すべてのページでユニークなURLで表示されることが大切です。

 

※動的コンテンツ:コンテンツの内容が条件によって異なるコンテンツ

 

(2ーd)URLは正規化されているか?
同一ページなのに複数のURLが存在していると、重複コンテンツを疑われる可能性があります。
重複コンテンツと認識されれば、評価が分散してしまいます。これを防ぐには、正規URLを決めた上で301リダイレクトさせてURLを正規化する必要があります。
異なるURLで同一ページを表示させる必要がある場合は、 rel=”canonical”を使ってURLを正規化して対処します。

正規化できていないケースには、

・httpとhttps
・wwwの有無
・indexファイル名の有無
・末尾スラッシュの有無
・パラメータの有無

などが挙げられます。

 

(2ーe)URLの永続化は保たれているか?
URLの永続化とは、検索エンジンにインデックスされたページのURLに対して、そのページが存在し続ける限り、同一のURLを使い続ける、ということです。
検索エンジンはユーザーにとって有益であるかを判断する際に、「そのURLがどのくらいの期間安定してコンテンツを提供していたか」を信頼度として判定に使用しています。

 

(2ーf)動的URLは静的化されているか?
動的URLでも、問題なく検索エンジンにインデックスされます。
ただ、URL内に「?」や「=」などのパラメータが多く含まれているページは、ユーザーフレンドリーではないので、動的URLは静的化した方が良いでしょう。URLを静的化した後は、WEBサイト内の内部リンクやXMLサイトマップのURLも同じく静的URLへ変更することをお忘れなく。

 

(2ーg)URLは階層化されているか?
URLはカテゴリ構造に合わせて、ディレクトリ区切りで階層化しましょう。サイトのトップページなど、ルートディレクトリ直下に全てのページがまとまって存在するサイトは好まれません。
URLを階層化することで、ユーザーがサイトのどこを閲覧しているかが一目で確認できるようになり、回遊率が向上します。ただ、階層化し過ぎるとかえってユーザビリティを損なう原因になるので、重要なページは細分化し過ぎないことも大切です。

 

(2ーh)ページネーションを適切に設定しているか?
検索結果ページなどでページネーションを利用する際は、前後ページを表す「prev/next」や「</>」のようなタグを設定します。各ページの内容は同じではないので、canonicalタグを設定することは誤りです。
ページネーションを設定するときは、各ページのtitle・meta description・meta keywordsもユニークなものにしましょう。
また、ページネーションを「page_id」などのパラメータで管理している場合は、Googlサーチコンソールに動的パラメータとして登録されているか確認しましょう。


(3)サイト内リンクの最適化

自分のWEBサイト内に貼られたリンクのことを内部リンクといいます。
内部リンクは、WEBサイト運営者自身でコントロールできます。
検索エンジンのクローラビリティを向上させ、効率よくインデックス化されるように、内部リンクを最適化しましょう。

 

(3ーa)アンカーテキストはリンク先の内容や動作を推測できる文言か?
ユーザーも検索エンジンも、アンカーテキスト∗に記述された文言からページ内容を推測します。
よって、アンカーテキストにはリンク先の内容や、動作を推測できる文言を記述しましょう。

 

・アンカーテキストの例
【悪い例】SEOの詳細をご覧になりたい方はこちら
【良い例】SEOの詳細をご覧になりたい方はSEOの基本的な方法へ

 

∗アンカーテキスト:リンクを貼るときに使うアンカータグに挟まれたテキスト部分

(3ーb)上層、同一階層、下層へのリンクは配置されているか?
検索エンジンのクローラーやユーザーがサイト内をスムーズにクロール、回遊できるように、上層ページ、同一階層、下層へのリンクを設置しましょう。
そうすることで、関連ページや異なるカテゴリへの遷移が容易になり、検索エンジンのクローラビリティやユーザーの回遊率が向上します。

 

(3ーc)ナビゲーションは、ユーザーと検索エンジンにとって分かりやすいか?
インターネットの分野では、WEBサイトにある主要ページをまとめた内部リンクのことをナビゲーションといいます。
ナビゲーションは、ユーザーが迅速に目的のコンテンツにたどり着くために重要な役割を果たします。また、検索エンジンがサイト内を巡回する上でもナビゲーションは役立ちます。

 

ユーザーはもちろん、検索エンジンにも重要なコンテンツであると明確に伝えるためにも、

・コンセプトにあった分かりやすいナビゲーションを作る
・グローバルナビゲーションで常にトップページ・最上位カテゴリへリンク貼る
・サイドナビゲーションなどで関連ページ同士をリンクでつなげる

ということが大切です。

 

(3ーd)パンくずリストが適切に設置されているか?
パンくずリストを全ページに設置しましょう。
そうすることで、ユーザーがWEBサイトのどこを閲覧しているのか一目で確認できます。
また、下層ページからトップページへの移動が容易になってユーザーの回遊率が向上します。

パンくずリストを設定するときは、

・階層構造のトップページからの遷移に抜けはないか
・アンカーテキストにページごとのキーワードが含まれているか

をしっかり確認しましょう。

 

(3ーe)メインコンテンツから関連するページにリンクが貼られているか?
ユーザーにとって有益となるコンテンツへのリンク、あるいは関連するページへのリンクは、メインコンテンツ内にリンクを貼りましょう。
検索エンジンは、ナビゲーションよりもメインコンテンツからのリンクをより評価するからです。

 

(3ーf)リンクは検索エンジンが認識しやすい形式か?
リンクの形式には、
 ・テキストリンク
・画像リンク
・プルダウンメニュー
・イメージマップ

などがあります。

 

検索エンジンのクローラーがページを巡回するときは、主に静的なリンクを辿ります。
クローラビリティなどの観点から、リンクは検索エンジンが認識しやすい形式である「テキストリンク」「画像リンク」などの静的リンクにするのがベストです。

(3ーg)サイト内リンクのURL は統一されているか?
同一ページに貼られているリンクに複数のURLが存在していると、そのページに対しての評価がURLごとに分散する恐れがあります。
正しくリダイレクトしている場合でも、リダイレクト処理でページの表示速度が遅くなります。そのため、サイト内の内部リンクのURLは、正規のURLへ統一しましょう。

 

(3ーh)HTMLサイトマップは用意されているか?
HTMLサイトマップは、ユーザー用のサイトマップです。
ユーザーがサイト内の目的ページにたどり着くためのナビゲーションの役割を果たします。つまり、WEBサイトの利便性や、ユーザビリティを向上させるために、HTMLサイトマップを設置します。
ユーザーがサイト構造全体を把握できるように意識して、ユーザーフレンドリーなHTMLサイトマップを作りましょう。

(3ーi)リンク切れは存在していないか?
Googleは、リンク切れによる直接的な検索順位の下落はない、としています。
ただ、リンク切れを長期間放置したままでいると、ユーザビリティの低下やユーザーの離脱につながります。また、サイト内ページへのリンクがリンク切れ状態になっていると、本来受けられるべきリンク効果が低くなってしまうので、定期的にリンク切れの有無を確認するようにしましょう。

 

(3ーj)404エラーページが用意されているか?
リンク切れしているリンクからの流入や、間違ったURLの入力により、ユーザーが存在しないページを訪問することがあります。このままでは、サイトにアクセスしてきたユーザーを逃し、機会損失を招く恐れがあります。
ユーザーの離脱を防止するために効果的なのが、404エラーページです。
ユーザーフレンドリーな404エラーページを用意することで、ユーザーを有益なページに導くことができます。尚、404エラーページは200ではなく、404のHTTPステータスコードを返すようにしましょう。


(4)Googlebot制御

WEB上の情報を周期的に集め、自動的にデータベース化するプログラムのことをクローラーといいます。Googlebotとは、Googleにおけるロボット型検索ロボットのことです。
検索エンジンにWEBサイトを認識させる、あるいは認識させないようにするには、
クローラーであるGooglebotの制御が必要になります。

 

(4ーa)インデックスが不要なページにはnoindex/ nofollowを付与しているか?
インデックスが不要なページには、Googlebotにクロールさせないために<
meta name=”robots” content=”noindex, nofollow”>を記述します。
特定のページやリンク先をインデックスさせたくないときにnoindexを設置すると、検索エンジンのクローラーに対してインデックスさせないように指示できます。
nofollowを設置すると、発リンク先ページにページ評価を受け渡さないように、検索エンジンのクローラーに対して指示できます。

 

(4ーb)robots.txtは適切に設定しているか?
robots.txtは、クロール制御の有無にかかわらず、常に「ドメイン/robots.txt」でアクセスできるようにしましょう。
また、サイトリニューアル期間中にGooglebotをブロックし、そのままの状態でrobots.txtを公開してしまっているサイトも見受けられるので注意しましょう。
Googlebotのアクセスをブロックしたままだと、GooglebotはWEBサイト内のコンテンツのクロールやインデックス登録をすることができなくなり、その結果、検索順位の低下につながる可能性があります。

 

(4ーc)XMLサイトマップは用意されているか?
全ページを検索エンジンに認識してもらえるよう、XMLサイトマップ(sitemap.xml)を作成しましょう。

 

構造が非常に複雑なWEBサイトや、新しく立ち上げたサイトの場合、

・リンクがあまり含まれていない
・検索エンジンのクローラーに発見されにくい
・そのデータが何を意味するのかが上手く判断されない

といったことがあるためです。
尚、XMLサイトマップを作成したら、忘れずにGoogleサーチコンソールに登録しましょう。

 

ただし、robots.txtでブロックしているページや、rel=”canonical”で他のURLへ正規化しているページは記載しないように注意しましょう。

 

(4ーd)JavaScript、CSS、画像ファイルをブロックしていないか?
検索エンジンがWEBサイト内のコンテンツを正しく把握できるように、サイト内のJavaScript、CSS、画像ファイルなどがすべてクロール可能になっている必要があります。
これらのクロールを許可していないと、コンテンツのレンダリングとインデックス作成を行っている検索エンジンの動作に直接悪影響を及ぼします。
その結果、検索順位の低下につながる可能性があるので気をつけましょう。

(5)コンテンツの質・量

最新のアルゴリズムにおいて、良質なコンテンツがなければ評価されることはないといっても過言ではありません。
ユーザーにとって有益な情報となる質の高いコンテンツを作り続けることで、
Googleからの評価につながり、
その結果、検索結果に上位表示されやすくなります。

 

(5-a)コンテンツはターゲットユーザーのニーズを満たしているか?
コンテンツの質に求められる条件の1つが、検索ユーザーのニーズに応える情報を提供するということです。
・ターゲットユーザーを明確にする
・ターゲットユーザーがどのような情報を必要としているのかを調査する
・ターゲットユーザーのニーズに対応するコンテンツを作成する

ということを考慮しながら、コンテンツを作り続けることで、自然と良質なコンテンツを増やすことにつながります。

 

(5-b)1ページ1テーマになっているか?
すべてのページは、1ページ1テーマで構成しましょう。
ページ内に複数のテーマが記載されていると、各テーマにおける評価が分散されてしまい、その結果SEO的に不利となるからです。

 

(5-c)コンテンツは新鮮か?
新しい情報を提供することはユーザーにとって有益なことです。
クローラーは、前回のクローリングデータとの比較で更新頻度をチェックします。このときに、更新頻度が高ければコンテンツの鮮度は保たれ、最新の情報、つまり話題性のあるコンテンツが掲載されていると判断します。
コンテンツは一度作って終わりではなく、ジャンルによっては毎日のように情報が更新されることもあります。よって、コンテンツ内の情報もその都度アップデートする必要があります。

 

(5-d)コンテンツに独自性があるか?
現在の検索アルゴリズムは、独自コンテンツや有益な情報を持つ高品質のサイトは上位表示されやすい仕様になっています。
一方で、ユーザーにとって価値が薄い低品質なサイトや、他サイトから複製したコピーサイトは検索上位に表示されにくい傾向にあります。

 

そのため、
・自分のサイトにしかない独自の情報を掲載する
ということを意識してコンテンツを作成すれば、あらゆるニーズや目的を持ったユーザーにさまざまな角度からアクセスされやすくなります。

 

(5-e)コンテンツに網羅性があるか?
対象トピックに関する網羅的な情報を提供しましょう。
網羅性とは、検索ユーザーから評価されるような情報を網羅しているかということで、単純に文字数で測れるものでありません。ただ、文字数が少ない場合、網羅性も低いケースが多い傾向にあります。
よって、競合ページの文字数と比較して、十分なコンテンツ量を提供できているか確認しましょう。
それを踏まえた上で、ユーザーが求めるニーズを的確に捉えて、そのニーズに応える情報をまんべんなく網羅するコンテンツを作成することが大切です。
例えば、「金買取」であれば

  • 金の現在の相場
  • 金の種類について
  • お客様の声
  • 買取実績
  • 査定までの時間

などユーザーが求める情報を記載する必要があります。

 

(5-f)サイト全体で情報の網羅性を担保しているか?
テーマごとにページを作成して、サイト全体の対象テーマ数を増やしましょう。
そうすることで、より多くのキーワードで集客でき、サイト内リンクや関連性などの観点でもSEO効果が高まります。

 

(5-g)シーズナルコンテンツを用意しているか?
業界によっては、季節ごとの繁忙期というものが存在します。
自社サービスに関係するシーズナルワード、つまり季節キーワードを抽出し、それに対応したコンテンツを作成します。
季節キーワードは、繁忙期が近づくにつれ検索結果の順位変動が起こりやすくなるため、迅速に対応できるようになるべく早い段階から準備を整えておきましょう。

(6)コンテンツの最適化

ユーザーに合わせてコンテンツを最適化すれば、ユーザーからもGoogleからも高い評価を得ることができます。

 

(6-a)ユーザーにとって見やすいUIであるか?
ユーザーにとって見やすいUIにするため、

  • 目次を設置して適切な余白(margin/padding)を設ける

 

ユーザーの理解をサポートするために、

  • 図や画像を積極的に使う
  • 文字色・大きさ・太さなどは統一されたルールで装飾する
  • 「ですます」調に文体を統一する
  • 漢字を開くなど柔らかい文体にする
  • 表記揺れに注意する

といったことに注意しながらコンテンツを最適化しましょう。

 

(6-b)コンテンツを構成する要素は検索エンジンが処理しやすいプレーンテキストが中心か?
コンテンツを構成する要素は、基本的に検索エンジンが処理しやすい一般的な文字列の形式、つまりプレーンなテキストを利用したほうがいいでしょう。

 

積極的に利用するメリットがないものは、

  • 検索エンジンが正確に処理できない画像
  • JavaScript (HTMLとは別プロセスで処理され、コンテンツの認識が遅れてしまう)
  • Flash(2020年にAdobeのサポートが終了する)

などです。

 

(6-c)重要なコンテンツはページ上部に配置されているか?
検索エンジンはファーストビューの領域にあるコンテンツを重視します。
よって、ページ上部が広告ばかりで構成されているページの評価は低くなります。
重要なコンテンツは、ページ上部に配置しましょう。そして、各ページの対象キーワードを含む見出しや説明文、リンクもこの領域に配置した方がいいでしょう。

 

(6-d)カテゴリは最適か?
たくさんのページで構成されているサイトは、それぞれの情報を見つけやすいように、カテゴリ構造が最適化されていることが望ましいです。
カテゴリごとに適切なキーワードを選定し、それに紐付くコンテンツを下層に配置すると、上位階層であるカテゴリトップページやサイトトップページの評価向上につながります。

 

(6-e)カテゴリページ(一覧ページ)に独自の内容が存在しているか?
カテゴリ一覧ページは、多くの場合、データを入れただけのページが生成されやすいです。
よって、カテゴリごとに構成を変えながら、独自の内容を持たせることが大事です。

 

詳細ページのようなシンプルな一覧ではなく、

  • 説明文
  • コラム
  • ランキング

などを配置して、よりリッチな内容にすると良いでしょう。
尚、独自の内容を持たせるときは、テーマとは関係ないキーワードや文章はできるだけ入れないように注意して構成するようにしましょう。

 

(6-f)画像には適切なファイル名・alt属性が付けられているか?
画像ファイルには、その内容を表すファイル名を付けましょう。
検索エンジンは、<img>タグのalt属性を参考にして画像情報を判断します。よって、その画像がどのような内容なのかを検索エンジンに正しく理解されるように、alt属性を記述します。
ただ、alt属性に対して特定のキーワードだけを大量に詰め込むような行為は、スパム判定を受ける可能性があるので絶対に行ってはいけません。

 

(6-g)構造化マークアップにより著者・所有者情報を伝えているか?
Googleは、コンテンツの信頼度を重視しています。
よって、構造化マークアップを正しく実装することで、コンテンツの著者情報・所有者情報を検索エンジンに明確に伝えることが重要です。

 

(6-h)HTMLソースは文法定義に沿って記述されているか?
SEOの評価に直接的な関係はありませんが、

  • 検索エンジンに誤った情報を伝えないため
  • メンテナンスの作業量を減らすため

に文法定義に則ったHTMLソースを記述しましょう。

 

文法定義に沿ったHTMLを記述することで、コンテンツの情報を検索エンジンに正しく伝えることができます。文法に従わずにHTMLタグを書いてしまうと、WEBブラウザによっては見栄えが異なって見えてしまう可能性があるので気をつけましょう。

 

(6-i)機種依存文字を使用していないか?
「№」「℡」などの機種依存文字は、文字化けを起こしてしまう可能性があります。
これが原因で、本来の意味が検索エンジンに伝わらない可能性があるので、環境に依存しない文字を使って記述しましょう。

 

以上、ここまで基本的な内部対策チェックポイントについてまとめてきました。
続いては、内部対策のペナルティについて解説します。

 

▶内部対策のペナルティ

Googleのウェブマスターガイドラインにおける品質に関するガイドラインに違反した行為をしているWEBサイトに対して、Google側が実施する処置のことをペナルティといいます。

 

ペナルティを受けてしまうと、

  • ある日突然、サイトの検索順位が著しく下がる
  • 社名を入れて検索しても、検索結果で上位表示されない
  • 自社サイトが検索結果に表示されない

といった現象が起こることがあります。

 

SEO内部対策を行う一方で、知らぬうちにその対策が不正行為となるケースは少なくありません。
以下のような不正な手法を把握して、ペナルティを未然に防ぐことが大切です。

 

(1)価値の低いコンテンツが存在していないか?
(2)隠しテキストや隠しリンクは存在していないか?
(3)クローキングを行っていないか?

 

(1)価値の低いコンテンツが存在していないか?

コピーコンテンツや自動生成コンテンツ、キーワードの詰め込み、広告のみで構成されたコンテンツなど、価値の低いコンテンツはペナルティ対象になります。
他者のコンテンツを引用する場合は、引用元を明示して引用箇所を
<q>タグや<blockquote>タグで囲みます。

<blockquote cite="https://seoworld.jp/seo/">
長い文章を引用したいときはblockquoteタグで囲みます。
cite属性には引用元を記載します。
</blockquote>

<q cite="https://seoworld.jp/seo/">
短い文章を引用したいときはqタグで囲みます。
cite属性には引用元を記載します。
</q>

また、自サイトのコンテンツが盗用されていないかどうかも、定期的にチェックされることをおすすめします。

(2)隠しテキストや隠しリンクは存在していないか?

ユーザーには見えない背景色と、同色のテキストや画面外のテキスト、小さな画像リンクなど、隠しテキストや隠しリンクはSEOの内部対策に関わるブラックハットSEOであり、すべてペナルティ対象となります。

(3)クローキングを行っていないか?

ユーザーと検索エンジンに対しそれぞれ異なるコンテンツを表示するクローキングという手法は、誤ったSEO対策であり、ペナルティ対象です。
クローキングのようなユーザーが意図しないページに振り分けられてしまう手法は、Googleのガイドラインで禁止された行為です。


検索エンジンの技術進歩に伴い、SEOの手法も時代の流れとともに変化を遂げてきました。
ここまで内部対策について色々と解説してきましたが、最後に現在の内部対策を理解する上で確実に押さえておきたいGoogle検索アルゴリズムのアップデート、パンダアップデートを紹介します。

▶内部アルゴリズムアップデート

2011年に行われたGoogle検索エンジンのアルゴリズムアップデート、それがパンダアップデートです。
はじめて更新がされてから、その後は定期的に更新されています。

 

パンダアップデートは、品質の低いコンテンツで構成されたWEBサイトは検索結果に上位表示されにくくするためのアルゴリズムです。
つまり、パンダアップデートの実施により内部要素の評価が大きく変わり、品質が良いサイトは順位が上がり、品質が悪いサイトは順位が下がるようになりました。

 

例えば、以下のようなWEBサイトはパンダアップデートの影響を受けやすいとされています。

 

  • 専門性が低いコンテンツ
  • 独自性が低いコンテンツ
  • 内容が乏しいコンテンツ
  • 自動生成コンテンツ
  • コピーコンテンツ
  • 重複コンテンツ
  • 広告の占め

 

パンダアップデートの導入から現在まで、検索エンジンを欺くような違反行為はもちろん、低品質なコンテンツはWEBサイトの評価を下げる要因となっています。

 

よって、Googleの検索エンジンから評価されるWEBサイトを運営するには、このようなパンダアップデートの意図を理解し、ユーザーに役立つ良質なコンテンツを発信し続けることが重要といえるでしょう。

 

ここまでの内容でご理解いただけたかと思いますが、内部対策としてやるべき内容はこのように広範囲にわたります。よって、ユーザーが求める検索キーワードにマッチしたページを作成したり、検索エンジンに情報を発見されやすいページを作成したり、といったことを心がけながらWEBサイト全体の価値が高め、検索順位が上昇しやすくなるように効果的な内部対策を進めていきましょう。

 

4-3-2.外部対策

外部対策とは、質の高い外部リンクを獲得することで検索順位を上げようとする取り組みのことです。
外部リンクは、被リンクと呼ばれることもあります。

 

Googleは、第三者からの評価をWEBサイトの価値を図る要素のひとつとして使います。
その指標とされているのが外部サイトから自サイトに向けて貼られたリンク、つまり外部リンクです。

 

例えば、

  • 信頼性の高いサイトから外部リンクを貼られているサイトは同じく信頼できる。
  • 多様性のあるサイトから外部リンクをたくさん貼られているサイトは人気である。
  • 特定の分野で最新、かつ貴重な情報を発信するサイトは、同ジャンルのコンテンツからリンクを獲得しやすい。

といったように、外部リンクの情報をもとにGoogleの検索エンジンはWEBサイトの価値を測り、評価しています。

 

現在のアルゴリズムは、単に外部リンクの数を増やすだけでなく、
より質の高いサイトから自然なリンクを獲得することが、
効果の高いSEO対策を行うためには重要とされています。

 

SEOにはさまざまな手法が存在しますが、外部対策は昔も今も変わらず大きなSEO効果を及ぼすとされる対策です。
それでは早速、基本的な外部対策を具体的に紹介します。

 

▶基本的な外部対策チェックポイント

外部対策の方法はいくつかありますが、ここでは基本的な外部対策のチェックポイントについてまとめています。

 

外部対策とは、自社以外のよりよいWEBサイトからリンクを受けることです。
外部リンクは、SEOの観点からも重要な要素のひとつとして知られています。
質の高いコンテンツを掲載したページには、多くの外部リンクを集めることができ、その結果リンクによるSEO効果が見込めます。

 

ただ、ここで注意したいのは、無闇に外部リンクを集めるのではなく、
より自然な形で外部リンクすることが現在のSEOにおいて最も重要な施策になる、ということです。

 

これを前提に、以下のようなポイントを踏まえ効果的なSEO外部対策を行っていきましょう。

 

(1)自社のサイテーションを高めた上で、コーポレートサイトからリンクを受けているか?

自社のサイテーションを高めるために、企業情報を構造化マークアップした上で、
各SNSでコーポレートアカウントを作成・運営しましょう。

また、オフィスや店舗をGoogleマイビジネスに登録したり、iタウンページ/Indeed(インディード)/Wantedly(ウォンテッドリー)/スタンバイなどの各種メディアに掲載されることも大切です。

 

サイテーションは、外部リンクほど直接的ではないですが、検索エンジンアルゴリズムの評価指標に含まれる一つの要素とされている可能性が高いです。
自社のサイテーションを高めた上で、コーポレートサイトからリンクを受けると、WEBサイトの信頼性・権威性を高めることができ、結果的に検索順位が上がる可能性があります。

 

 

(2)サテライトサイトは本サイトとは異なるユーザーニーズに応えているか?

自社でサテライトサイトを運営するときは、本サイトとは異なるユーザーニーズを満たすコンテンツを作成しましょう。
例えば、転職サイトを運営する場合、スキルアップ系コンテンツなどがそれに該当します。
ただ、本来誘導したいWEBサイトに、外部リンクを集めることだけを目的としたサテライトサイトは、Googleのペナルティ対象になりうるため注意が必要です。

(3)他のサイトからリンクをもらえる記事を作成しているか?

まとめ記事や一次情報記事、インフォグラフィックスなど、感度の高いサイト運営者の自身のメディアやブログで紹介したくなるようなコンテンツを作成しましょう。
SEOにおいて重要な要素となる外部リンクを、だれが貼ってくれるのか?を理解して、彼らを意識したコンテンツ記事を提供することで、強力な外部リンクを獲得しやすくなるからです。良質なコンテンツは自然と参照される、という考え方が一般的ですが、
実際にリンクを貼る傾向にあるサイトや、貼られる傾向にあるコンテンツがあるのも事実です。難易度は高いですが、こうした視点も意識しましょう。

(4)OGPはページごとに適切に設定されているか?

OGPは、ページ内容をSNS上でも快適に閲覧できるように、コンテンツ制作者が制御できる便利な機能です。
ページごとにユニークなOGPを設定して、SNS上での拡散を促進させましょう。

(5)適切な位置にSNSのシェアボタンが設置されているか?

SNSでシェアされることが直接検索順位に影響するわけではありません。
ただ、検索結果の上位に表示されているサイトの多くは、ソーシャルシェアと高い相関関係にあるといわれています。
よって、SNSのシェアボタンを記事の冒頭・末尾に設置して、ユーザーに拡散されやすくしましょう。合わせてソーシャルブックマークなども推奨します。

(6)ソーシャルメディアポリシーを掲載しているか?

企業の利益に関わるブランド毀損や、SNS上で起こり得るさまざまなトラブル対策として、運営方針・責任の所在を明確にするソーシャルメディアポリシーを掲載しましょう。

現状の外部対策は、無暗に外部リンクを増やすのではなく、ここで紹介したように、より自然な形で外部リンクすることが重要な施策になります。
このことを強く意識して、効果的な外部対策に取り組みましょう。

基本的な外部対策の具体策を理解したところで、続いてはリンクの売買、外部対策のペナルティ、そして外部対策と深い関係のあるGoogle検索アルゴリズムのアップデートについて詳しく解説します。

▶リンクの売買

一昔前の売買リンクは、ユーザーにとって価値のないサイトがほとんどでした。
それゆえ、Googleにスパム性が認識された時点で、自然な流れで発生したリンクではないと判断される可能性が高くありました。

 

検索エンジンから評価を受けやすい良質なリンクは、ユーザーの自然な流れで自発的に貼ってもらうナチュラルリンクです。こういったリンクを獲得するには、コンテンツやサイト運営を適切な方法で地道に続けていくことが大切です。

 

とはいえ、外部リンクを闇雲に増やすのは逆効果になる場合もあります。以下では、リンクの内容に関して、良いリンクのチェックポイントを具体的にまとめています。

 

  • 自社サイトに関連性の高いWEBサイトからのリンク
  • リンクファームなどのスパム性がないリンク
  • 内部対策、コンテンツなど、WEBサイトとして一貫性のあるサイトからのリンク
  • 外部リンク自体の外部対策ができているサイトからのリンク
  • 流入数がある程度期待できるサイトからのリンク

作為的な外部リンクは、検索エンジンから評価されない可能性があります。
よって、獲得するリンクの内容を見極めることが重要です。

 

 

▶外部対策のペナルティ

ある日突然、検索結果の順位が大幅に急降下した、自社サイトを検索しても検索結果に表示されなかった、といったときは、Google側からペナルティを受けていることが原因かもしれません。

 

知らないうちに不正なSEO手法をしてしまうことがないように、以下のような点に注意しながら外部対策を進めていきましょう。

 

質の低い外部リンクを受けていないか?
質の低い外部リンクは、Googleの検索エンジンから高い評価を受けにくい、といった可能性があります。
そして、以下のような外部リンクはペナルティ対象になる可能性が高いので注意が必要です。

 

  • 価値の低いコンテンツからの外部リンク
  • 無関係なコンテンツからの外部リンク
  • 対策キーワードと同一のアンカーテキストでの外部リンク
  • 同一IP、同一テンプレートからの外部リンク

 

一度ペナルティを受けてしまうと、簡単に解除することができません。
知らず知らずのうちにペナルティとなってしまうことがないように、Googleの品質ガイドラインを理解した上で、ユーザーに価値のある有益な情報を提供することを強く意識した良質なWEBサイトを運営することが大切です。

 

 

▶外部アルゴリズムアップデート

2012年4月に導入されたGoogle検索エンジンのアルゴリズムアップデートのひとつが、ペンギンアップデートです。
はじめに導入されて以降、ペンギンアップデートは定期的に更新されています。
そして、最も大きな更新は2016年9月に実施されたペンギンアップデート4.0です。

 

4.0はこれまでのペンギンアップデートと異なり、ネガティブSEOの影響もあってか、Googleの品質ガイドラインに背くブラックハットSEO、主に作為的なリンク操作を実施しているWEBサイトの評価をゼロ、つまり評価しないというアルゴリズムです。
4.0以前のペンギンアップデートは、スパム性のあるリンクはマイナス評価の対象としていました。
例えば、以下のようなWEBサイトはペンギンアップデートの影響を受けやすいとされています。

 

  • 不必要に過剰な外部リンク
  • 低評価のWEBサイトからの外部リンク
  • 内容に乏しく、内容の薄い相互リンク集
  • ページ同士で大量のリンクを設定しているリンクファーム
  • 不正なスパムリンク
  • 特定のサイトの検索順位を意図的に下げる逆SEOやネガティブSEO

 

ペンギンアップデート導入前は、Googleの品質ガイドラインに違反するブラックハットSEOを用いているサイトが上位表示されるという事態が生じていました。
こういった事態を重くみたGoogleは、ブラックハットSEOを用いているWEBサイトではなく、価値のあるサイトを上位表示することを目的にペンギンアップデートを導入しました。

 

これにより、外部リンクが多いと評価が高いという以前までの常識が覆り、
より外部リンクの質が重視されるようになりました。

 

外部対策では、

  • 良質で外部リンク
  • 自然な形で貼られた外部リンク

が高い評価を受けやすいということを念頭に、価値のあるリンクを集めてWEBサイトやページの価値を高めることが重要です。

 

 

4-3-3.ユーザビリティとエラー対策

内部対策と外部対策以外に押さえておきたい、ユーザビリティ対策について紹介します。

▶サイトの高速化

ページの表示速度は、Googleの検索アルゴリズムにおける検索順位を決める要素の一つです。
ページの表示速度が高速化されれば、ユーザーエクスペリエンスの向上につながります。
反対に、ページの表示速度が遅ければマイナス評価となります。

 

(1)通信量を削減しているか?

ファイルサイズが大きいと通信量が増えます。

 

通信量が多いと読み込みに時間がかかってしまうので、

  • HTML/CSS/JavaScriptなどのテキストファイルはminify/gzipを使ってファイルの圧縮をする。
  • 画像はJPEG/PNG/GIFの中から適切な圧縮形式を選択し、メタデータ削除などの圧縮処理をする。
  • ブラウザの画面外の画像をダウンロードさせないようにLazy Loadを適用させる。

というような方法で通信量を削減します。

 

(2)通信回数を削減しているか?

HTTP/1.1を採用している場合は、通信回数を策編することでWEBサイトの表示速度化につながります。

 

HTTP/1.1でサイトの高速化を実現するには、

  • CSS/JavaScript は1つのファイルに結合する
  • アイコン画像はCSSスプライトを利用する
  • ページ固有のCSS/JavaScript/画像はインライン化する

といった方法があります。

 

(3)通信距離を短くしているか?

ユーザーの居住地と地理的に近いサーバーを利用することで、物理的な距離を縮めて表示速度を速くするという方法があります。
また、CDNを導入するとWEBサイトの高速化できておすすめです。

(4)レンダリング速度を高速化できているか?

レンダリングの速度を高速化するために、

  • CSSはhead要素で読み込ませる
  • ファーストビューで利用するCSSのみをhead要素に記載する
  • それ以外はbody要素の末尾で読み込ませる

といったやり方が理想です。

 

また

  • id名やclass名のみで要素を指定できるようコーディングする
  • JavaScriptはbody要素末尾で読み込ませる
  • async/defer属性を付与する
  • widthとheightを指定して画像のレイアウトを高速化する

といった方法でCSSの解析を高速化します。

 

(5)HTTP/2を採用しているか?

HTTP/1.1は、1つのTCPコネクションで1リソースの送受信しかできません。
それに対し、HTTP/2は複数リソースの送受信を同時に実行できます。
HTTP/2を採用すると、通信速度の向上が見込めて、通信回数を削減する必要性も低くなります。
ただ、HTTP/2通信は、現行のブラウザの仕様上、HTTPS化が必須であることに注意が必要です。

(6)Resource Hintsを利用してリソースを事前取得しているか?

Resource Hintsとは、

  • dns-prefetch(事前にDNSをルックアップさせる)
  • preconnect(事前にTCP接続させる)
  • prefetch(事前にリソースをダウンロードさせる)
  • prerender(次ページを事前レンダリングさせる)

の4つの要素から構成されます。

 

次に必要となるリソースを事前に読み込んでおくことで、ユーザーのページ遷移時のパフォーマンスを向上させられます。
中でもdns-prefetchは、主要なブラウザはすべて対応し、利用してもページの表示速度に悪影響が少ないので、外部ドメインへの発リンクがあるページでは積極的に記述しましょう。

 

(7)キャッシュを活用しているか?

ブラウザキャッシュ、及びサーバーキャッシュを共に有効にしましょう。
初回にページを閲覧したときにデータがキャッシュとして保存され、次回の表示が高速化されるからです。

(8)PageSpeed を導入しているか?

今後は、サイトの高速化対応が常識化すると言われています。高速化処理で未対応のものがあれば、次の最善策としてPageSpeed Moduleを導入しましょう。
PageSpeed Moduleにはさまざまな機能があるので、WEBサイトで未対応のものをピックアップして設定してください。

▶モバイル対応

2015年に、モバイルフレンドリーという仕組みがGoogleのウェブマスター向け公式ブログで発表されました。
モバイルフレンドリーが実装されて以降、モバイル(スマートフォンなど)対応のWEBサイトはモバイルの検索結果に優遇されて表示されるようになりました。
Googleは、モバイルフレンドリーをはじめ、モバイル検索結果のアルゴリズムに対応したSEO対策を行うことを推奨しています。

 

(1)モバイル用ページが存在しているか?

現在、日本国内でのモバイル検索数がPC検索数を超え、Googleは、評価の軸足をPCからモバイルへ変更しました。SEOの観点はもちろん、ユーザビリティの観点でも、モバイル対応は必須事項です。

そのため、PC用ページに1対1で対応するモバイル用ページを作成しましょう。
モバイル向けサイトを作ったのに、一部のページはモバイル用ページになっていない、といったことがないようにWEBサイト全体をモバイル対応にしましょう。
尚、モバイル用ページはレスポンシブウェブデザインか、動的な配信で対応することをおすすめします。

(2)動的な配信を採用時に、適切なVary HTTP ヘッダーを設定しているか?

動的な配信の場合、PC用ページとモバイル用ページの両方にアクセスできるので、アクセスしているデバイスとは異なるデバイス用ページがキャッシュで表示されるリスクがあります。
よって、動的な配信方式を選ぶときは、ページをリクエストするユーザーエージェントごとにキャッシュを分けるために、Vary HTTPヘッダーを設定します。

(3)デバイス別のURLで配信する場合、適切なアノテーションタグとリダイレクト設定をしているか?

PC用URLごとに、同等のモバイル向けコンテンツを配信する別のURLを用意しましょう。
2つのURLの関係を、
 ・PCページにはrel="alternate"
 ・モバイル用ページにはrel="canonical"
を使用して記述します。


PCページには以下のようなタグを<head>内に記述

<link rel="alternate" href="モバイル用ページのURL">

モバイル用ページには以下のようなタグを<head>内に記述

<link rel="canonical" href="PCページのURL">

対象デバイスとは異なるデバイスでアクセスされた場合は、適切なページに一時的な転送に用いられる302リダイレクトさせてください。恒久的な移動ではないので、301リダイレクトさせるのは誤りです。


(4)再生できないコンテンツを保持していないか?

動画やFlashなど、コンテンツの種類によってはモバイル端末で動作しないものがあります。
再生できないコンテンツがページにあるとユーザーエクスペリエンスの低下につながります。
よって、動画やアニメーションを掲載するときは、HTML5標準タグを使用する必要があります。

(5)モバイルフレンドリーなUIになっているか?

Googleは、モバイルフレンドリーを評価要素として使用しています。
モバイルフレンドリーでないサイトは、スマートフォン検索結果で順位を下げます。

 

モバイルフレンドリーなUI(ユーザーの目に触れる全ての情報)にするために、

  • フォントサイズは16~18px
  • 行間はフォントサイズの1.5倍程度
  • タップ領域として48px四方を確保する
  • タップ領域間は32px以上空ける

といった点を確認しましょう。

 

尚、インタースティシャルバナーはペナルティ対象になるため、絶対に掲載してはいけません。

 

▶AMP対応・HTTPS化

「AMP(Accelerated Mobile Pages)」は、モバイル用サイトを閲覧するときにページを高速表示化させるために開発されました。
AMPが導入されたページは、Googleの検索エンジンの検索結果にAMP対応ラベルが表示されています。

 

AMPを導入することで、

  • WEBページの高速化によるユーザビリティの向上
  • 離脱率を抑さえ滞在時間が伸びる
  • モバイル検索結果にカルーセル形式(ユーザーがスワイプで複数の画像を表示させられる形式)で表示され訴求力が高まる

といったメリットがあります。

 

「HTTPS(Hyper Text Transfer Protocol Secure)」は、WEBサーバーとブラウザなどがデータを送受信するために使うプロトコル(取り決め、手順など)の一つです。
WEBサイトの情報をプロトコルで送受信している構成をHTTPといいますが、この構成にSSLやTSLによるデータ暗号化機能(セキュリティ機能)を加えることをHTTPS化といいます。

 

HTTPSへ移行することで、

  • 情報漏洩防止
  • SEOの評価として優遇されやすい

といったメリットがあります。

 

(1)AMP対応

AMPを導入されたページは、高速化表示が可能になります。
それにより、UX(ユーザーエクスペリエンス)の向上だけでなく、検索結果にリッチ表示されることもあります。モバイル用ページが問題なく運用できているのであれば、続いてAMPページも作成しましょう。

(2)HTTPSを利用しサイトのセキュリティを高めているか?

Googleは、ユーザーが安全にサイトを閲覧できるように、セキュリティ機能で保護されているHTTPS化対応のサイトを優位にするランキングアルゴリズムを導入しています。
検索順位への影響やユーザーエクスペリエンスの観点で、WEBサイトをHTTPS化してサイトの安全性を高める必要がありますが、その際はCSSやJavaScript、画像などの外部リソースのリンクもHTTPS化しておくことを忘れないようにしてください。

▶Googleサーチコンソールでのエラー確認

Googleサーチコンソール(Google Search Console)は、WEBサイトのパフォーマンス管理、監視ができるツールです。
Googleから無償で提供されているツールなので、使い方をマスターしてWEBサイト運営に役立てましょう。

 

(1)[手動による対策]でメッセージは届いていないか?

[検索トラフィック]→[手動による対策]の順でクリックすると、現状の手動による対策の有無が確認できます。
WEBサイトが Googleのガイドラインに違反してペナルティを与えられている場合、この項目内でサイト内部・外部の問題点を伝えてくれます。問題箇所を速やかに修正して、再審査リクエストを行い、手動のペナルティを解除してもらう必要があります。


(2)[HTMLの改善]で title、descriptionの問題が検出されていないか?

[検索での見え方]→[HTMLの改善]の順でクリックすると、タイトルタグの重複などの問題を確認できます。
title やdescriptionをユニーク化するなど、生じている問題に応じた修正をします。

(3)[構造化データ]で設置した構造化データにエラーがないか?

[検索での見え方]→[構造化データ]の順でクリックすると、構造化データにエラーが発生していないかを確認できます。
どのタイプの構造化データでエラーが出ているかを確認した上で修正をして、正しく表示されているかを確認しましょう。

(4)[Accelerated Mobile Pages]でエラーがないか?

[検索での見え方]→[Accelerated Mobile Pages]の順でクリックすると、AMPにエラーが発生していないかどうかを確認できます。
エラーを修正した後は、再インデックスされてレポートに反映されるまでに時間差があるので、数日後に改めて適用されているかを確認しましょう。


(5)[サイトへのリンク]におかしなリンクは存在していないか?

[検索トラフィック]→[サイトへのリンク]の順でクリックすると、現状どのようなサイトから外部リンクが集まっているかを確認できます。
最新のリンクは一覧でダウンロードできます。ガイドライン違反に対する警告メッセージや、急激な順位下降が発生している場合は、リンク元に問題がないかを確認しましょう。

(6)[モバイルユーザビリティ]に問題はないか?

[検索トラフィック]→[モバイルユーザビリティ]の順でクリックすると、現状サイトに影響を及ぼしているモバイルユーザビリティの問題点を確認できます。
例えば、フォントサイズが小さい、ボタン同士が近いなど、利用しづらいページになっていないかをチェックできます。

(7)Fetch as Googleで適切にクロールできているか?

[クロール]→[Fetch as Google]の順でクリックすると、画像やCSS、JavaScriptファイルなどがレンダリング可能になっているかを確認できます。また、重要ページのURLが適切にクロールできているか、Googleロボットからどのように見えているかを確認できます。

(8)[robots.txtテスター]でエラーが発生していないか?

[クロール]→[robots.txt テスター]の順でクリックすると、エラーが発生していないかを確認できます。例えば、robots.txtに記載されている文法が間違えている場合などはエラーが表示されます。
そのほか、重要ページをブロックしていないかなど、クローラーがアクセス制御を正しく行っているかを確認できます。

(9)[サイトマップ]で全コンテンツが適切に認識されているか?

[クロール]→[サイトマップ]の順でクリックすると、エラーが発生していないかどうかを確認できます。
また、すべてのコンテンツがクローラーに認識されているか確認できます。
新規サイトや規模の大きなサイトの新しいページなどは、クローラーがページを見つけるまで時間がかかるので、サイトマップを登録します。

(10)[URLパラメータ]でインデックスすべきページをクロール対象外にしていないか?

[クロール]→[URLパラメータ]の順でクリックすると、不要なURLパラメータを指定して排除できます。また、間違って必要なページをクロール対象外にしていないか確認します。


(11)[セキュリティの問題]でサイトコンテンツからセキュリティの問題が検出されていないか?

[セキュリティの問題]の項目は、サイトコンテンツにセキュリティ上の問題が発生していないかどうかを確認できます。
セキュリティの問題に関する警告が届いている場合は、内容を確認して早急に対応しましょう。

(12)Search Console(β 版)の「インデックス カバレッジ」でエラーやインデックス除外が発生していないか?

[ステータス]→[インデックス ステータス]の順でクリックすると、エラーや除外URLが発生していないかどうかを確認できます。
この項目では、エラー、有効(警告あり)、有効、除外という4つのステータスが表示されます。
エラーや除外は何らかの理由でページがインデックスされていないため、早急な対策が必要です。

【2019年SEOの具体的な対策方法のまとめ】

ここまで、SEOで必要な具体的な対策・やるべきことを

 

【第1ステップ.キーワード選定】
【第2ステップ.ページ制作・運用】

 

という2つのステップに分けて解説してきました。

 

次回は【第3ステップ.順位計測・確認】の順位計測ツールについて解説していきます


この記事をシェアする