サイトリニューアルSEO。
注意したい8つのチェックポイント

GeoDesign編集部

サイトリニューアルSEO

SEO効果絶大!?サイトリニューアルの際注意すべき8つのポイント

解決するお悩み

近いうちにサイトリニューアルを考えているが、どんなことに気をつけるべきか知りたい
くまなくSEO対策をとり、サイトを上位表示させたい

こんな悩みや思いを抱えている人に役立つような情報を共有します。

このブログで伝えること

①WEB集客効果をアップさせるために、サイトのリニューアルは必要不可欠
②サイトのリニューアルをする際、気をつけるべきこと8つ

動画メッセージ版

  

サイトのアップデートはこまめに行うべき!

WEB集客効果を向上させるため、古くなったサイトのアップデートは定期的におこないましょう。しかし、正しい方法でリニューアルしないと集客数がガクンと落ちてしまいかねません。

最悪の事態を未然にふせぐため、サイトリニューアルをする際に注意すべきことをまとめました。

(1)コンテンツは充実しているか?

(2)内部リンクは確保できているか?

(3)title やdescription、見出しタグがちゃんと設定されているか?

(4)robot.txtでクローラを拒否してないか?

(5)削除したページをそのままにしていないか?

(6)xmlのサイトマップを設置しているか?

(7)URLの正規化ができているか?

(8)訪問者が使いやすいように設計されているか?

上記8つのテーマをそれぞれ解説します。

  

(1)コンテンツは充実しているか?

SEO効果が十分に発揮されるかどうかは、コンテンツの内容によって決まります。ですから、コンテンツの中身をうめることが非常に重要です。

仮に内容の薄い情報を発信したところで、まとまったアクセス数は見こめません。そればかりか集客率が急激に落ちこんでしまいます。

かつて筆者も自分のサイトを制作した際、コンテンツ制作に注力しきれませんでした。そのせいでSEO効果が思ったように望めなかったのです。

くり返しますが、SEO効果とコンテンツの内容はリンクしています。ですから、ユーザー目線に立って中身の濃いコンテンツを作るよう心がけてください。

また工事中のページや、中途半端に作成したページはないか確認することも大切です。
サイトを訪問した人が「分かりにくい」と感じてしまったらアウト。
ほかの競合ページに離脱されてしまいます。

つまりコンテンツは中身を充実させるだけでなく、ある程度ボリュームを確保しなければなりません。
自分が伝えたいことにくわえ、読み手が知りたい情報を盛りこむことが大切です。

ほかにも画像に関連するキーワードが、altに設定されているかどうかを確認してください。

  

(2)内部リンクは確保できているか?

内部リンクは、ぱんくずやヘッダメニュー、フッダメニュー、テキストからリンクなどの種類をさします。
サイトを刷新するときは、これらがしっかり設定されているかを確認しておきましょう。

なぜかというと、ロボットクローラに内部リンクを介して情報を読みとらせるためです。

検索エンジンはあらゆるサイトをおとずれた時に、内部リンクをたどって数多くのページを閲覧します。
そのため自社サイトの情報をクローラにできるだけ多く取得してもらうには、内部リンクがしっかりしていないといけません。

もし内部リンクが確保できていないとどうなるのか?クローラに情報が伝達しないため、検索結果に浮上しなくなります。

自社サイトの存在を検索エンジンに知らしめるため、内部リンクの設定を忘れぬようお気をつけください。

  

(3)title やdescription、見出しタグがちゃんと設定されているか?

サイトを新たに立ちあげる時は、title やdescriptionなどの設定を見直しましょう。

第一に、そもそもtitleやdescriptionとは何かを説明します。titleとはページの名前を意味します。

一方でdescriptionは端的にあらわすならば説明文のことです。
GoogleやYahoo!などの検索エンジンに「このサイトにはどのような趣旨があるのか」を伝えるために設定します。

ほかにも忘れてしまいがちなのが見出しタグを挿入することです。
仮に見出しタグが入っていないと、検索エンジンにページを読みとってもらえない可能性が出てきます。
そうならないよう、title・description・見出しタグなどのhtmlは正しく使いましょう。

このとき、むやみやたらにタグを埋めこむのではなく、集客キーワードを意識して挿入してください。
顧客を意識したキーワードを網羅することで、検索上位に自社サイトのコンテンツが表示されやすくなります。

  

(4)robot.txtでクローラを拒否してないか?

ごくまれにrobot.txtを使ってクローラを拒否していることがあります。先述したとおりクローラとは、検索エンジンのこと。たとえるなら、いろいろな場所(WEBサイト)から情報をあつめてくるロボットのような存在です。

robot.txtを使用すればクローラに対し「もうこのページには来なくてもいいですよ」と、意思表示できます。しかしrobot.txtを使うと、自社サイトが検索エンジンの目にとまらなくなってしまうため、設定しているようでしたら解除してください。

  

(5)削除したページをそのままにしていないか?

サイトを入れかえる際に、質の低いページや必要のなくなったページを削除することがあります。
しかし検索エンジンには以前あったページが消失したことは伝わりません。

それに、いらないページを消したとしても検索エンジン側にはURLが残っています。
そのまま放置していると、WEBサイトの価値がさがってしまうことも。
結果的に悪影響をおよぼすため、404エラーを返すようさだめてください。

  

(6)XMLサイトマップを設置しているか?

サイトマップとは、ホームページの中にある記事を検索エンジンに認識させやすくするためのファイルのことです。おもにXMLサイトマップ(sitemap.xml)のことを意味します。

わかりやすく言えば“自分のサイトはどのような内容を掲載しているのか説明するサイト”のこと。

クローラはこのサイトマップを見て、あらゆる方面から情報をキャッチします。

XMLサイトマップを活用することで、検索上位に表示させやすいサイト運用が実現するのです。

もし未設定の場合はセッティングすることをおすすめします。

別の方法としてサーチコンソールを設置することも可能です。
サーチコンソールが必要な理由は、クローラに自分のサイトができたことを教えるため。
そもそも検索エンジンにサイトが発見されないと、多くの人が閲覧することはおろかGoogle検索の上位に食いこむことができません。

サーチコンソールは自社で設定できますが、外注先に依頼することも可能です。

  

(7)URLの正規化ができているか?

URLの正規化とは、同じ内容のコンテンツページがいくつもある場合、検索エンジンからの評価を得たいURLをひとつにすることをさします。
URLが正規化されていないことで生じるデメリットは以下のとおりです。

・検索エンジンが、コンテンツに順位をつける際の評価がバラバラになる
・*①クローラビリティの低下
・トラッキング分析に時間がかかる

*①クローラビリティ:検索エンジンがWEBページを見つける際、WEBページを認識しやすいかどうかの判断

基本的に検索エンジンはURL単位でページを評価しています。
そのため同じ内容の記事であっても、URLが違うだけで別のページとみなされるリスクがあるのです。

結果本来であれば1つのページとして認識されるはずが、評価が分散してしまい検索順位にばらつきが出てしまいます。

・URLの正規化ができているかどうか
・wwwをありにするのかしないのか

上記2点に関しての設定は、サーチコンソールで実行してください。

  

(8)訪問者が使いやすいように設計されているか?

サイトをリニューアルする際は、訪問者にとって使いやすい設計を心がけてください。

使い勝手の悪いサイトを作ってしまうと、ページが複数あったとしても顧客に読んでもらえません。

「コンテンツが掲載されている場所はどこ?」
「メニューが見たいのに探せない」

など、訪問者が迷ってしまうような構造のサイトであってはなりません。
なぜなら読み手だけでなくGoogleの評価がさがってしまうからです。

サイトを再構築するときは、訪問者からして見やすい(使いやすい)かどうかを大切にしましょう。

  

まとめ:SEO効果絶大!?サイトリニューアルの際注意すべき8つのポイント

サイトを新たにオープンさせるとき、注意してほしいポイントを8つまとめました。
この8つの注意点を知っているか知らないかでは大きく差がうまれます!

これらすべてをご自身でチェックする必要はありません。
アウトソーシング先の企業に情報を連携し「はたして正しい方法でサイトを生まれかわらせることはできるだろうか?」と、確認してもらうとよいでしょう。

  • 集客+売上を上げるホームページができる「DEKITA・デキタ」
  • 二人三脚のWEBコンサルで成果があがる「AGARU・アガル」

この記事を書いたひと

GeoDesign編集部

このひとが書いた記事