2013年1月10日木曜日

検索エンジンのスパイダーやロボットXiangjie

我々は、検索エンジンは独自の"検索ロボット"(ロボット)が知っていると、ページ上のネットワークリンクに沿って、これらのロボットを介して(通常は、httpおよびリンクsrc)のクロールを綼けるデータは独自のデータベースを確立する。サイト管理者やコンテンツプロバイダには、時には、いくつかのサイトのコンテンツになりますしたくない場合は、心配しているオープンロボットにクロールされる。この問題を解泀するには、ロボット開発コミュニティの2つのオプション:1つには、robots.txt提供しています、他のロボットのmetaタグです。 1 robots.txt1、何robots.txtのですか? robots.txtのプレーンテキストファイルは、この文書によるものです