2010年12月12日 星期日

為甚麼網頁不被百度收錄?

一般的新站,Google收錄一切正常,就是百度很不順暢。

在網上看了很多關於百度的分析,就此做個總結,希望對大家有所幫助

首先,總結一下百度不收錄網站的原因:

百度方面
百度反作弊手法調整網頁關鍵字過多引起;

百度反鏈接算法調整現在已經不是依靠留言本、blog的時代了所以不是以前那樣做好站加點鏈接就進百度了;

百度推出新搜索功能blog搜索引起;

百度對於過分敏感關鍵字做出了算法調整,可能更多是依據網頁更新速度、流量、優質鏈接等更多的綜合因素來決定收錄站點;

大眾的共識點:並不是百度不收錄站點、而是百度暫時將站點放在緩存數據庫裡、待檢驗符合他的規則後再展現給訪問者。

網站方面
網頁使用框架:框架內的內容通常不在搜索引擎抓取的範圍之內。

圖片太多,文本太少。

提交頁面轉向另一網站:搜索引擎可能完全跳過這個頁面。

提交太過頻繁:一個月內提交2次以上,很多搜索引擎就受不了,認為你在提交垃圾。

網站關鍵詞密度太大:不幸的是搜索引擎並沒解釋多高的密度是極限,一般認為100個字的描述中含有3-4個關鍵詞為最佳。

文本顏色跟背景色彩一樣:搜索引擎認為你在堆砌關鍵詞欺騙它 SEO

動態網頁:網站的內容管理系統方便了網頁更新,卻給大部分搜索引擎帶來麻煩,很多搜索引擎不收取動態頁面,或只收取第一層頁面,不會向下深入收取。這時要考慮使用WEB服務器的重寫(rewrite)技術,把動態頁面的url映射成和靜態頁面url相似的格式,搜索引擎誤以為是靜態頁面,就會收取了。

網站轉移服務器:搜索引擎通常只認IP地址,轉換主機或域名時,IP/DNS地址發生改變,這時你要重新提交網站。

免費的網站空間:有的搜索引擎拒絕索引來自免費空間的網站,抱怨很多垃圾,質量差。

搜索引擎抓取時網站不在線:如果主機不穩定,就有可能出現這種情況。 更糟糕的是,即使網站已經收錄,重新抓取時發現不在線,還會將網站整個刪除。 中國站長.

錯誤地阻擋了robots索引網站:有兩種方法可能阻擋robots:主機服務器的根目錄下有簡單文本文件;網頁中含某種META標籤。

大量運用FlashDHTMLcookiesJava***Java製作或密碼進入的網頁,搜索引擎很難從這種頁面中提取內容。

搜索引擎不能解析你的DNS:新域名註冊後需要1-2天的時間才能生效,因此不要一註冊了域名馬上提交網站。

網站的鏈接廣泛度太低:鏈接廣泛度太低,搜索引擎難以找到你,這時要考慮把網站登錄到知名分類目錄,或多做幾個友情鏈接。

服務器速度太慢:網絡帶寬小,網頁下載速度太慢,或者網頁太複雜,都可能導致搜索引擎還沒搜到文本內容就暫停。

關鍵字問題:如果正文沒有出現你的META標籤中提到的關鍵字,搜索引擎可能以為是垃圾關鍵字

沒有留言:

張貼留言