① 為什麼新網站的文章一直都不收錄
一般首頁會快些,內頁文章類會慢些,1-3個月內都是正常的,會有網路沙盒期,
文章未收錄與網站的質量和其他多方面的因素有關。
1、robots.txt,錯誤操作,屏蔽了內頁。
(處理方法:進入網站空間,找到根目錄下的robots.txt文件,打開觀察寫法,文件屏蔽,查看是否有誤或新增即可。直接觀察也可以在瀏覽器輸入主域名+robots.txt即可觀察,修改還是要到伺服器空間或ftp裡面處理。)
2、網站結構不好,如網站首頁到內頁的鏈接太少,導航結構混亂,導航不清楚。
(處理方法:可以重新調整下,調用文章標題到首頁,增加一個「最新文章」、「文章推薦」等版塊,增加內頁入口。)
3、內容質量不過關(處理方法:堅持有質量、有數量的更新網站內容,做好網站原創內容,看您網站內容很多都是摘自別的網站的,無創新哦)
4、伺服器原因,如果網頁打開慢,會影響用戶體驗,也會影響收錄, 這里嘗試訪問也不是很好
其他影響因素
如網站整體權重較低,會影響文章收錄;網站是否有被降權過?也會影響的
建議都嘗試檢查下,並可以多做些外鏈引蜘蛛
希望對你有幫助 ~~ 有流量優化的可以關注我們~
② 如何處理網站頁面不收錄的問題
網站收錄問題一直讓我們很煩惱,因為網路要是不收錄,我們所有的工作都是白費的,所以網站收錄是個很重要的問題,那麼怎樣才能提高網站收錄率呢?做好下面三點,網站肯定可以被迅速收錄。
第一:盡量增加蜘蛛訪問網站頻率;
第二:網站建立良好的站內結構;
第三:讓蜘蛛知道我們網站的價值對用戶有用。
第一、增加蜘蛛訪問網站頻率
蜘蛛訪問我們的網站越多,網站被收錄的可能性越大,我們通常的操作方法分站內、站外:
站內:保持固定頻率,固定量更新網站內容,但要內容質量一定要保證,不然適得其反。
站外:在高權重的網站,投稿增加網站的權重,吸引蜘蛛訪問網站。
第二、建立良好的站內結構
只吸引蜘蛛是不夠的,要做好站內結構,讓蜘蛛在網站爬行暢通無阻。我們可以利用麵包屑導航、網站地圖等,保證蜘蛛順利爬行網站上所有的網頁。
註:不要利用js、flash以及iframe框架,因為這些蜘蛛都是不識別的。
通常站內結構以樹形結構即可,但是小型網站最好扁平化:
①主頁鏈接向所有的頻道主頁
②所有頻道主頁都連向其他頻道主頁
③頻道主頁都連回網站主頁
④頻道主頁也連向屬於自己本身頻道的內容頁
⑤所有內容頁都連向網站主頁
⑥所有內容頁都連向自己的上一級頻道主頁
⑦內容頁可以連向同一個頻道的其他內容頁
⑧內容頁一般不連向其他頻道的內容頁
第三、讓蜘蛛知道網頁價值與意義
想讓搜索引擎收錄網站內容,首先就需要證明內容的價值。
①原創度:寫作水平不太好的,可以適當偽原創,然後利用"原創度檢測工具"檢測一下。爭取做好原創高的內容。
②減少網站內部信息內容的重復率。
③網頁文字千萬不要少於300字,當然越多,收錄的可能性越大。
另外,站長們也可以利用內頁外鏈,引導網路抓取內頁,這種方式效果不錯!
③ 新網站一直不收錄,有什麼辦法解決
第一、 分析網站日誌,看是否有被蜘蛛爬過
作為站長一定要學會網站日誌的分析,網站日誌裡面可以告訴我們表面看不到的隱藏問題。具體網站日誌怎樣分析,可以參見小編之前寫過的一篇《SEO網站優化每天必做之事:網站日誌分析》。
1)、若未被收錄的頁面未被蜘蛛爬行
頁面未被Baispider爬行,那麼你可以適當的給該頁面做一些外鏈來引導蜘蛛過來爬行,也可以給搜索引擎提交該頁面。比如,每日吐槽圖示頁面已經很久了,還未被網路收錄。那麼我們就可以進行以下操作:
2)、若頁面已經被Baispider爬行過了
頁面被爬行也未被收錄,那麼就可能存在的因素:
1、 第一次被Baispider爬行,從網路的綜合演算法來看該頁面的價值性極低,再考核要不要創建索引。
2、 第二次被Baispider爬行,該頁面從始至終都未有任何的變動,決定對此頁面暫停分析。
3、 第三次被Baispider爬行,該頁面還是沒變動,並且這么長時間也未出現其它的附加價值(附加價值:評論,分享,被轉發等等),決定不予收錄。
要知道Baispider也是很忙的,沒有那麼多的閑工夫天天來爬行你這些未收錄的頁面,所以,當出現頁面長時間都不被網路收錄的話,那麼就要適當的給該頁面增加一些附加價值或者對該頁面進行重新的進行修改。你可以對文本新增一些圖片,視頻或者內容,也可以對標題進行再次編輯。總之,要讓Baispider再次過來爬行的時候,返回的狀態碼不是一個無變化的狀態嗎,這樣你的頁面被收錄的幾率就大大的提升了。
第二、 你是否robots設置錯誤,主動屏蔽Baispider
Robots的設置也是非常重要的,這個很多人可能對這些還不了解。我建議大家可以到網路站長工具資訊裡面看,那裡面有詳細的教程說明,這里我就不再啰嗦了。若是自己robots設置的問題,那麼自己進行糾正後,再在網路站長工具後台裡面進行更新robots這樣的話好讓網路蜘蛛重新更改狀態。
第三、 你的頁面是否存在敏感詞
如今越來越多的詞對搜索引擎來說都有一定的敏感,敏感詞很有可能造成你的頁面不被收錄,有時候也會造成網站被將去或被k。所以站長們再建設內容的時候一定要注意不要在文中出現敏感詞。
第四、 你的頁面內容是否是採集的
網路老大之前有表明過,資料庫裡面肯定會存在完完全全的重復的內容。但是也會有一定的限制。比如一篇文章上限被收錄20篇,那麼當已經被收錄20篇了,那麼無論是你還是他人在轉載更新的話也不會被收錄。
希望可以幫助到你,如果有其他網路問題,歡迎咨詢
望採納
④ 網站為什麼一直不收錄
域名問題:
在建站的時候,可能是對seo知識的欠缺,隨便找個域名就綁定到網站上了,也許這個域名有被K的歷史記錄,所以造成了網站一直不被收錄,解決的辦法就是去換一個域名。
網站質量問題:
如果你的域名沒有問題的話,那麼看看是不是網站設計的問題,比如網站源碼里有許多不起作用js文件或網站打開速度慢等等一些問題,解決的辦法就是需要對網站的源碼部分做一個整體的優化。
內容問題:
隨著網路的演算法更新,最重要的就是體現在網站內容的質量上面,如果你的網站常常發一些採集的或是不健康的文章,網路肯定是不會收錄的,解決的辦法就是刪掉這些文章,靜下心來寫自己的原創文章。
rbots.txt文件屏蔽:
你需要打開你網站的根目錄找到rbots.txt這個文件,看看裡面是不是將網路蜘蛛屏蔽掉了,從而導致內容不被收錄。
外鏈快速增加:
一個新的網站剛剛上線,某些站長會使用群發軟體或是去多個平台發布外鏈,從而導致網站短時間有了大量的垃圾外鏈,這會使網站被網路的「綠蘿演算法」重點關注,解決辦法就是刪掉這些外部鏈接,重新優化。
內容頻繁改動:
有些站長發布文章後覺得不滿意,就想重新編輯修改,這樣的情況是不合適的,因為這會導致搜索引擎誤判,從而延長審核期,解決辦法就是安心寫文章,不要隨意修改。