一些網頁如何製作或打破您的網站

潛在客戶明確表示不同意我最近提出的建議。

我告訴他幾頁內容可能會對他的網站產生重大影響。即使在支持我的斷言的硬數字中,他仍然不願意。我的自我開始啃咬:一位畫家會告訴一位數學家如何做三角?

與藝術不同,內容營銷和SEO不是主觀的。您編寫的文字的質量可以量化,並且可以為您的業務帶來回報。

你的大部分內容都不會做任何事情
為了進行這種對話,我們真的需要處理這個事實。

Google創造的大部分內容深入到第7頁,排名與您的品牌完全無關。缺乏科學的(客觀的數學)過程是怪罪。但稍後更多。

例如:Brafton曾經在內容策略方面採用批量播放。卷=關鍵字排名。這是噴和祈禱,它的工作。

回顧舊文章的當前表現,我們發現我們網站的前100頁(所有索引頁面的1.2%)佔所有有機流量的68%。

此外,94.5%的索引頁面每三個月搜索5次或更少。

那麼是什麼給了?

以下是改變之處:簡單的內容已成為過去。編寫內容和“使用關鍵字”是搜索結果第7頁上的一個孤注一擲的計劃。創建內容的過程需要嚴格且嚴格的數據支持。它需要從關鍵字研究開始。

1.關鍵詞研究:
從經常搜索的關鍵字中選擇內容主題。搜索量意味著興趣,這可以保證您寫作的內容對您的目標受眾感興趣。您選擇的關鍵字也需要合理。使用來自Moz或SEMrush的有機難度指標可幫助您確定您是否有機會在某個有意義的地方進行排名。

2. SEO內容寫作:
您的目標是讓您正在撰寫的網頁對您定位的關鍵字進行排名。在博客文章中使用關鍵字並鏈接到產品登錄頁面的時代已經結束。一頁,一個關鍵字。因此,如果您希望自己的網頁對所選關鍵字進行排名,那麼該網頁必須是該關鍵字在網絡上的最佳內容。它需要深入,涵蓋大量相關主題。

如何項目結果
構建您的關鍵字目標的初始列表。使用搜索量,有機難度,SERP擁擠和搜索者意圖的最佳組合將列表過濾到關鍵字。您可以使用此模板作為指導 – 只需製作一份副本,然後設置即可。

谷歌的承諾

HTTP / 2代表了一個承諾的土地,每個人都在尋找的技術SEO綠洲。到目前為止,許多網站已經添加了HTTP / 2支持,開發人員不再需要針對HTTP / 1.1進行優化。在我回答Robert的問題之前,我需要知道Googlebot是否支持HTTP / 2-crawling。

在我的詢問中,我並不孤單。這是一個經常出現在Twitter,Google Hangouts和其他此類論壇上的主題。和羅伯特一樣,我讓客戶向我求助。實驗需要發生。下面我將詳細說明我們如何得出答案,但這是擾流板:它沒有。 Google不會使用HTTP / 2協議進行抓取。如果您的網站使用HTTP / 2,則需要確保繼續優化HTTP / 1.1版本以進行爬網。

這個問題
這一切都始於2015年11月的Google Hangouts。

當被問及HTTP / 2支持時,John Mueller提到在2016年初就應該準備好HTTP / 2-crawling了,他還提到HTTP / 2會讓Googlebot更容易通過捆綁請求來抓取頁面(圖片,JS,可以使用單個捆綁請求下載CSS。

“目前,谷歌不支持HTTP / 2-crawling(…)八拓科技有限公司seo正在努力,我懷疑它將在今年年底(2015年)或明年初(2016年)準備好( …)HTTP / 2的一大優勢是你可以捆綁請求,所以如果你正在查看一個頁面,它有一堆嵌入式圖像,CSS,JavaScript文件,理論上你可以為所有人提出一個請求這些文件並將所有內容組合在一起。因此,在我們渲染頁面時,這會使抓取頁面變得更容易一些。“
不久之後,Twitter用戶Kai Spriestersbach也詢問了HTTP / 2支持:
他的客戶開始放棄HTTP / 1.1連接優化,就像大多數開發人員部署HTTP / 2一樣,當時所有主流瀏覽器都支持HTTP / 2。

幾個月後,谷歌網站管理員重新點燃了這次談話,發推文說如果你正在設置HTTP / 2,谷歌不會阻止你。然而,在這個時候,我們仍然沒有關於HTTP / 2-only爬行的明確說法。僅僅因為它不能阻止你並不意味著它能夠處理它 – 這就是為什麼我決定測試這個假設。

本實驗
幾個月來,我一直在關注這個在線辯論,我仍然收到了不再想要花錢在HTTP / 1.1優化上的客戶提出的問題。因此,我決定創建一個非常簡單(和大膽)的實驗。

我決定在我自己的網站(https://goralewicz.com)上禁用HTTP / 1.1並僅將其設為HTTP / 2。我從3月7日到3月13日禁用了HTTP / 1.1。

如果你要得到壞消息,至少它會很快到來。我沒有必要等待很長時間才能看到我的實驗“花了很多時間。”在禁用HTTP / 1.1後不久,我無法在Google Search Console中獲取並呈現我的網站;我每次都收到一個錯誤。

我的網站相當小,但我可以清楚地看到,在禁用HTTP / 1.1後,抓取的統計信息會減少。谷歌不再訪問我的網站。

雖然我可以堅持下去,但由於“拒絕訪問”錯誤導致我的網站被部分取消索引後,我停止了實驗。

結果
我不需要任何更多的信息;證據就在那裡。 Googlebot不支持HTTP / 2-only抓取。如果您選擇在我們自己的網站上複製此內容,您會很高興知道我的網站恢復得非常快。

我終於得到了羅伯特的答案,但也覺得其他人也可以從中受益。在完成我的實驗幾週後,我決定向John詢問有關HTTP / 2在Twitter上抓取的信息,看看他有什麼要說的。

(我喜歡他的回應。)

知道我的實驗結果,我不得不同意約翰:禁用HTTP / 1是一個壞主意。但是,我看到其他開發人員不再對HTTP / 1進行優化,這就是為什麼我要自己測試HTTP / 2的原因。

對於那些希望運行自己的實驗的人來說,有兩種方式可以協商HTTP / 2連接:

1.通過HTTP(不安全) – 發出包含Upgrade標頭的HTTP / 1.1請求。這似乎是John Mueller所指的方法。但是,它不適用於我的網站(因為它是通過HTTPS提供的)。更重要的是,這是一種過時的談判方式,不受現代瀏覽器的支持。以下是Caniuse.com的截圖: