谷歌的承諾

HTTP / 2代表了一個承諾的土地,每個人都在尋找的技術SEO綠洲。到目前為止,許多網站已經添加了HTTP / 2支持,開發人員不再需要針對HTTP / 1.1進行優化。在我回答Robert的問題之前,我需要知道Googlebot是否支持HTTP / 2-crawling。

在我的詢問中,我並不孤單。這是一個經常出現在Twitter,Google Hangouts和其他此類論壇上的主題。和羅伯特一樣,我讓客戶向我求助。實驗需要發生。下面我將詳細說明我們如何得出答案,但這是擾流板:它沒有。 Google不會使用HTTP / 2協議進行抓取。如果您的網站使用HTTP / 2,則需要確保繼續優化HTTP / 1.1版本以進行爬網。

這個問題
這一切都始於2015年11月的Google Hangouts。

當被問及HTTP / 2支持時,John Mueller提到在2016年初就應該準備好HTTP / 2-crawling了,他還提到HTTP / 2會讓Googlebot更容易通過捆綁請求來抓取頁面(圖片,JS,可以使用單個捆綁請求下載CSS。

“目前,谷歌不支持HTTP / 2-crawling(…)八拓科技有限公司seo正在努力,我懷疑它將在今年年底(2015年)或明年初(2016年)準備好( …)HTTP / 2的一大優勢是你可以捆綁請求,所以如果你正在查看一個頁面,它有一堆嵌入式圖像,CSS,JavaScript文件,理論上你可以為所有人提出一個請求這些文件並將所有內容組合在一起。因此,在我們渲染頁面時,這會使抓取頁面變得更容易一些。“
不久之後,Twitter用戶Kai Spriestersbach也詢問了HTTP / 2支持:
他的客戶開始放棄HTTP / 1.1連接優化,就像大多數開發人員部署HTTP / 2一樣,當時所有主流瀏覽器都支持HTTP / 2。

幾個月後,谷歌網站管理員重新點燃了這次談話,發推文說如果你正在設置HTTP / 2,谷歌不會阻止你。然而,在這個時候,我們仍然沒有關於HTTP / 2-only爬行的明確說法。僅僅因為它不能阻止你並不意味著它能夠處理它 – 這就是為什麼我決定測試這個假設。

本實驗
幾個月來,我一直在關注這個在線辯論,我仍然收到了不再想要花錢在HTTP / 1.1優化上的客戶提出的問題。因此,我決定創建一個非常簡單(和大膽)的實驗。

我決定在我自己的網站(https://goralewicz.com)上禁用HTTP / 1.1並僅將其設為HTTP / 2。我從3月7日到3月13日禁用了HTTP / 1.1。

如果你要得到壞消息,至少它會很快到來。我沒有必要等待很長時間才能看到我的實驗“花了很多時間。”在禁用HTTP / 1.1後不久,我無法在Google Search Console中獲取並呈現我的網站;我每次都收到一個錯誤。

我的網站相當小,但我可以清楚地看到,在禁用HTTP / 1.1後,抓取的統計信息會減少。谷歌不再訪問我的網站。

雖然我可以堅持下去,但由於“拒絕訪問”錯誤導致我的網站被部分取消索引後,我停止了實驗。

結果
我不需要任何更多的信息;證據就在那裡。 Googlebot不支持HTTP / 2-only抓取。如果您選擇在我們自己的網站上複製此內容,您會很高興知道我的網站恢復得非常快。

我終於得到了羅伯特的答案,但也覺得其他人也可以從中受益。在完成我的實驗幾週後,我決定向John詢問有關HTTP / 2在Twitter上抓取的信息,看看他有什麼要說的。

(我喜歡他的回應。)

知道我的實驗結果,我不得不同意約翰:禁用HTTP / 1是一個壞主意。但是,我看到其他開發人員不再對HTTP / 1進行優化,這就是為什麼我要自己測試HTTP / 2的原因。

對於那些希望運行自己的實驗的人來說,有兩種方式可以協商HTTP / 2連接:

1.通過HTTP(不安全) – 發出包含Upgrade標頭的HTTP / 1.1請求。這似乎是John Mueller所指的方法。但是,它不適用於我的網站(因為它是通過HTTPS提供的)。更重要的是,這是一種過時的談判方式,不受現代瀏覽器的支持。以下是Caniuse.com的截圖: