Tin tức

Thời gian tải trang và thu thập thứ hạng ngân sách - Chỉ số SEO quan trọng nhất trong năm 2020

Dựa trên thử nghiệm của Kalzen Media, PLT CBR là các khía cạnh kỹ thuật mà tôi tin rằng sẽ quyết định thành công hay thất bại của trang web trong năm mới.

Google có khả năng áp đặt các quy tắc riêng của mình đối với chủ sở hữu trang web, cả về nội dung và tính minh bạch của thông tin, cũng như chất lượng kỹ thuật. Bởi vì điều này, các khía cạnh kỹ thuật mà tôi chú ý nhất bây giờ - và sẽ làm như vậy vào năm tới - là tốc độ của các trang web trong bối cảnh thời gian tải khác nhau mà tôi đang gọi PLT (Thời gian tải trang).

Thời gian đến byte đầu tiên (TTFB) là thời gian phản hồi của máy chủ từ khi gửi yêu cầu cho đến khi byte thông tin đầu tiên được gửi. Nó cho thấy cách một trang web hoạt động theo quan điểm của một máy chủ (kết nối cơ sở dữ liệu, xử lý thông tin và hệ thống lưu trữ dữ liệu, cũng như hiệu suất của máy chủ DNS). Làm thế nào để bạn kiểm tra TTFB? Cách dễ nhất là sử dụng một trong các công cụ sau:

  • Công cụ dành cho nhà phát triển trong trình duyệt Chrome
  • WebPageTest
  • Kiểm tra byte

Giải thích kết quả

Thời gian TTFB dưới 100ms là một kết quả ấn tượng. Trong các đề xuất của Google, thời gian TTFB không được vượt quá 200ms. Người ta thường chấp nhận rằng thời gian phản hồi của máy chủ chấp nhận được tính toán để nhận byte đầu tiên không được vượt quá 0,5 giây. Trên giá trị này, có thể có vấn đề trên một máy chủ vì vậy việc sửa chúng sẽ cải thiện việc lập chỉ mục của một trang web.

Cải thiện TTFB

  • Phân tích trang web bằng cách cải thiện các đoạn mã chịu trách nhiệm cho các truy vấn cơ sở dữ liệu tiêu thụ tài nguyên (ví dụ: tham gia đa cấp) hoặc tải mã nặng cho bộ xử lý (ví dụ: tạo cấu trúc dữ liệu cây phức tạp đang hoạt động, chẳng hạn như cấu trúc danh mục hoặc chuẩn bị hình thu nhỏ trước khi hiển thị chế độ xem mà không sử dụng các cơ chế lưu trữ).
  • Sử dụng Mạng phân phối nội dung (CDN). Đây là việc sử dụng các mạng máy chủ nằm rải rác trên khắp thế giới, cung cấp nội dung như CSS, tệp JS và ảnh từ các máy chủ nằm gần người muốn xem một trang web nhất định. Nhờ CDN, tài nguyên không được xếp hàng, như trong trường hợp máy chủ cổ điển và được tải xuống gần như song song. Việc thực hiện CDN giúp giảm thời gian TTFB lên tới 50%.
  • Nếu bạn sử dụng lưu trữ được chia sẻ, hãy xem xét việc di chuyển sang máy chủ VPS với các tài nguyên được đảm bảo như bộ nhớ hoặc sức mạnh bộ xử lý hoặc máy chủ chuyên dụng. Điều này đảm bảo chỉ bạn mới có thể ảnh hưởng đến hoạt động của máy (hoặc máy ảo trong trường hợp VPS). Nếu một cái gì đó hoạt động chậm, các vấn đề có thể thuộc về phía bạn, không nhất thiết là máy chủ.
  • Suy nghĩ về việc thực hiện các hệ thống bộ nhớ đệm. Trong trường hợp của WordPress, bạn có nhiều plugin để lựa chọn, việc triển khai không có vấn đề gì và các hiệu ứng sẽ ngay lập tức. WP Super Cache và W3 Total Cache là những plugin tôi sử dụng thường xuyên nhất. Nếu bạn sử dụng các giải pháp chuyên dụng, hãy xem xét các triển khai Redis, Memcache hoặc APC cho phép bạn kết xuất dữ liệu vào các tệp hoặc lưu trữ chúng trong RAM, điều này có thể làm tăng hiệu quả.
  • Kích hoạt giao thức HTTP / 2 hoặc, nếu máy chủ của bạn đã có tính năng này, HTTP / 3. Ưu điểm ở dạng tốc độ rất ấn tượng.

Thời gian xử lý DOM

Thời gian xử lý DOM là thời gian để tải xuống tất cả các mã HTML. Mã càng hiệu quả, càng ít tài nguyên cần thiết để tải nó. Lượng tài nguyên nhỏ hơn cần thiết để lưu trữ một trang web trong chỉ mục của công cụ tìm kiếm giúp cải thiện tốc độ và sự hài lòng của người dùng.

Tôi là một fan hâm mộ của việc giảm khối lượng mã HTML bằng cách loại bỏ mã HTML dư thừa và chuyển đổi việc tạo các phần tử được hiển thị trên một trang web từ mã HTML sang CSS. Ví dụ: tôi sử dụng các lớp giả: trước và sau, cũng như xóa hình ảnh ở định dạng SVG khỏi HTML (những lớp được lưu trữ bên trong <svg> </ svg>).

Thời gian kết xuất trang

Thời gian kết xuất trang của một trang web bị ảnh hưởng bằng cách tải xuống tài nguyên đồ họa, cũng như tải xuống và thực thi mã JS.

Giảm thiểu và nén tài nguyên là một hành động cơ bản giúp tăng tốc thời gian kết xuất của trang web. Tải ảnh không đồng bộ, thu nhỏ HTML, di chuyển mã JavaScript từ HTML (một trong đó các cơ quan chức năng được bao gồm trực tiếp trong HTML) sang các tệp JavaScript bên ngoài được tải không đồng bộ khi cần. Các hoạt động này chứng minh rằng chỉ nên tải mã Javascript hoặc CSS cần thiết trên một trang phụ hiện tại. Chẳng hạn, nếu người dùng ở trên trang sản phẩm, trình duyệt không phải tải mã JavaScript sẽ được sử dụng trong giỏ hoặc trong bảng điều khiển của người dùng đã đăng nhập.

Càng nhiều tài nguyên cần được tải, Google Bot càng phải dành nhiều thời gian để xử lý việc tải xuống thông tin liên quan đến nội dung của trang web. Nếu chúng tôi giả định rằng mỗi trang web có số lần truy cập Google Bot tối đa - kết thúc bằng việc lập chỉ mục nội dung - thì càng ít trang chúng tôi sẽ có thể được gửi đến chỉ mục của công cụ tìm kiếm trong thời gian đó.

Thu thập xếp hạng ngân sách

Vấn đề cuối cùng đòi hỏi sự chú ý nhiều hơn. Thu thập dữ liệu ảnh hưởng đáng kể đến cách Google Bot lập chỉ mục nội dung trên một trang web. Để hiểu cách thức hoạt động của nó và ngân sách thu thập thông tin là gì, tôi sử dụng khái niệm có tên CBR (Xếp hạng ngân sách thu thập dữ liệu) để đánh giá tính minh bạch của cấu trúc trang web.

Nếu Google Bot tìm thấy các phiên bản trùng lặp của cùng một nội dung trên một trang web, CBR của chúng tôi sẽ giảm. Chúng tôi biết điều này theo hai cách:

1. Bảng điều khiển tìm kiếm của Google

Bằng cách phân tích và đánh giá các vấn đề liên quan đến lập chỉ mục trang trong Google Search Console, chúng tôi sẽ có thể quan sát các sự cố gia tăng trong tab Trạng thái> Loại trừ, trong các phần như:

  • Trang web được quét nhưng chưa được lập chỉ mục
  • Trang web chứa chuyển hướng
  • Nhân đôi, Google đã chọn một trang chính tắc khác với người dùng
  • Sao y, người dùng chưa đánh dấu trang chuẩn

2. Nhật ký truy cập

Đây là nguồn thông tin tốt nhất về cách Google Bot thu thập dữ liệu trang web của chúng tôi. Trên cơ sở dữ liệu nhật ký, chúng tôi có thể hiểu cấu trúc của trang web để xác định các điểm yếu trong kiến ​​trúc được tạo bởi các liên kết nội bộ và các yếu tố điều hướng.

Các lỗi lập trình phổ biến nhất ảnh hưởng đến các vấn đề lập chỉ mục bao gồm:

  • Cơ chế sắp xếp và lọc dữ liệu được tạo ra kém, dẫn đến việc tạo ra hàng ngàn trang con trùng lặp
  • Xem nhanh Liên kết các liên kết trong phiên bản người dùng hiển thị cửa sổ bật lên với dữ liệu trên lớp và tạo một trang web có thông tin sản phẩm trùng lặp.
  • Phân trang không bao giờ kết thúc.
  • Liên kết trên một trang web chuyển hướng đến các tài nguyên tại một URL mới.
  • Chặn truy cập cho robot để tài nguyên thường lặp đi lặp lại.
  • Lỗi 404 điển hình.

CBR của chúng tôi sẽ giảm nếu mớ hỗn độn của trang web của chúng tôi tăng lên, điều đó có nghĩa là Google Bot ít sẵn lòng truy cập trang web của chúng tôi (tần suất thấp hơn), lập chỉ mục ngày càng ít nội dung và trong trường hợp giải thích sai phiên bản tài nguyên đúng, xóa các trang trước đó trong chỉ mục công cụ tìm kiếm.

Khái niệm ngân sách thu thập dữ liệu cổ điển cho chúng tôi ý tưởng về việc Google Bot thu thập dữ liệu trung bình mỗi ngày (theo tệp nhật ký) so với tổng số trang trên trang web. Đây là hai kịch bản:

  • Trang web của bạn có 1.000 trang và Google Bot thu thập 200 trang trong số đó mỗi ngày. Nó nói gì với bạn? Đó là một kết quả tiêu cực hay tích cực? 
  • Trang web của bạn có 1.000 trang và Google Bot thu thập 1.000 trang. Bạn nên vui hay lo lắng?

Không mở rộng khái niệm thu thập ngân sách với các số liệu chất lượng bổ sung, thông tin sẽ không hữu ích như nó tốt. Trường hợp thứ hai có thể là một trang được tối ưu hóa tốt hoặc báo hiệu một vấn đề lớn. Giả sử nếu Google Bot chỉ thu thập dữ liệu 50 trang mà bạn muốn được thu thập thông tin và phần còn lại (950 trang) là các trang nội dung mỏng / trùng lặp / mỏng. Sau đó, chúng tôi có một vấn đề.

Tôi đã làm việc để xác định số liệu Xếp hạng ngân sách thu thập dữ liệu. Giống như Xếp hạng Trang, thứ hạng trang càng cao, liên kết gửi đi càng mạnh mẽ. CBR càng lớn, chúng ta càng có ít vấn đề.

Việc giải thích số CBR có thể là như sau:

https://searchengineland.com/figz/wp-content/seloads/2019/12/image1-5.png

IS - số lượng trang web được lập chỉ mục được gửi trong sơ đồ trang web (sơ đồ trang web được lập chỉ mục)

NIS - số lượng trang web được gửi trong sơ đồ trang web (sơ đồ trang web không được lập chỉ mục)

IPOS - số lượng trang web không được chỉ định trong sơ đồ trang web (các trang được lập chỉ mục bên ngoài sơ đồ trang web)

SNI - số lượng trang được quét nhưng chưa được lập chỉ mục

Phần đầu tiên của phương trình mô tả trạng thái của một trang web trong bối cảnh chúng tôi muốn công cụ tìm kiếm lập chỉ mục (các trang web trong sơ đồ trang web được giả định là trang web chúng tôi muốn lập chỉ mục) so với thực tế, cụ thể là những gì Google Bot đạt được và được lập chỉ mục ngay cả khi chúng tôi không muốn điều đó. Lý tưởng nhất là IS = NIS IPOS = 0.

Trong phần thứ hai của phương trình, chúng ta hãy xem số lượng trang web mà Google Bot đã đạt được so với mức độ bao phủ thực tế trong việc lập chỉ mục. Như trên, trong điều kiện lý tưởng, SNI = 0.

Giá trị kết quả nhân với 10 sẽ cho chúng ta một số lớn hơn 0 và nhỏ hơn 10. Kết quả càng gần với 0, chúng ta càng nên làm việc trên CBR.

Đây chỉ là cách giải thích của riêng tôi dựa trên phân tích các dự án mà tôi đã giải quyết trong năm qua. Tôi càng quản lý để cải thiện yếu tố này (tăng CBR), khả năng hiển thị, vị trí càng cao và cuối cùng lưu lượng truy cập trên một trang web được cải thiện.

Nếu chúng tôi cho rằng CBR là một trong những yếu tố xếp hạng ảnh hưởng đến xếp hạng chung của tên miền, tôi sẽ đặt nó là yếu tố quan trọng nhất trên trang web ngay sau Xếp hạng Trang ngoài trang web. Các mô tả duy nhất được tối ưu hóa cho các từ khóa được chọn theo mức độ phổ biến có giá trị gì nếu Google Bot sẽ không có cơ hội nhập thông tin này vào chỉ mục của công cụ tìm kiếm?

Nội dung người dùng đầu tiên

Chúng tôi đang chứng kiến ​​một cuộc cách mạng lớn khác trong việc đọc và giải thích các truy vấn và nội dung trên các trang web. Trong lịch sử, những thay đổi đột phá như vậy bao gồm:

  • Tiêu chuẩn số lượng - 1.000 ký tự có khoảng trắng và ba từ khóa tiền trong nội dung. Cho đến một thời điểm nhất định, đó là một sự đảm bảo cho sự thành công, một ngày nào đó nó chỉ đơn giản là không còn quan trọng.
  • Nội dung mỏng - lưu lượng truy cập được xây dựng trên các thẻ được đóng gói với các từ khóa. Qua một đêm, chiến lược này đã ngừng hoạt động, cũng như đã tạo ra nội dung chất lượng thấp (bộ trộn văn bản) một cách giả tạo.
  • Nội dung trùng lặp - Google Bot đã học (ít nhiều tốt) văn bản nào được lập chỉ mục trong công cụ tìm kiếm là bản gốc (được tạo trước) và đó là bản sao. Kết quả là, Panda (thuật toán Google) đã được tạo ra. Cứ sau vài tháng, nó đã lọc và gắn cờ các trang web chất lượng thấp và giảm thứ hạng của chúng, cũng như các vị trí của công cụ tìm kiếm. Hiện tại, nó hoạt động ở chế độ trực tiếp trên mạng.
  • Rank Brain - một thuật toán sử dụng máy học, diễn giải các truy vấn của người dùng công cụ tìm kiếm ít chú trọng đến từ khóa và nhiều hơn về ngữ cảnh truy vấn (bao gồm cả lịch sử truy vấn), cũng như hiển thị các kết quả cụ thể hơn theo ngữ cảnh.
  • ĂN - loại bỏ nội dung gây hiểu lầm hoặc có khả năng gây hiểu lầm do thẩm quyền thấp của tác giả của nội dung, và do đó các tên miền. Điều này đặc biệt ảnh hưởng đến ngành y tế và tài chính. Bất kỳ bài viết nào không được tạo ra bởi các chuyên gia, nhưng liên quan đến các lĩnh vực trên của cuộc sống, có thể gây ra nhiều thiệt hại. Do đó, cuộc chiến của Google với các tên miền chứa nội dung và chất lượng kém.

Tạo nội dung cho các từ khóa cụ thể là mất tầm quan trọng. Các bài viết dài được đóng gói với các cụm từ bán hàng bị mất ánh sáng và các bài viết có chủ đề hẹp nếu nội dung được phân loại là phù hợp với ý định của người dùng và bối cảnh tìm kiếm.

Chứng nhận

BERT (Bi-directorial Encoder Đại diện từ Transformers) là một thuật toán cố gắng hiểu và giải thích truy vấn ở mức độ nhu cầu và ý định của người dùng. Ví dụ: truy vấn - Bạn có thể ở Mỹ bao lâu mà không cần visa hợp lệ? - có thể hiển thị cả kết quả của các trang web nơi chúng tôi có thể tìm thấy thông tin về thời hạn thị thực tùy thuộc vào quốc gia xuất xứ (ví dụ: tìm kiếm từ Châu Âu), cũng như những gì về mối đe dọa của người có visa sẽ hết hạn hoặc mô tả cách hợp pháp hóa một người ở lại Mỹ.

Có thể tạo ra nội dung hoàn hảo? Câu trả lời rất đơn giản - không. Tuy nhiên, chúng tôi có thể cải thiện nội dung của chúng tôi.

Trong quá trình cải thiện nội dung sao cho phù hợp hơn, chúng ta có thể sử dụng các công cụ như ahrefs (để xây dựng cảm hứng nội dung dựa trên phân tích cạnh tranh), semstorm (để xây dựng và kiểm tra các truy vấn dài bao gồm tìm kiếm dưới dạng câu hỏi) và surferseo (đối với nội dung phân tích so sánh của trang web của chúng tôi với các trang cạnh tranh trong SERP), gần đây là một trong những công cụ yêu thích của tôi.

Trong phần sau, chúng ta có thể thực hiện phân tích so sánh ở cấp độ từ, cụm từ ghép, thẻ HTML (ví dụ: đoạn văn, chữ in đậm và tiêu đề) bằng cách rút ra các thông lệ tốt về phổ biến có thể tìm thấy trên các trang cạnh tranh kéo lưu lượng truy cập công cụ tìm kiếm thành chính mình.

Đây là một phần tối ưu hóa nội dung nhân tạo, nhưng trong nhiều trường hợp, tôi đã có thể tăng thành công lưu lượng truy cập trên các trang web có nội dung tôi đã sửa đổi bằng cách sử dụng dữ liệu được thu thập bởi các công cụ trên.

Phần kết luận

Như tôi luôn nhấn mạnh, không có cách duy nhất để đối phó với SEO. Các thử nghiệm chứng minh cho chúng tôi xem chiến lược, cả về việc tạo nội dung của trang web hay chính nội dung, sẽ chứng minh là tốt.

 

Bình luận