Thứ Tư, 27 tháng 1, 2016

Google đánh giá 1 web như thế nào?

cong-cu-tim-kiem-hoat-dong-nhu-the-nao

Bạn đang bắt đầu chọn hiểu về tối ưu hóa website trên Google? Bạn đã sáng suốt lúc bắt đầu tìm hiểu cơ chế hoạt động của công cụ tìm kiếm này. Bởi "Biết địch biết ta, trăm trận trăm thắng". Chỉ lúc bạn nắm rõ được cơ chế hoạt động của công cụ tìm kiếm này, bạn mới sở hữu thể seo website 1 bí quyết thật hiệu quả.

Trước khi đi vào các giải thích cụ thể về cơ chế hoạt động của Google, chúng ta hãy cũng xem qua một clip video của Matt Cutts – Cựu trưởng nhóm Google Webspam, giải thích về cơ chế hoạt động của công cụ tìm kiếm Google.

Matt Cutts kể gì về cơ chế hoạt động của Google?


video của Matt Cutts – trưởng nhóm Google Webspam, giới thiệu về quá trình tìm kiếm và xử lý thông tin của Google Search

Qua clip này, chúng ta thấy được Google mang 3 bộ phận riêng biệt tham gia vào cấu thành buộc phải kết quả cho bảng xếp hạng kết quả tìm kiếm (SERP) mà chúng ta vẫn thường xem, bao gồm:

  • Crawling & Indexing – Thu thập và lập chỉ mục dữ liệu
  • Algorithms – Thuật toán xếp hạng website
  • Fighting spam – Chống spam

3 bộ phận này sẽ đảm nhiệm 3 công đoạn khác nhau trong công đoạn đưa 1 website lên bảng xếp hạng kết quả tìm kiếm của Google. Để tìm hiểu rõ hơn về quy trình hoạt động của 3 quá trình này, thứ 1 chúng ta hãy cộng đi vào chọn hiểu giai đoạn thu thập và lập chỉ mục dữ liệu website: –Crawling & Indexing.

Thu thập dữ liệu và lập chỉ mục

crawling-and-indexing

Để với một kết quả tìm kiếm như bạn vẫn thường thấy trên SERP, Google đã nên thực hiện cả một quá trình siêu dài trước đấy, bắt đầu từ việc thu thập thông tin và lập chỉ mục cho hàng nghìn tỷ trang website trên mạng internet.

Công việc này được thực hiện bằng các công cụ với tên gọi là "trình thu thập thông tin website" hay các con bot của Google hoặc Crawlers. Về bản chất, trình thu thập thông tin là 1 phần mềm có khả năng hoạt động độc lập, với nhiệm vụ thu thập dữ liệu về nội dung và liên kết trên trang và đem những thông tin ấy về cho máy chủ tìm kiếm của Google.

Công cụ được biết đến rộng rãi nhất và có thể hoạt động rộng rãi nhất đấy là Googlebot. Giống như 1 con vật bò trườn, Googlebot sẽ lần lượt bò trường qua toàn bộ các nội dung trên trang web, chui và đa số những liên kết có mặt trên trang, cho đến trùng hợp còn đi tiếp được nữa, để mang thể thu thập khía cạnh các dữ liệu về trang web ấy, xem các trang này đang nói về nội dung gì, sở hữu bao nhiêu trang đang trỏ tới và trỏ đi từ trang này.

Từ ấy, công đoạn này được đặt tên là Crawling – bò trườn theo nghĩa sinh động hóa cách thu thập thông tin của Googlebot.

quá trình thu thập dữ liệu – Crawling

quá trình này sẽ được bắt đầu sở hữu một danh sách các url từ các lần thu thập thông tin trước đấy hoặc từ sitemaps – sơ đồ cấu trúc website mà các quản trị viên đã gửi tới Google. Sau đấy, từ những trang web này, Googlebot sẽ truy cập những trang website khác mang liên kết tới trang web này. các trang web mới hoặc có sự cập nhật về nội dung sẽ được Google đặc thù để ý,

Trình thu thập dữ liệu này cũng đồng thời xác định web nào bắt buộc thu thập dữ liệu , cộng mang số lần thu thập thông tin thiết yếu, hay biên độ thu thập thông tin cùng mang số lượng trang web thiết yếu cần thu thập thông tin những trang web này. các số liệu này hoàn toàn được tạo một bí quyết tự động và không với sự can thiệp của con người.

giai đoạn lập chỉ mục dữ liệu web – Indexing

các dữ liệu thu được từ công đoạn crawl website sau đó sẽ được thu thập về máy chủ Google và tiến hành index –lập chỉ mục dữ liệu. nguồn gốc từ góc nhìn về việc Internet giống như một thư viện công cộng với hàng nghìn tỷ cuốn sách khác nhau và ngày càng được tăng lên về số lượng, Google đã đưa ra cho mình ý tưởng về việc thu thập và xử lý dữ liệu của các web này.

Về cơ bản, công cụ tìm kiếm này sẽ mã hóa dữ liệu dưới dạng text và đánh chỉ mục chúng để sở hữu thể lưu lại và trích xuất dễ dàng như lúc chúng ta đọc một mục lục của một cuốn sách. những chỉ mục nãy sẽ bao gồm 1 số thông tin như các từ khóa cùng vị trí của chúng trên trang. Để lúc các bạn tìm kiếm 1 từ khóa nào ấy, công cụ này sẽ chỉ việc tìm kiếm theo từ khóa và trích xuất kết quả một bí quyết dễ dàng sở hữu thời gian ngắn nhất.

Tuy nhiên, những mã hóa này sở hữu thể trở lên phức tạp hơn lúc Google muốn khách hàng sẽ nhận được một kết quả tìm kiếm nhiều nhất với rộng rãi mẫu hình nội dung liên quan đến truy vấn chọn kiếm của bạn như hình ảnh, clip,.. hay thậm chí là một vị trí địa danh trên Google Maps.

Vậy, lúc quý khách tìm kiếm một truy vấn nào đó, làm thể nào để công cụ tìm kiếm quyết định xem web bạn với được xếp hạng cao hơn những website khác hay không? tất cả sẽ được giải thích trong phần tiếp theo : Algorithms – Thuật toán xếp hạng web.

Algorithms – Thuật toán xếp hạng website

google-algorithm

Để quyết định một trang web sở hữu giá trị về nội dung hay không đến mang người dùng, Google đã phải sử dụng đa số các tiêu chí xếp hạng khác nhau. ngày nay, Google đang mang khoảng hơn 200 các tiêu chí khác nhau để xác định giá trị của 1 trang website. các tiêu chí này giống như những bộ lọc giúp sàng lọc những trang website mang giá trị về nội dung từ hàng triệu các trang khác cộng nói về truy vấn của quý khách.

Về bản chất, những tiêu chí này chính là những thuật toán và công thức được thiết kế lên thành một quy trình nhất định để mang lại 1 trả lời phải chăng nhất cho mỗi truy vấn tìm kiếm của các bạn. các tiêu chí này được dựa trên 1 số các thông tin của trang web như các từ, cụm từ, (từ khóa), độ rộng rãi của website (backlink), độ uy tín của tên miền, pagerank,…

Để hạn chế hiện tượng spam kết quả tìm kiếm, Google đã và đang nỗ lực giữ bí mật về những tiêu chí xếp hạng này. Tuy nhiên, vì là thuật toán được mang tác dụng ngay đến vật dụng hạng của 1 web, buộc phải theo thời gian, 1 số các tiêu chí này dần được những SEOer khám phá ra. Ví dụ như mật độ từ khóa trên trang, số lượng và chất lượng của backlink,…

Tình trạng spam do vậy mà bắt đầu trở thành ngày một phổ biến hơn. Để khắc phục tình trạng spam này, Google đã thành lập một đội chuyên phòng chống spam: Google Webspam team để thực hiện 1 bước quan trọng trang bị 3 – bước cuối cùng trong việc cấu thành phải bảng xếp hạng kết quả chọn kiếm: Fighting spam – Chống spam

Fighting spam – Chống spam

Fighting-spam-google

Theo thống kê của Google, có hàng triệu trang website được tạo ra mỗi ngày chỉ vì mục đích spam, và hoàn toàn vô ích đối có quý khách. Để chống lại cơn bão spam này, Google nên thành lập một nhóm những kỹ sư hàng đầu để khiến sao mang thể lọc được trang spam này mà không khiến ảnh hưởng tới các web khác.

Giải pháp cho tình trạng này hiện giờ của Google đó là tiêu dùng các thuật toán chống spam như Google Panda và Google Penguin, đồng thời hài hòa mang việc đánh giá thủ công (đánh giá bằng sức người) về tình trạng spam của một website. Tình trạng spam đã suy giảm đáng đề cập từ ngày đầu tiên bước chống spam này được triển khai.

một số các thủ thuật spam mà Google đã phát hiện được như: nhồi nhét từ khóa, sắm backlink, hidden text, doorway,… các hiện tượng này chưa phải là tất cả những thủ thuật spam của các SEOer bây giờ và đang trở thành ngày một tinh vi hơn, khó phát hiện hơn. vì vậy Google đã phải mang 1 nhóm riêng để đánh giá web, nhằm đem đến một kết quả chọn kiếm thân thiện nhất cho người dùng.

các web bị xác định là spam với thể bị giảm đồ vật hạng kết quả chọn kiếm ngay lập tức hoặc không được xếp hạng. Và sau ấy, các website này có thể được đưa vào danh sách các web nên theo dõi, bị theo dõi bới một kỹ sư của Google hoặc nên chịu một số những hình phạt trực tiếp về ranking của Google.

Bạn sở hữu thể chọn hiểu thêm về Google Panda và Google Penguin tại đây.

Lời kết

Trên đây là những giái thích cơ bản của vietmoz.com về cơ chế hoạt động của Google và phương pháp Google xếp hạng một web. Bạn sở hữu thể tìm hiểu thêm những phương pháp để mang một vật dụng hạng cao trên Google qua bài viết tìm hiểu về tối ưu hóa – seo công cụ tìm kiếm (search engine optimization) là gì?

0 nhận xét:

Đăng nhận xét