crawl la gi

Crawler là gì? 7 yếu tố ảnh hưởng đến Crawler website 2024

  • Crawl là một khái niệm quan trọng trong lĩnh vực SEO, đặc biệt đối với những bạn mới bắt đầu tìm hiểu về SEO.

    Crawl đóng một vai trò quan trọng trong việc đảm bảo rằng trang web của bạn được các công cụ tìm kiếm phát hiện và index (lập chỉ mục tức phân loại và lưu trữ thông tin trên công cụ tìm kiếm).

    Tuy nhiên, quá trình crawl không đảm bảo rằng trang web của bạn sẽ được hiển thị trên các trang kết quả tìm kiếm. Để đạt được điều này, bạn cần hiểu rõ quy trình crawl và cách tối ưu hóa nó. 

    Bài viết này được viết dựa trên kiến thức cũng như kinh nghiệm đã tích lũy của mình. Nếu bạn là một nhân viên SEO mới, bài viết này dành cho bạn. Hãy cùng mình tìm hiểu nhé.

    Định nghĩa và thuật ngữ liên quan crawl

    Trước tiên, để nói đến crawler bạn cần hiểu rõ nó là gì và tầm quan trọng ra sao.

    Crawler là gì

    Crawl hay có tên gọi khác là crawl data (crawl dữ liệu). Hiểu đơn giản đó là quá trình các công cụ tìm kiếm gửi các con robot của mình đi tìm kiếm thông tin ở các trang web bất kỳ để tìm nội dung mới và cập nhập đến người dùng. 

    Thông tin ở đây có thể là nội dung, hình ảnh, bảng,… bất cứ thứ gì nó có thể cào được từ đó tiến hành phân tích, đọc dữ liệu và lọc ra theo yêu cầu của người dùng hoặc các công cụ tìm kiếm.

    Ví dụ về Qúa trình crawl
    Ví dụ về qúa trình crawl

    Ví dụ: khi bạn sử dụng công cụ tìm kiếm Google để tìm kiếm thông tin về Seosona. Google sẽ crawl (thu thập thông tin) ở các trang web liên quan đến Seosona. Sau đó, các thông tin này sẽ được đưa về web crawler chọn lọc và indexing (lưu trữ) tại cơ sở dữ liệu của google.

    Các dữ liệu này sẽ được hiển thị cho người dùng khi họ thực hiện tìm kiếm ví dụ như website Seosona.com. Quá trình này diễn ra liên tục giúp cập nhập thông tin mới nhất đến người dùng.

    Crawler Web là gì?

    Crawl và crawler web là 2 khái niệm khác nhau.

    Crawler Web còn được gọi là trình thu thập thông tin website, là phần mềm được thiết kế với mục đích duyệt các website trên World Wide Web một cách hệ thống và giúp thu thập thông tin trên các website về cho các công cụ tìm kiếm.

    Crawl là thuật ngữ nằm trong crawler web, đơn giản là chức năng của crawler web.

    Các Web Crawler sẽ truy cập đến trang web của bạn để tải toàn bộ nội dung của trang web cũng như tìm kiếm và truy cập thêm các đường liên kết trong trang web của bạn. 

    Dữ liệu sau khi được tải về sẽ được phân loại, lưu trữ nội dung (indexing) rồi lưu vào cơ sở dữ liệu.

    Web crawler
    Web crawler

    Ví dụ:  Một ví dụ về crawler website là Googlebot, một crawler được sử dụng bởi công cụ tìm kiếm Google. Googlebot truy cập các trang web và thu thập thông tin về các liên kết, nội dung và các thuộc tính khác của trang web để đưa ra các kết quả tìm kiếm chính xác cho người dùng.

    Phân biệt các thuật ngữ

    Khi tìm hiểu về Web crawler chắc hẳn các bạn sẽ bị nhầm lẫn giữa các thuật ngữ, hiểu được điều này mình có làm bảng liệt kê ra các thuật ngữ, định nghĩa và chức năng của chúng.

    Thuật ngữ Định nghĩa
    Web crawler
    • Trình thu thập thông tin website.
    • Có thể chỉ theo dõi một số trang websites cụ thể.
    • Thu thập toàn bộ thông tin trang
    Web Scraper
    • Trích xuất một lượng lớn dữ liệu từ các trang web và sau đó lưu nó vào máy cục bộ dưới dạng XML , excel,…
    • -Liên tục theo dõi các liên kết và thu thập thông tin các trang liên tục.
    • -Chỉ thu thập những thông tin cần thiết.
    Crawl ( cào)
    • Là chức năng của Web crawler. 
    • Quá trình truy cập và thu thập dữ liệu của Web Crawler trên một website
    Spider ( nhện)
    • Là cách gọi hình tượng hóa của Web Crawler dựa trên nguyên lý hoạt động và lưu thông tin
    • Từ 1 trang web, spider có thể nối thêm nhiều website chằng chịt như mạng nhện
    Bot
    • Internet Bot là một loại web robot (World Wide Web robot) là một phần mềm ứng dụng chạy tự động trên Internet
    • Web Crawler là một tập hợp con của Internet Bot và được sử dụng nhiều 
    • Lặp đi lặp lại có hệ thống cho người sử dụng
    Ant
    • Ant cũng là một cách gọi tương tự với spider,
    • Ant có nhiệm vụ đánh dấu những trang web mà spider đi qua.

    Tại sao cần thu thập dữ liệu crawl

    Crawl là quá trình quan trọng vì chúng xác định mức độ hiển thị và truy cập trang web của bạn đối với các công cụ tìm kiếm. 

    Nếu trang web của bạn không thể thu thập dữ liệu, điều đó có nghĩa là các công cụ tìm kiếm không thể tìm thấy và xếp hạng website của bạn. Điều này có thể dẫn đến lưu lượng truy cập, chuyển đổi và doanh thu thấp.

    Tuy nhiên cũng có quan niệm sai lầm như Google thu thập dữ liệu và lập chỉ mục tất cả nội dung trên internet, thực tế rằng Googlebot không thu thập dữ liệu trên mọi trang web và nhiều trang chưa bao giờ được thu thập dữ liệu. 

    Nếu bạn thấy dòng chữ “Đã khám phá – hiện chưa được lập chỉ mục” trong báo cáo Google Search Console, đó là vấn đề đang ảnh hưởng đến trang web của bạn.

    Tuy nhiên, việc không thấy dòng chữ này không có nghĩa là trang web của bạn không có vấn đề về thu thập dữ liệu.

    Có hai chỉ số để đo lường hiệu quả của thu thập dữ liệu đó là: Ngân sách thu thập dữ liệu và hiệu quả thu thập dữ liệu. 

    Ngân sách thu thập dữ liệu: đây là chỉ số mà các chuyên gia Seo thường tập trung vào, chỉ số này đề cập đến số lượng URL mà Googlebot muốn truy cập và có thể truy cập vào để thu thập dữ liệu trong một khoảng thời gian cụ thể. (ví dụ Googlebot truy cập 1 triệu URL trong năm 2023).

     Tuy nhiên, không phải thu thập càng nhiều dữ liệu càng tốt. Số lần tối ưu hóa quá trình crawl không phải luôn tương quan với số lần index, vì vậy bạn không nên chỉ chú trọng quá vào số lượng URL googlebot truy cập vào website của bạn mà nên kết hợp tối ưu hóa hiệu quả thu thập thông tin để mang lại giá trị SEO.

    Tối ưu crawl và nội dung để SEO tốt hơn
    Tối ưu crawl và nội dung để SEO tốt hơn

    Hiệu quả thu thập dữ liệu: Thu thập dữ liệu hiệu quả giúp giảm thời gian từ khi cập nhật trang đến khi Googlebot truy cập lần tiếp theo.

    Để đánh giá được hiệu quả thu thập dữ liệu, bạn có thể so sánh thời gian ngày giờ tạo hoặc cập nhập website so với thời gian googlebot thu thập dữ liệu trong nhật kí máy chủ. 

    Nếu không được, bạn có thể tự tính toán thời gian của lần sửa đổi gần đây nhất và truy vấn định kì các URL liên quan bằng cách thường xuyên kiểm tra URL trên Search console với API. 

    API là một công cụ lập trình ứng dụng (API) cho phép kiểm tra tính hợp lệ của một đường dẫn trang web. Nó sử dụng các thuật toán để kiểm tra xem URL có đúng định dạng hay không và có tồn tại trên mạng hay không

    Khi hiệu quả thu thập dữ liệu giảm, việc hiển thị nội dung mới hoặc cập nhật liên quan đến SEO trên Google sẽ chậm hơn. Nếu số liệu cho thấy googlebot đang mất quá nhiều thời gian để truy cập nội dung trên website của bạn thì bạn có thể thực hiện tối ưu hóa thu thập dữ liệu bằng các cách sau: 

    1. Cải thiện thu thập thông tin với sự hỗ trợ của công cụ tìm kiếm: Google và đối tác đang thảo luận về việc nâng cao hiệu quả thu thập thông tin bằng cách các trang web có thể sử dụng API để gửi trực tiếp các URL có liên quan đến công cụ tìm kiếm,điều này giúp index nội dung mới nhanh hơn và xóa các URL cũ, cái mà hiện tại google không hỗ trợ tốt
    2. IndexNow: Hãy cân nhắc sử dụng API đầu tiên, IndexNow được Bing, Yandex và Seznam hỗ trợ tích hợp nhiều công cụ như SEO, CRM, CDN. Tuy nhiên vì google không hỗ trợ Indexnow nên bạn cần phải xem xét tệp khách hàng của mình đang sử dụng công cụ tìm kiếm nào và chi phí sử dụng indexnow ra sao. 
    3. Google Search Console: Một cách mà Google hỗ trợ thu thập dữ liệu cho các website là gửi thủ công trong Google Search Console. Khi URL được gửi theo cách này, chúng thường được thu thập thông tin và lập chỉ mục trong vòng một giờ. Tuy nhiên, bạn chỉ có thể gửi 10 URL trong vòng 24 giờ. Bạn có thể gửi các URL ưu tiên để tăng tốc quá trình thu thập thông tin và lập chỉ mục.
    4. Ngoài ra, bạn cần xem xét tốc độ crawl dữ liệu của google có ảnh hưởng đến băng thông của bạn hay không. Nếu Google gửi quá nhiều yêu cầu đến trang web của bạn và gây chậm máy chủ, bạn có thể hạn chế tốc độ thu thập dữ liệu của Googlebot trên trang web của mình. Tuy nhiên lưu ý một điều rằng bạn chỉ có thể hạn chế tốc độ thu thập dữ liệu ở thư mục gốc bằng:
    • Nếu tốc độ thu thập dữ liệu của bạn được mô tả là “tối ưu theo kết quả tính toán”, bạn chỉ có thể giảm tốc độ bằng cách gửi yêu cầu đặc biệt. Không thể tăng tốc độ thu thập dữ liệu.
    • Nếu thông báo trên không hiển thị, chỉ cần chọn tùy chọn mong muốn và giới hạn tốc độ thu thập dữ liệu ở tần suất mong muốn. Lưu ý rằng tốc độ thu thập dữ liệu mới sẽ có hiệu lực trong vòng 90 ngày.

    Bên cạnh đó, bạn cần hạn chế tốc độ thu thập dữ liệu trong trường hợp khẩn cấp, việc hạn chế cần được triển khai và xem xét nhiều khía cạnh. Nếu bạn muốn đơn giản hãy sử dụng Robot.txt để ngăn chặn việc thu thập thông tin quá nhanh. Tuy nhiên, hãy chặn tệp robot txt trong 2-3 ngày và sau đó xóa nó. Bạn không nên chặn nó quá lâu bởi vì điều này sẽ ảnh hưởng đến quá trình thu thập dữ liệu.

    Hình minh họa crawl
    Hình minh họa crawl

    Ngoài ra, Website phải được thiết kế với một cấu trúc và định dạng phù hợp với các quy tắc và tiêu chuẩn của các công cụ tìm kiếm sao cho các robot của công cụ tìm kiếm có thể dễ dàng truy cập và thu thập thông tin một cách hiệu quả. 

    Đây là điều kiện cần để giúp cho website của bạn có thể xếp hạng trong kết quả tìm kiếm và dẫn đến tăng lượng truy cập trang web.

    Cách thức hoạt động của web crawler

    Crawl là chức năng của Web crawler vì vậy khi nói về cách thức hoạt động chúng ta thường nói đến cách hoạt động của web crawler.

    Các web crawler hoạt động bằng cách theo dõi các liên kết trên các trang web và thu thập thông tin từ các trang đó. 

    Khi web crawler tìm thấy một trang mới, nó sẽ tải về trang đó và trích xuất thông tin từ trang đó, bao gồm cả văn bản, hình ảnh và các liên kết khác.

    Các thông tin này sau đó được lưu trữ trong cơ sở dữ liệu của công cụ tìm kiếm và sử dụng để cung cấp kết quả tìm kiếm cho người dùng.

    5

    Web crawler sẽ khám phá URL và tải xuống nội dung trang. Nó giống như chúng ta duyệt nội dung trang. Các liên kết được tìm thấy ở các trang web sẽ được phân loại như sau:

    • Các URL mới mà công cụ tìm kiếm chưa biết.
    • Các URL đã biết nhưng không cung cấp hướng dẫn về thu thập thông tin.
    • Các URL đã biết đã được cập nhật và đưa ra hướng dẫn rõ ràng. 
    • Các URL đã biết chưa được cập nhật và đưa ra hướng dẫn rõ ràng. 
    • Các URL không thể truy cập không thể hoặc không nên theo dõi.
    • Các URL không được phép mà bot công cụ tìm kiếm sẽ không thu thập dữ liệu, chẳng hạn như những URL bị chặn bởi tệp robots.txt.

    Các trang web crawl sẽ đánh giá các website qua các chỉ số cụ thể từ đó xác định thứ tự ưu tiên thu thập thông tin từ các website. Các chỉ số bao gồm lượng truy cập, backlinks,…. 

    Khi đã thu thập được các thông tin cần thiết, web crawl sẽ xem xét trang của bạn có được hiển thị khi người dùng tìm kiếm từ khóa liên quan hay không.

    Tuy nhiên, việc sử dụng web crawler cũng có thể gây ra các vấn đề về bảo mật và quyền riêng tư. Do đó, nhiều trang web sử dụng các biện pháp bảo vệ để ngăn chặn hoạt động của web crawler.

    Các yếu tố ảnh hưởng đến crawl

    Tuy nhiên không phải cứ thu thập dữ liệu là web bạn hiển thị trên mắt người dùng, chúng còn phụ thuộc nhiều kĩ thuật làm SEO và một vài yếu tố ảnh hưởng như:

    Domain – tên miền

    Sau khi google ra thuật toán google panda, tên miền được mọi Seoer chú ý nhiều hơn. Tên miền không chỉ giúp cho khách hàng dễ tìm bài viết của bạn mà còn là một trong các yếu tố quan trọng để các công cụ tìm kiếm đánh giá trang web của bạn.

    Hình minh họa về Domain
    Hình minh họa về Domain

    Vậy crawl sẽ đóng vai trò gì? Crawl sẽ khám phá hết mọi thứ trên trang web của bạn. Khi tên miền bạn có chứa từ khóa chính hoặc phù hợp với nội dung được đánh giá tốt, trang web của bạn mới được web crawler đưa lên trang tìm kiếm.

    Backlinks – Liên kết ngoài trỏ về website

    Backlinks là những liên kết dẫn tới website của bạn, chúng giúp các chủ website khẳng định được sự uy tín của mình trong mắt khách hàng cũng như với các công cụ tìm kiếm.

    Nếu trang web bạn có nội dung tốt, thứ hạng website cũng tốt nhưng không có backlinks, Web crawl cũng sẽ đánh giá website của bạn kém chất lượng, không cung cấp được thông tin hữu ích cho các độc giả.

    Ví dụ: Seosona được đáng giá công ty seo uy tín tại sài gòn, và có rất nhiều trang web khác review về công ty, gắn link công ty vào bài viết. Link đó được gọi là backlink

    Internal Links – liên kết nội bộ

    Hình minh họa về Backlink
    Hình minh họa về Backlink

    Khác với backlink, internal links trỏ các liên kết trong cùng một website. Internal links cực kì quan trọng trong seo bởi vì nó làm giảm tỉ lệ thoát trang. Tăng thời gian người dùng ở lại trang web bằng cách điều hướng người dùng đến các trang khác trong website của bạn.

    XML Sitemap

    Sitemap là một tệp tin được tạo ra dưới dạng XML cung cấp cho các công cụ tìm kiếm thông tin về các website và cấu trúc của nó.

    Sitemap giúp Google có thể nhanh chóng cập nhật bài viết một cách nhanh nhất có thể.

    Duplicate Content – nội dung trùng lặp

    Khi nội dung trang web bạn bị trùng lặp quá nhiều, web crawler sẽ căn cứ vào thời gian và nội xung xem bạn có đang đi coppy hay không?

    Và nếu như nội dung bạn bị đáng giá là trùng lặp sẽ làm giảm độ tin cậy và hiệu quả của trang web trong mắt công cụ tìm kiếm. Vì vậy bạn cần kiểm tra, cập nhập nội dung mới liên tục. 

    URL Canonical

    URL là một phần mã trong HTML, URL canonical dùng để chỉ ra đâu là URL chính của trang web bạn. Một website không chỉ nội dung, liên kết,… thân thiện với nền tảng mà cả URL cũng cần thân thiện với mỗi trang trên website.

     

    Hình minh họa URL
    Hình minh họa URL

    Trong trường hợp nội dung bị Duplicate hoặc giống nhau trên nhiều URL, bạn có thể sử dụng URL Canonical, nó sẽ cho bạn biết trang web nào là trang chính, giúp tránh duplicate content và tối ưu hóa hiệu suất crawl.

    Ví dụ: trang bạn có 2 URL như https://seosona.com và https://seosona.vn/blog/

    Công cụ tìm kiếm sẽ tự động chọn 1 trong 2 url làm URL chính gốc của bạn.

    Meta Tags

    Meta tags được sử dụng để chú thích thông tin về trang web, chúng không hiển thị trực tiếp qua trình duyệt, mà chỉ là các dữ liệu mô tả cung cấp thông tin quan trọng về trang web và nội dung của bạn cho các công cụ tìm kiếm bao gồm tiêu đề, mô tả và từ khóa.. Việc có thêm meta tags tốt có thể đảm bảo website bạn sẽ có thứ hạng cao.

    CÁCH TỐI ƯU HÓA

    Khi bạn xây dựng một trang web mới, việc crawl là rất quan trọng để đảm bảo rằng các trang của bạn có thể được tìm thấy bởi các công cụ tìm kiếm như Google. 

    Để đảm bảo rằng trang web của bạn được crawl tốt, ngoài tối ưu hóa 7 yếu tố trên chuẩn SEO, bạn cần đảm bảo rằng thêm các yếu tố sau:

    Đảm bảo hiệu suất máy chủ: 

    Trang web của bạn nó có thể xử lý số lượng lập chỉ mục mà Googlebot muốn mà không làm chậm thời gian phản hồi hoặc gây ra lỗi tiêu cực.

    Hãy kiểm tra tình trạng máy chủ trang web của bạn trong Google Search Console và đảm bảo rằng tỷ lệ lỗi 5xx dưới 1% và thời gian phản hồi duy trì dưới 300 mili giây. 

    Tối ưu hóa cấu trúc website: 

    Cấu trúc hợp lý của trang web giúp công cụ tìm kiếm dễ dàng thu thập và hiểu thông tin trên trang của bạn.

    Tối ưu nội dung: 

    Loại bỏ những nội dung thừa và cung cấp nội dung chất lượng có giá trị cho người dùng là một yếu tố quan trọng.

    Bằng cách sử dụng từ khóa phù hợp và đảm bảo rằng cấu trúc nội dung hợp lý, công cụ tìm kiếm sẽ hiểu rõ hơn về nội dung của bạn và tăng khả năng xếp hạng trang web của bạn trong kết quả tìm kiếm.

    Dùng Robots.txt: 

    Sau khi các công cụ tìm kiếm đã crawl trang web của bạn, bạn có thể kiểm tra việc crawl bằng cách sử dụng Google Search Console hoặc các công cụ tương tự. 

    Hình ảnh minh họa: tệp robot tx là gì
    Hình ảnh minh họa: tệp robot tx là gì

    Nếu bạn thấy rằng một số trang của bạn không được crawl hoặc có các vấn đề khác liên quan đến crawl, bạn có thể sửa chúng bằng cách thêm các tập tin robots.txt hoặc sitemap.xml vào trang web của bạn. robots.txt  là một tệp văn bản đặc biệt mà bạn đặt trên máy chủ web của mình để chỉ định cho công cụ tìm kiếm biết trang nào nên hoặc không nên quét.

    Hướng dẫn google bot lập chỉ mục bằng cách:

    Sử dụng trang XML được tối ưu hóa sẽ hướng dẫn Google bot đến các URL liên quan đến SEO. tối ưu hóa nghĩa là cập nhập tự động ngày giờ bạn sửa đổi trang web lần cuối, để thông báo cho công cụ tìm kiếm biết trang đã thay đổi và liệu nó có cần index lại không.

    Bạn có thể hỗ trợ quá trình index (lập chỉ mục) thông qua các liên kết nội bộ, đặc biệt là điều hướng toàn trang trên di động, breadcrumb, bộ lọc nhanh và các liên kết nội dung liên quan.

    Câu hỏi thường gặp

    1, Crawl có sẵn hay cần phải cài đặt?

    Crawl có sẵn, chúng là một phần của công cụ tìm kiếm. Crawl sẽ tự động quét trang web của bạn liên tục. Khi bạn tạo một trang web hay cập nhập thay đổi nội dung trang web hiện có, cawl sẽ tự động phát hiện và quét các thay đổi đó. 

    2, Có thể chọn lọc thông tin đưa cho crawl không? và cách ngăn chặn ra sao.

    Có, bạn có thể chọn lọc thông tin mà bạn muốn cho công cụ tìm kiếm crawl bằng cách sử dụng robots.txt và meta tags. Dưới đây là cách bạn có thể lựa chọn và kiểm soát quá trình crawl:

    1. Robots.txt: Robots.txt có thể đề xuất hoặc ngăn chặn cawl thu thập thông tin về trang web của bạn. Tuy nhiên để ngăn chặn robots.txt bạn cần tìm hiểu kĩ và biết một ít về code. Bạn có thể tham khảo qua bài: CÁC TIPS NGĂN CHẶN CRAWL 
    2. Meta tags: Bạn có thể sử dụng các meta tags để kiểm soát quá trình crawk cho từng trang cụ thể. Một trong những meta tag phổ biến là “noindex, nofollow”, nó cho phép bạn chỉ định cho công cụ tìm kiếm không quét và không hiển thị trang trong kết quả tìm kiếm.

    Bạn nên nhớ rằng, robots.txt và meta tags chỉ là những chỉ thị và gợi ý cho công cụ tìm kiếm, và không chắc chắn chúng chặn được crawl. Để đảm bảo an toàn, bạn nên kiểm tra thường xuyên và cập nhật các biện pháp bảo vệ cho trang web của bạn.

    3, Nguyên nhân crawl không tìm thấy trang web của bạn

    Các lý do khiến crawl không tìm thấy trang web của bạn:

    1. Trang web mới: Trang web bạn còn mới nên các công cụ tìm kiếm chưa cập nhập kịp. 
    2. Lỗi kĩ thuật: bạn nên kiểm tra lại các trang web ở các khía cạnh crawl, lỗi mã hóa,….
    3. Backlink: Nếu không có liên kết trở về trang của bạn, crawl sẽ không thể tìm thấy website,…

    Tóm lại, Crawl là quá trình mà công cụ tìm kiếm sử dụng để thu thập thông tin từ trang web của bạn. Đây là một yếu tố quan trọng giúp trang web của bạn xuất hiện trên các công cụ tìm kiếm.

    Bằng cách hiểu cách hoạt động của robot tìm kiếm và tối ưu hóa trang web của bạn, bạn có thể xây dựng một chiến lược SEO tổng thể hiệu quả. 

    Hi vọng bài viết này sẽ giúp bạn hiểu về Crawl và cơ chế thu thập dữ liệu của Google, từ đó có thể tối ưu SEO cho website của mình tốt hơn.

    Nếu bạn đang quan tâm đến lĩnh vực SEO, mong muốn mở rộng kiến thức và tìm hiểu về các dịch vụ SEO website tổng thể chất lượng, chúng tôi sẽ sẵn sàng hỗ trợ bạn.

    Đừng ngần ngại liên hệ với Seosona để nhận thông tin chi tiết về bảng giá SEO tổng thể và sự tư vấn tận tâm từ đội ngũ chuyên gia của chúng tôi. Chúc bạn thành công trong việc phát triển trang web của mình!

    Có thể bạn quan tâm:

    Khám phá nhiều chủ đề khác

    0 0 đánh giá
    Đánh giá bài viết
    Theo dõi
    Thông báo của
    guest

    0 Góp ý
    Phản hồi nội tuyến
    Xem tất cả bình luận