سلام واقعا ممنون جمله های شما نسبت به اون هایی که خودم ترجمه کردم واقعا عالیه
حالا می شه این جملات هم یه نگاهی بندازین زیاد جالب ترجمه نشدن
Some related works have been reported in recent literature. Focused crawling, which attempts to download only Web pages that are relevant to some pre-defined topics, has been studied in [11], [20], and [25]
.
بعضی کارهای مرتبط، در مقاله های اخیر گزارش شده اند. Crawling متمرکز که تلاش می کند فقط صفحات وبی که در ارتباط با موضوعات از پیش تعریف شده هستند را دانلود کند در صفحات 11،20 و25 مطالعه شده اند.
It is obvious that similar pages have similar repetitive regions while different pages contain different ones.
.واضح است که صفحات مشابه،نواحی تکراری مشابهی دارند در حالیکه صفحات متفاوت شامل نواحی مختلفی هستند.
And in [18] and [21], the problem of deep Web crawling is discussed, to automatically fetch hidden Web pages which are typically only accessible by submitting queries to a database Another related topic is near-duplicate page detection [6][17][19], to remove redundant pages and reduce indexing overhead
در صفخه ی 18و21 مشکل مهم web crawling بحث شده، (یعنی)واکشی اتوماتیک صفحات وب مخفی که معمولا فقط توسط کوئری های ثبت شده در دیتابیس قابل دسترس هستند.موضوع مرتبط دیگر شناسایی صفحات تقریبا تکراری است، برای حذف صفحات افزونه کم کردن سرریزی indexing
Although it is hard to automatically infer appropriate patterns to distinguish links with different functions (such as page-flipping and link-to-thread) in these two pages, the locations of these links are helpful.
اگرچه فهمیدن اتوماتیک الگوهای مناسب برای تشخیص لینک هایی با عملکرد متفاوت (مانند page-flipping و لینک به رشته)