یک نوع الگوریتم پیشرفته هست بنام Lempel-Ziv-Markov chain-Algorithm (LZMA) اینها هموشون چندتا پیرمرد هستند !
خب این الگوریتم الان در z7 استفاده می شه در سال 1998 ابداع شده
این نوع الگوریتم که از دیکشنری مانند LZ77 هست بسیار جابه که بدونید بیشتر از 1 گیگ رو هم ساپورت می کنه
چون همون طور که اشاره کردم در حجم بالا سرعت این فشرده سازی بسیار کند می شه
این جدول از روشهای، کتابخانه و سورس های فشرده سازی LZ77 است :
[ برای مشاهده لینک ، با نام کاربری خود وارد شوید یا ثبت نام کنید ]
این روش نیاز به دانستن ریاضیات بسیار پیشرفته دارد این فرمول محاسبات این الگوریتم است
[ برای مشاهده لینک ، با نام کاربری خود وارد شوید یا ثبت نام کنید ]
من شخصا عقیده دارم معکوس این الگوریتم به افزایش سرعت پردازش موتور های جستجوی اینترنتی در سطح چیزی مثل گوگل کمک بسیاری خواهد کرد
به تصویر زیر نگاه کنید تا درک بهتری از آنچه که دیکشنری فشرده سازی می نامیم داشته باشید
وقتی فایل فشرده می شود متغیرهای مشابه دسته بندی می شوند که چنانچه دسته های بزرگ مشابه بیشتر باشند فشرده سازی درصد بیشتری دارد
یعنی اگر مثلا سه دسته ی 8 تایی موجود باشه همه با یک کاراکتر از دیکشنری تخصیص داده می شنود واگر تعداد کاراکتر ها ی مشابه در دسته های کمتری باشد فایل در فشرده سازی تغییری نمی کند
اما اگر تعدد کاراکتر دیکشنری بالا باشد یعنی مثلا بجای 1024 از چندین برابر اون استفاده کنید کمپرسور باید بارها و بارها در دسته های مختلفی بدنبال مشابه دسته بگردد و این جستجوی بالا به پردازند و حافظه ی مجازی فشار زیادی وارد می کند و عمل تطبیق کند انجام می شود
بطوریکه معمولا برای حجم ها ی بالاتری از 1-2 گیگ از الگوریتم های با دیگکشنری بالا استفاده نمی شود :
[ برای مشاهده لینک ، با نام کاربری خود وارد شوید یا ثبت نام کنید ]
[ برای مشاهده لینک ، با نام کاربری خود وارد شوید یا ثبت نام کنید ]
موفق باشید __________________
ویرایش شد
Jalal