راستش لازم نیست چند تا برنامه نوشته بشه...
یعنی حداقل من اینطور فکر نمیکنم...
روبوت ها چیز خاصی نیستن ، کافیه متن صفحه رو با یه تابع مثل file_get_contents گرفت و با چند تا تابع دیگه که به الگوریتم مون بستگی داره اطلاعات مورد نیاز رو از توش بکشیم بیرون...
بعد اینها رو تو دیتابیس بریزیم و در موقع لزوم با یه تابع mysql_query (در php و موقع کار با mysql) توش سرچ کنیم و نتیجه رو نشون بدیم...
منظور از روبوت ها و اسپایدر ها تو موتور های جستجوگر ، همون عملیات گرفتن داده ها از صفحات وب هست که ساده ترین قسمت ساخت موتور جستجوگر هست...
(همونطور که گفتم ، استفاده از چند تابع ساده و از پیش تعیین شده در تمامی زبان های برنامه نویسی!)
در مورد اون دو لینک: متشکرم. سر فرصت میخونمشون.
در ضمن ، میتونید با Y! ID: phpdesigner تماس بگیرید.
