سلام دوستان
یک سوال کلی برام پیش اومده:
چه چیزی باعث میشود که یک کامپیوتر قوی ، مثلا در پردازش انیمیشن سازی یا Encoding
این قدر زمان بر باشد؟ این امر در ابر کامپیوتر ها سریع تر هست... در کامپیوتر ها مجبور میشیم ، حتی با قوی ترین کامپیوتر ها ، که برای اینکه کارمون بهتر یا سریع تر راه بیفته دست به دامان over clock بشیم... ولی به راستی چه چیزی باعث میشود این ها این قدر طول بکشند؟؟ پردازشگرها مثل CPU یا GPU ? رم - سرعت هارد ها؟ شرایط فیزیکی و ... ؟
چطوری بفهمیم که مثلا پردازشگر به 100% رسیدی در این موارد ها !!
بهترین نرم افزار برای فهمیدن گلوگاه سیستم یا میزان استفاده شدن سخت افزار چی هست؟؟