مشاهده نسخه کامل
: ا NVIDIA Geforce 400 & 500 Series ا
Kianoosh
28-07-2009, 19:45
دوستان عزیز
بحث مقایسه مشخصات و ..این سری رو اینجا قرار بدید.
Nvidia Geforce 400 Series
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
مختصری در مورد Fermi:
Nvidia به افتخار Enrico Fermi ([ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]) فیزیکدان ایتالیایی که مخترع راکتور هسته ای بود اسم معماری این سری رو Fermi گذاشت
Fermi با 512 Stream Processors و بیش از 3 بیلیون ترانزیستور چپ بزرگی است Silicon توسط کمپانی TSMC در اندازه 40 نانومتری طراحی شده و این اولین چیپ Nvidia هست که از DirectX 11 پشتیبانی می کند.مدلهای خانگی (مصرف کننده)Geforce این سری با حافظه 1.5 گیگا بایتی عرضه خواهند شد و مدلهای تجاری Tesla ,Quadro با حافظه های 3 تا 6 گیگا بایت از نوع GDDR5 .این چیپ مولفه محافظ ECC روی مموری دارد و بر این باوریم که بسیار سریعتر از چیپهای قبلی Nvidia هست اضافه بر این ویژگی ها پشتیبانی از Visual Studio و ++C موجب میشود که Nvidia بالاترین کارایی محاسباتی را به کاربران حرفه ای عرضه کند
در تاریخ 30 سپتامبر 2009 Nvidia اطلاعاتی را منتشر کرد که مشخص کرد Fermi گام بزرگی در پیشرفت نسل GPU ها هست بر اساس همین مشخصات Nvidia طراحی و جدول زمانبندی خودش را برای ربع اول سال 2010 تنظیم کرد که البته دفعاتی با تاخیر همراه شد
در تاریخ 18 ژانویه 2010 این کمپانی اولین مشخصات معماری و جزئیات Fermi GF100 را منتشر کرد و در تاریخ 2 فوریه
تغییر نام و مشخصاتی ساده از GTX 480-GTX 470 منتشر شد و بالاخره در 22 فوریه اعلام شد محصولات سری Gefoce GTX 400 در PAX East 2010 رو نمایی خواهند شد و در بروزرسانی بعدی تاریخ 26 مارچ روز عرضه GTX 470-GTX 480 اعلام شد
در ادامه مختصری در مورد مشخصات این سری(تا این لحظه تایید نشده!) صحبت می کنیم
مشخصات اولیه:
Model:GeForce GTX 4xx Code name:GF100 (Fermi)0
Year:Q1/2010 Transistors (Million):< 3500
Die Size (mm 2):570 Number of Die:1
Bus interface:PCIe x16 2.0 Fab (nm):40
Memory min (MiB):1536
Reference clock :
Core (MHz):? Shader (MHz):? Memory (MHz):?0
DRAM type :GDDR5 Config Core: 512:64:48 Bus width (bit):384
Graphics library support (version):l
CUDA 3.0, DirectX 11, OpenGL 3.1
GFLOPs (MADD+MUL):3880 TDP (Watts):300
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
شروع این سری با GTX 470-GTX 480 در March 26th, 2010 خواهد بود و قیمت پیشبینی شده برای این دو مدل 500 و 675 دلار خواهد بود
معماری و سایر مشخصات
در مورد ویژگی های مشخص این سری در پستهای بعدی مشخصت توضیح داده شده که فقط به نقل قول بسنده می کنم:
مشخصات سری GT300 کارتهای Nvidia فاش شد .آنها از تکنولوژی cGPU پشتیبانی می کنند .
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
پس از گذشت 6 ماه ، ما اخباری در مورد مشخصات گرافیکهای نسل آینده Nvidia یعنی GT300شنیدیم . ما تصمیم گرفتیم این اطلاعات را مخفی نگه داریم تا این اخبارتوسط منابع معتبر گوناگون تایید شوند . و حالا ما احساس میکنیم اطمینان بیشتری از این اطلاعات فاش شده داریم؛ اطلاعاتی که توسط Santa Clara ، هند ؛ چین و سایتهای دیگر Nvidia در سراسر دنیا ، آشکار شده اند.
GT300 نیست چیزی بجز معماری که رییس مهندسان Nvidia یعنی پروفسور Bill Dally اون رو در رویاهاش توصیف کرده ، اما این معماری ایده بسیار خوبی رو ارائه خواهد داد ، چرا که Bill گفت ، شرکت Intel در حال مذاکره با nVIDIA در مورد پروژه ی Larrabee است .
ضمنا از Hardware-Infos متشکریم ، چون که این سایت به ما کمک کرد ، پازل برنامه های Nvidia رو که برای چند ماه بعد آماده کرده ، همین حالا متوجه بشیم .
GT300 چیست ؟
هر چند اخباری مبنی بر قدیمی بودن معماری سری GT300 و یکسان بودن اون با GT200 منتشر شده بود ، ولی در حقیقت GT300 یک معماری جدید رو به صنعت پردازش گرافیک عرضه می کند.
معماری GT300 از جهاتی تغییر یافته ؛ دسته ریز پردازنده های این سری از عدد 24 در معماری GT200 به عدد 32 در معماری GT300 رسیده است. اما اختلاف مهم بین این دو ، اینه که قسمتهای مختلف GT300 توسط SIDM یا همون معماری Single-Instruction Multiple Data رهبری میشه . ریز پردازنده های GT300 بر MIMD ( یا Multiple-Instruction Multiple Data ) تکیه می کنند . ما درست مطمئن نیستیم که در این مورد از لغت ( پردازشگر سایه زن) استفاده کنیم یا ( هسته سایه زن) ، بطوریکه این واحد ها تقریبا حالا اندازه ی FPU ها در آخرین پردازنده های Intel و AMD می باشد.
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
بررسی معماری MIMD و SIDM
GT300 خود دارای 16 گروه همراه 32 هسته است . بله ما در مورد 512 هسته برای کارتهای High END صحبت میکنیم . این تعداد ، به خودی خود ، باعث رشد چشمگیر دو برابری GT300 نسبت به هسته های GT200 میشه . قبل از اینکه چیپها عرضه بشن ، راهی وجود نداره که کسی بتونه فرکانس کاری اونا رو پیش بینی کنه . اما اگر کلاک همون کلاک GT200 باقی مونده باشه ، ما به بیش از دو برابر قدرت محاسبه ( نسبت به سری 200 ) خواهیم رسید !!
به طور مثال اگر ، Nvidia 2 گیگاهرتز کلاک برای 512 هسته ی MIMD قرار بده ، باز هم ما شاهد 6 تا X15ترقی نسبت به سری 200 خواهیم بود.
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
تصویر معماری SIMD
البته این تنها تغییر نیست تغییرات بسیار وسیعی درون این 32 گروه ( هسته ) اتفاق و با استفاده از فناوری GPGPU این کارتها ، بهبود کارایی بسیار بالایی رو در نرم افزارهای گوناگون بدست خواهید آورد. شاید اکنون این سوال بدیهی باشه که سری GT300 در Gaming چگونه عمل میکند ؟ لطفا این نکته رو در نظر داشته باشید که این 32 گروه ازتکنولوژی های نسل بعد ,Tegra Tesla و GeForce و کارتهای Quadro استفاده خواهند کرد.
این تغییر معماری باید ترقی چشمگیری رو در دوبرابر شدن دقت و کارایی ارائه بده و GT300 ممکنه که همه ی افراد رو در این صنعت حیرت زده کنه . مسلم است که وقتی NVIDIA کار روی GT300 رو آغاز کرد ، ما فکر می کردیم کارتهایی با همان معماری GT200 در سال 2009 خواهیم داشت .
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
GT300 دارای چیپ NVIO:
اینطور که به نظر میرسه ، اولین چیپ GT300 خیلی بزرگ نیست ، ولی قیمت اون زیاد خواهد بود . GT300 مانند سریهای قبلی Nvidia از یک چیپ NVIO ساخته شده است .
اگر به یاد داشته باشید ، GT300 دارای چیپی به مساحت 530 میلی متر مربع است و یکی از منابع تایوانی گزارش داده که اندازه این چیپ با سری قبلی GT200 تفاوت چندانی نکرده .
مشکلی که در چیپ GT300 به چشم میخوره اینه که در حالی که کارایی اونها با سری Cypress ( اسم رمز سری High END خانواده 5000 ATI ) برابره ولی اندازه اونها حدود 50 درصد از سری Cypress بزرگتره . اندازه چیپ سری Cypress حدود 350 میلی متر مربع و حدود دو برابر کوچکتر از اون ، سری Juniper شرکت ATI ( اسم رمز سری Performance خانواده 5000 ) با اندازه ای بالغ بر 180 میلی متر مربع می باشد، این بدین معنیه که Nvidia برای ساختن این چیپها هزینه ی زیادی رو باید بپردازه و در عین حال با کارتهای خوش قیمت ATI رقابت کنه ، که احتمالا مشکل بزرگی رو برای این شرکت ایجاد خواهد کرد.
همونطور که در جدول مشاهد میکنید ، ATI با چیپهای کوچک Cypress و هزینه کمتر ، در آمدی رو به دست بالایی رو بدست میاره و NVIDIA با خرج بیشتر مجبوره کارتهاش رو ارزونتر و اندازه سری Cypress بفروشه که این ضرر های زیادی رو به NVIDIA میزنه .
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
حتی اگر برای خرید کارتهای GT300 از قیمت اونها صرف نظر کنید ، Nvidia برای رقابت با ATI ، در قیمت 50 درصد ضرر خواهد کرد ! اگر شما هزینه های چیپ NVIO رو در نظر بگیرید – ما در مورد 10 دلار اضافه شده برای پکیج و سیلیکن صحبت می کنیم – ATI میتونه با نصف این هزینه کارتهای رقیب ، یعنی Cypress رو تولید کنه .
پس اگر NVIDIA بتونه کارتهایی در حد کارتهای Cypress ATI بسازه ، در هزینه ضرر میکنه ولی ATI سود زیادی خواهد برد.
برخی از طرفداران کند ذهن NVIDIA مطمئن هستن که کارتهای سری GT300 پرفرمانس خیلی بیشتری نسبت به کارتهای Cypress خواهند داشت ، اما این مسئله باعث ضرر پنجاه درصدی شرکت NVIDIA خواهد شد !
Nvidia باید بنشینه و به کارتهایی که در انبارش خاک میخوره فکر کنه و ATI در حال استفاده از سود برای پروژه های آیندش هست . واقعا اینکه NVIDIA چگونه هزینه ساخت GT300 رو تامین میکنه جای سوال داره . در هر صورت با این وضعیت باید دوباره منتظر شکست Nvidia در قیمت باشیم !!
آیا nVIDIA روی کارت دوال چیپ GT300 کار میکند ؟
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
حالا که شرکت AMD داره روی کارت دوال چیپ RV870 کار میکنه ، NVIDIA هم برای رقابت و عقب نیفتادن از AMD ، روی کارت دوال چیپ GT300 در حال کاره .
این کارت احتمالا در اوخر سال جاری یا ربع اول سال 2010 ( احتمالا در ژانویه این سال ) به بازار عرضه میشه . ATI قصد داره با یک کارت دوال چیپ ، امپراطوری کارت های گرافیک رو از GTX295 بگیره و NVIDIA هم در حاله تلاشه تا کارتی قدرتمند تر از GTX295 تولید کنه .
NVIDIA همیشه دوست داره که بهترین کارت دنیا رو نصیب خودش کنه ؛ حتی اگه این کارت قیمت بالایی داشته باشه .
GT300 is the first truly new architecture since SIMD [Single-Instruction Multiple Data] units first appeared in graphical processors.
GT300 architecture groups processing cores in sets of 32 - up from 24 in GT200 architecture. But the difference between the two is that GT300 parts ways with the SIMD architecture that dominate the GPU architecture of today. GT300 Cores rely on MIMD-similar functions [Multiple-Instruction Multiple Data] - all the units work in MPMD mode,
shader processor" or "shader core" as these units are now almost on equal terms as FPUs inside latest AMD and Intel CPUs.
GT300 itself packs 16 groups with 32 cores - , we're talking about 512 cores for the high-end part
nVidia gets a 2 GHz clock for the 512 MIMD cores, we are talking about no less than 3TFLOPS with Single-Precision. Dual precision is highly-dependant on how efficient the MIMD-like units will be, but you can count on 6-15x improvement over GT200.
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
کل GPU (از دید Multiprocessor) داره با یک فرکانس خاص کار می کنه (Core Clock) و عملات هایی مثل Decode کردن Instruction ها یا تهیه Instruction Set ها هم با همین فرکانس انجام میشه.
زمانی که بیشتر به داخل GPU نگاه کنید می بینید که هر Stream Processor داره با فرکانس متفاوتی نسبت به هسته (که معمولا با یک ضریب وابسته به فرکانس هسته است) کار می کنه که به این فرکانس Shader Clock گفته میشه. به طور خلاصه میشه گفت تغذیه هسته ها با فرکانس متفاوتی نسبت به پردازش اونها درون Stream Processor ها صورت می گیره.
در ATI این قضیه به کل فرق می کنه و کل هسته و Stream Processor ها با یک فرکانس کار می کنند. هیچ کدوم رو نمیشه برتری دونست، چون هسته های ATI و NVIDIA از نظر معماری Pipelining و ... کاملا با هم تفاوت دارند.
این که NVIDIA معمولا همیشه Stream Processor های کمتری نسبت به ATI داشته، فقط به دلیل این نبوده که فرکانس کاری Stream Processor هاش بیشتر از ATI بوده ... در واقع ساختار Stream Processor های دو کمپانی تا حد بسیار زیادی با هم متفاوت هست و نمیشه اینطور نتیجه گیری کرد که یکی تعداد هسته های بیشتری با فرکانس پایین تری داره و یکی هسته های کمتر و فرکانس بالاتر ...
...
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
- یه تفاوت بزرگ بین کارت های 5000 و کارتهای GF100 وجود داره. کارتهای 5000 از لحاظ طراحی و معماری فرق خاصی با سری قبلی ندارند. اما GF100 از لحاظ معماری تفاوت های بسیاری با قبل می کنه با توجه به هم ادعای خود nVidia و هم با توجه به دو مقاله ی بالا. شاید مهم ترین دلیل این تاخیر طولانی هم همین تغییرات گسترده در معماری کارت گرافیک باشه.
- یه چیز دیگه که nVidia بسیار روش کار کرده، geometry performance بوده. چرا؟ به خاطر tessellation که یکی از مهم ترین قابلیت های DirectX 11 ــه.
از کارت های NV30 ( کارتهای سری 5000 انویدیا مثل 5200 ) تا کارتهای GT200 ( مثل GTX 285 ) ،
geometry performance فقط حدود 3 برابر شده در حالی که کارایی سایه زن ها بیش از 150 برابر شده.
جالب اینجاست که کارایی و قدرت کارتهای GF100 نسبت به GT200 در geometry performance بنا به ادعای nVidia تقریبا 8 برابر شده!
اما tessellation به چه دردی می خوره؟ راستش بیشتر از اینکه به درد gamer ها بخوره بدرد Developer ها و سازندگان بازی می خوره. چرا که زحمتشون رو برای ساختن اشیای سه یعدی پیچیده و با جزئیات بالا کم می کنه. tessellation برای افزایش جزئیات اشیا و واقعی تر شدنشون تعداد چند ضلعی های به کار رفته در اون ها رو افزایش میده .
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
...
دموهایی که در نمایشگاه به نمایش دراومدن همه به صورت زنده بر روی سیستمهایی مجهز به کارتهای گرافیکی (GF100 (Fermi بودن و این نشون میده (GF100 (Fermi به پایان دوران ساخت خودش نزدیک شده که نمونههایی ازش در دسترس هست، البته این مطلب هم توسط آقای Jen-Hsun Huang مدیر ارشد Nvidia اعلام شد که GF100 در شرف تولید انبوه هست؛ نگارندگان برخی از سایتهای معروف سختافزاری هم با اینکه اجازه دسترسی به صورت شخصی به GF100 رو در نمایشگاه نداشتن اما تأیید کردن که به زودی فرصت تست این کارت رو در آزمایشگاههای خودشون پیدا میکنن.
یکی از دموهایی که Nvidia نمایش داد دموی Rocket Sled بود یک بازی جالب که یک دموی Directx 11 با Tesselation بود که به شکل گستردهای درش از Physx استفاده شده بود، این دموی سنگین بر روی یک دستگاه با 3 کارت GF100 به صورت SLI اجرا میشد و نتیجه کار به گفته شاهدان خیلی جالب و عالی بوده.
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
............
تا اینجا مطالب رو جمع بندی کردیم و با عرضه اولین نمونه و تستها و نقد و بررسی و مقایسه رو ادامه میدیم
جا داره از تمام دوستانی که در مباحث شرکت می کنن و تو جمع آوری این اطلاعات کمک کردن و برخی هم دیگه در کنارمون نیستن صمیمانه تشکر کنم :11:
اگر پستی نکته ای عکسی و...از قلم افتاد یادآوری کنید
------------
سوالات خارج از موضوع و ..نپرسید!اسپم نبدید!:دی
همکاری بفرمایید ممنون
ویرایش و بروز خواهد شد...
Lord_theOne
28-07-2009, 21:08
ممنون اينهم اخبارش فعلا كه اطلاعاتي جز اين بيرون نيومده
برای مشاهده محتوا ، لطفا وارد شوید یا ثبت نام کنید
Professor Massoud
02-08-2009, 18:03
مشخصات سری GT300 کارتهای Nvidia فاش شد .آنها از تکنولوژی cGPU پشتیبانی می کنند .
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
پس از گذشت 6 ماه ، ما اخباری در مورد مشخصات گرافیکهای نسل آینده Nvidia یعنی GT300شنیدیم . ما تصمیم گرفتیم این اطلاعات را مخفی نگه داریم تا این اخبارتوسط منابع معتبر گوناگون تایید شوند . و حالا ما احساس میکنیم اطمینان بیشتری از این اطلاعات فاش شده داریم؛ اطلاعاتی که توسط Santa Clara ، هند ؛ چین و سایتهای دیگر Nvidia در سراسر دنیا ، آشکار شده اند.
GT300 نیست چیزی بجز معماری که رییس مهندسان Nvidia یعنی پروفسور Bill Dally اون رو در رویاهاش توصیف کرده ، اما این معماری ایده بسیار خوبی رو ارائه خواهد داد ، چرا که Bill گفت ، شرکت Intel در حال مذاکره با nVIDIA در مورد پروژه ی Larrabee است .
ضمنا از Hardware-Infos متشکریم ، چون که این سایت به ما کمک کرد ، پازل برنامه های Nvidia رو که برای چند ماه بعد آماده کرده ، همین حالا متوجه بشیم .
GT300 چیست ؟
هر چند اخباری مبنی بر قدیمی بودن معماری سری GT300 و یکسان بودن اون با GT200 منتشر شده بود ، ولی در حقیقت GT300 یک معماری جدید رو به صنعت پردازش گرافیک عرضه می کند.
معماری GT300 از جهاتی تغییر یافته ؛ دسته ریز پردازنده های این سری از عدد 24 در معماری GT200 به عدد 32 در معماری GT300 رسیده است. اما اختلاف مهم بین این دو ، اینه که قسمتهای مختلف GT300 توسط SIDM یا همون معماری Single-Instruction Multiple Data رهبری میشه . ریز پردازنده های GT300 بر MIMD ( یا Multiple-Instruction Multiple Data ) تکیه می کنند . ما درست مطمئن نیستیم که در این مورد از لغت ( پردازشگر سایه زن) استفاده کنیم یا ( هسته سایه زن) ، بطوریکه این واحد ها تقریبا حالا اندازه ی FPU ها در آخرین پردازنده های Intel و AMD می باشد.
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
بررسی معماری MIMD و SIDM
GT300 خود دارای 16 گروه همراه 32 هسته است . بله ما در مورد 512 هسته برای کارتهای High END صحبت میکنیم . این تعداد ، به خودی خود ، باعث رشد چشمگیر دو برابری GT300 نسبت به هسته های GT200 میشه . قبل از اینکه چیپها عرضه بشن ، راهی وجود نداره که کسی بتونه فرکانس کاری اونا رو پیش بینی کنه . اما اگر کلاک همون کلاک GT200 باقی مونده باشه ، ما به بیش از دو برابر قدرت محاسبه ( نسبت به سری 200 ) خواهیم رسید !!:18:
به طور مثال اگر ، Nvidia 2 گیگاهرتز کلاک برای 512 هسته ی MIMD قرار بده ، باز هم ما شاهد 6 تا X15ترقی نسبت به سری 200 خواهیم بود.
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
تصویر معماری SIMD
البته این تنها تغییر نیست تغییرات بسیار وسیعی درون این 32 گروه ( هسته ) اتفاق و با استفاده از فناوری GPGPU این کارتها ، بهبود کارایی بسیار بالایی رو در نرم افزارهای گوناگون بدست خواهید آورد. شاید اکنون این سوال بدیهی باشه که سری GT300 در Gaming چگونه عمل میکند ؟ لطفا این نکته رو در نظر داشته باشید که این 32 گروه ازتکنولوژی های نسل بعد ,Tegra Tesla و GeForce و کارتهای Quadro استفاده خواهند کرد.
این تغییر معماری باید ترقی چشمگیری رو در دوبرابر شدن دقت و کارایی ارائه بده و GT300 ممکنه که همه ی افراد رو در این صنعت حیرت زده کنه . مسلم است که وقتی NVIDIA کار روی GT300 رو آغاز کرد ، ما فکر می کردیم کارتهایی با همان معماری GT200 در سال 2009 خواهیم داشت .
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
تاریخ عرضه کارتهای GT300
درست شبیه پردازنده ، GT300 سخت افزار رو بوسیله CUDA 3.0 , DirectX 11 , OpenGL 3.1 و Open CL هدایت میکنه و شما همچنین میتونید برنامه هاتون رو بوسیله GPU هدایت و رهبری کنید. هر چند قیمت این کارتها هنوز رسما مشخص نشده ؛ولی ما مطمئن نیستیم از نظر مالی در حالتی باشیم که بتونیم کارتهای سری GT300 رو خریداری کنیم !! :27:
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
مشخصات تقریبی کارتهای سری GT300
منبع :
برای مشاهده محتوا ، لطفا وارد شوید یا ثبت نام کنید
برای مشاهده محتوا ، لطفا وارد شوید یا ثبت نام کنید
برای مشاهده محتوا ، لطفا وارد شوید یا ثبت نام کنید
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
مشخصاتی فاش شده از GTX380 ، شرکت Nvidia هنوز این مشخصات را تایید نکرده .
جالبه!
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
يكم ميشه توضيح بردي؟
تو نيمه اول سال 2009 قرار بود hd 5000 بيادش؟
پس چرا نيومدش؟
در ضمن اگه دو برابری باشه پس gtx360 بايد برابر با 295gtx باشه!
Professor Massoud
02-08-2009, 18:46
يكم ميشه توضيح بردي؟
تو نيمه اول سال 2009 قرار بود hd 5000 بيادش؟
پس چرا نيومدش؟
بله همونطور که ملاحظه میکنید تاخیر خورده و شاید بازم تاخیر بخوره ، البته این عکسها دقیق و قابل اطمینان نیستند !!
تو این جدول هم من بیشتر بخش GT300 منظورم بود ، سوالات مربوط به 5000 رو در تایپک خودش بپرسید لطفا !:دی
در ضمن اگه دو برابری باشه پس gtx360 بايد برابر با 295gtx باشه!
خب چه اشکالی داره ؟! :دی
فعلا که اینجوری گفته شده تا ببینیم چی میشه .
Kianoosh
02-08-2009, 21:39
ممنوم مسعود جان خوب بود و اطلاعات تکمیلی بزودی در دسترس قرار میگیره...
Professor Massoud
15-08-2009, 13:11
GT300 دارای چیپ NVIO:
اینطور که به نظر میرسه ، اولین چیپ GT300 خیلی بزرگ نیست ، ولی قیمت اون زیاد خواهد بود . GT300 مانند سریهای قبلی Nvidia از یک چیپ NVIO ساخته شده است .
اگر به یاد داشته باشید ، GT300 دارای چیپی به مساحت 530 میلی متر مربع است و یکی از منابع تایوانی گزارش داده که اندازه این چیپ با سری قبلی GT200 تفاوت چندانی نکرده .
مشکلی که در چیپ GT300 به چشم میخوره اینه که در حالی که کارایی اونها با سری Cypress ( اسم رمز سری High END خانواده 5000 ATI ) برابره ولی اندازه اونها حدود 50 درصد از سری Cypress بزرگتره . اندازه چیپ سری Cypress حدود 350 میلی متر مربع و حدود دو برابر کوچکتر از اون ، سری Juniper شرکت ATI ( اسم رمز سری Performance خانواده 5000 ) با اندازه ای بالغ بر 180 میلی متر مربع می باشد، این بدین معنیه که Nvidia برای ساختن این چیپها هزینه ی زیادی رو باید بپردازه و در عین حال با کارتهای خوش قیمت ATI رقابت کنه ، که احتمالا مشکل بزرگی رو برای این شرکت ایجاد خواهد کرد.
همونطور که در جدول مشاهد میکنید ، ATI با چیپهای کوچک Cypress و هزینه کمتر ، در آمدی رو به دست بالایی رو بدست میاره و NVIDIA با خرج بیشتر مجبوره کارتهاش رو ارزونتر و اندازه سری Cypress بفروشه که این ضرر های زیادی رو به NVIDIA میزنه .
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
حتی اگر برای خرید کارتهای GT300 از قیمت اونها صرف نظر کنید ، Nvidia برای رقابت با ATI ، در قیمت 50 درصد ضرر خواهد کرد ! اگر شما هزینه های چیپ NVIO رو در نظر بگیرید – ما در مورد 10 دلار اضافه شده برای پکیج و سیلیکن صحبت می کنیم – ATI میتونه با نصف این هزینه کارتهای رقیب ، یعنی Cypress رو تولید کنه .
پس اگر NVIDIA بتونه کارتهایی در حد کارتهای Cypress ATI بسازه ، در هزینه ضرر میکنه ولی ATI سود زیادی خواهد برد.
برخی از طرفداران کند ذهن NVIDIA مطمئن هستن که کارتهای سری GT300 پرفرمانس خیلی بیشتری نسبت به کارتهای Cypress خواهند داشت ، اما این مسئله باعث ضرر پنجاه درصدی شرکت NVIDIA خواهد شد !
Nvidia باید بنشینه و به کارتهایی که در انبارش خاک میخوره فکر کنه و ATI در حال استفاده از سود برای پروژه های آیندش هست . واقعا اینکه NVIDIA چگونه هزینه ساخت GT300 رو تامین میکنه جای سوال داره . در هر صورت با این وضعیت باید دوباره منتظر شکست Nvidia در قیمت باشیم !!
برای مشاهده محتوا ، لطفا وارد شوید یا ثبت نام کنید
برای مشاهده محتوا ، لطفا وارد شوید یا ثبت نام کنید
پس با این حساب باید بی خیال ساپورت کارت های DX 10 ای از DX 11 باشیم !؟
Professor Massoud
16-08-2009, 16:35
پس با این حساب باید بی خیال ساپورت کارت های DX 10 ای از DX 11 باشیم !؟
تا خبر رسمی نیومده ؛ بله !! احتمالش خیلی خیلی کمه ...
Professor Massoud
18-08-2009, 11:27
آیا nVIDIA روی کارت دوال چیپ GT300 کار میکند ؟
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
حالا که شرکت AMD داره روی کارت دوال چیپ RV870 کار میکنه ، NVIDIA هم برای رقابت و عقب نیفتادن از AMD ، روی کارت دوال چیپ GT300 در حال کاره .
این کارت احتمالا در اوخر سال جاری یا ربع اول سال 2010 ( احتمالا در ژانویه این سال ) به بازار عرضه میشه . ATI قصد داره با یک کارت دوال چیپ ، امپراطوری کارت های گرافیک رو از GTX295 بگیره و NVIDIA هم در حاله تلاشه تا کارتی قدرتمند تر از GTX295 تولید کنه .
NVIDIA همیشه دوست داره که بهترین کارت دنیا رو نصیب خودش کنه ؛ حتی اگه این کارت قیمت بالایی داشته باشه .
Source :
برای مشاهده محتوا ، لطفا وارد شوید یا ثبت نام کنید
برای مشاهده محتوا ، لطفا وارد شوید یا ثبت نام کنید
برای مشاهده محتوا ، لطفا وارد شوید یا ثبت نام کنید
Mahdi_Moosavi
21-08-2009, 22:15
پست های اخیر که با موضوع تاپیک بی ارتباط بود پاک شد .
دوستان عزیز لطف کنید و همکاری کنید .
مرسی رفقا . :40:
مشخصات جدید GT300 با Codname فرمی ( Fermi ) :
چیپ دارای 3 میلیارد ترانزیستوره، مموریش 384 بیته، و تعداد سایه زن هاش 512 تاست و از مموری DDR5 تا ظرفیت 6 گیگابایت پشتیبانی می کنه. همین طور کاملا با DirectX 11 سازگاره.
با توجه به توضیحات سایت زیر، GPU جدید nVidia از بعضی امکانات و قابلیت های CPU ها بهره گرفته مثل لایه های کش L1 و L2
برای مشاهده محتوا ، لطفا وارد شوید یا ثبت نام کنید
mohammad20ali20
01-10-2009, 15:36
به نظر میرسه از سری 5000 ATI قویتر باشه
ولی دو نکته خیلی مهمه یکی اینکه چه زمانی ارئه میشه و قیمتش در چه حدیه.
الان 5870 به ایران رسیده؟
با توجه به توضیحات سایت زیر، GPU جدید nVidia از بعضی امکانات و قابلیت های CPU ها بهره گرفته مثل لایه های کش L1 و L2
امكانش هست كه در مورد كاربرد كش L1 و L2 در كارت گرافيك توضيح بدي.؟
به نظر ميرسه كه بايد اين gpu طراحي بي نظيري داشته باشه.
اينجور كه پيداست بايد قيمت خيلي بالايي داشته باشه.
به نظر میرسه از سری 5000 ATI قویتر باشه
ولی دو نکته خیلی مهمه یکی اینکه چه زمانی ارئه میشه و قیمتش در چه حدیه.
الان 5870 به ایران رسیده؟
نه
اگرم باشه قیمت خون باباشون میدنش!
امكانش هست كه در مورد كاربرد كش L1 و L2 در كارت گرافيك توضيح بدي.؟
به نظر ميرسه كه واقعا اين gpu طراحي بي نظيري داشته باشه.
اينجور كه پيداست بايد قيمت خيلي بالايي داشته باشه.
یه جور cuda دائمی مثل این که هستش!
شاید با این تکنولوژی وعده اینتل برای افزایش 30% قدرت گرافیک ها با i7 رو ببینیم!
مشخصات جدید GT300 با Codname فرمی ( Fermi ) :
چیپ دارای 3 میلیون ترانزیستوره،
3 Billions بمعنی 3 میلیارد میباشد که در ترجمه اشتباه شده است
مموریش 384 بیته
کارتهای سری GT300 پرفرمانس خیلی بیشتری نسبت به کارتهای Cypress خواهند داشت
مموری=حافظه
Performance= کارایی
از واژگان بیگانه فقط وقتی استفاده میکنیم که واژه ی برابر و رایج در فارسی نداریم یا برابر فارسی آن منظور را بطور کامل نرساند.از اطلاع رسانیها سپاسگذاری میشود:11:
ps3 killer
13-10-2009, 13:14
انودیا این کارت رو برای رقابت با لا رابی اینتل عرضه میکنه و دارای قدرت 5 ترافلاپ هست
انودیا این کارت رو برای رقابت با لا رابی اینتل عرضه میکنه و دارای قدرت 5 ترافلاپ هست
اولا این یک کارت نیست بلکه یک نسله و شامل چندین کارت برای چندین پلتفرم میشه.
دوم، GT300 رقیب سری 5000 شرکت ATI به حساب میاد.
سوم، لارابی فعلا کارتی به صورت جداگانه نداره و فعلا فاصله ی زیادی از لحاظ کارایی در بازی ها بین کارت های قوی ATI و nVidia با لارابی وجود داره.
ولی من عاشق انویدیام فقط مخصوصا gtx380
سایت FudZilla به نقل از یک سایت چینی تصاویری از چهره هایی ارائه داده که توسط توسط یکی از کارتهای قدرتمند سری GT300 رندر شده.
تشخیص اینکه این عکس ها واقعی اند ( یعنی عکس واقعی از چهره ی یک انسان اند ) یا اینکه این عکس ها توسط طراحان 3 بعدی کار طراحی شده اند، بسیار مشکله!
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
منبع :
برای مشاهده محتوا ، لطفا وارد شوید یا ثبت نام کنیدسایت چینی :
برای مشاهده محتوا ، لطفا وارد شوید یا ثبت نام کنید
UPDATE
به نظر میرسه، این عکس ها هنوز توسط nVidia تایید نشده و واقعا معلوم نیست بوسیله ی Fermi رندر شده و جزئیاتش مثله اینکه آیا real time هست؟ و مقدار زمان رندر چقدر بوده؟ و از چند کارت nVidia استفاده شده؟ چه تعداد فریم بر ثانیه داده و ... معلوم نیست.
احتمالا این عکس ها fake اند و nVdia بیشتر برای تبلیغ محصول جدید از اینها استفاده کرده.
واکنش کاربران tomshardware هم جالبه! اعتقاد دارند که Fudzilla خبر غیر واقعی ارائه داده.
برای مشاهده محتوا ، لطفا وارد شوید یا ثبت نام کنید
mf.designing
31-10-2009, 10:56
من یه خبری رو خوندم ، مبنی بر این که NVIDIA تو تولید سری 300 کمی به مشکل خورده !! گویا مشکل اساسی روی توان مصرفی کارتها و گرمهای زیادشونه !!!
کسی خبر دقیقی داره ؟!
مثل اینکه قرار April 2010 این سری Nvidia عرضه کنه، یبار خواستم کارتم رو عوض کنما.
یک مقاله عالی در مورد معماری Fermi (یا GF100 یا همون GT300 ما خودمونم آخرش نفهمیدیم اسمش رو چی میزارن) با 3 بیلیون (میلیارد) ترانزیستور (چه میکنه) [ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
من حس ترجمه و اینجا گذاشتن رو ندارم خودتون بخونید فقط خیلی کلی 1-2 بخشش رو اینجا میزارم:
نگارنده مقاله از نائب رئیس بخش مارکتینگ و نائب رئیس بخش مهندسی GPU شرکت Nvidia پرسیده چرا Fermi تأخیر کرده و یکیشون جواب داده: because designing GPUs this big is "fucking hard"، انگار بدجور گیر کردن [ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ] Than 2x GT200
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
برای مشاهده محتوا ، لطفا وارد شوید یا ثبت نام کنید
اینم یه خبر دیگه که یکمی اینجا رونق بگیره:
اینم یه عکس از اولین نمونه کارت 40 نانومتری GF100 که مدیر روابط عمومی Nvidia اینو رو تو Facebook گذاشته چند روز پیش.
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
این عکسم Uningine’s Heaven رو که یه بنچمارک DirectX 11 هست نشون میده روی مانیتور 24 اینچ Dell در رزولوشن 1920x1200، همچنین این عکس نشون میده دوتا فیش Pci-e پاور 8 پین و 6 پین به کارت متصل شدن که نشون میده کارته یکمی پاور خوره داره که البته چیزی عجیبی نیست.
برای مشاهده محتوا ، لطفا وارد شوید یا ثبت نام کنید
طبق آخرین خبر (یعنی همین امروز) امروز از چندین منبع نقل شده که Nvidia بالاخره قول داده Fermi یا همون کارتهای GF100 رو برای ژانویه سال دیگه عرضه کنه.
پس ژانویه (2 ماه دیگه) زمانیه که شما میتونید کارت گرافیکتون رو ارتقاء بدین و یه کارت پایه Fermi خفن از NVidia بگیرید.
همچنین در این خبر اومده که مشکل دیرکرد این سری از A2 silicon چیپ بوده که انگار خیلی برای تولید انبوه مناسب نبوده برای همین NVidia با تأخیر سری GF100 در انتظار تولید A3 silicon چیپ بوده که مثل اینکه در آخر قرار این سری کارت در ماه ژانویه عرضه بشه.
البته بازم ذکر شده عرضه این سری همراه با نمایشگاه CES 2010 که 7 تا 10 ژانویه هست نیست و قراره بعد از ین تاریخ عرضه بشه.
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
این عکسم که میدونم کف کردین از دیدنش عکسیه که با Fermi رندر شده. [ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
دیگه ترکوندم سه تا خبر پشت هم، یکی جلوی منو بگیییییییییییره [ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ] [ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
برای مشاهده محتوا ، لطفا وارد شوید یا ثبت نام کنید
و خبر بعدی [ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
جدول مشخصات Fermi (GF100) در مقایسه با نسلهای پیش:
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
این عکسم که میدونم کف کردین از دیدنش عکسیه که با Fermi رندر شده.
این ادعایی بیش نبود و هیچ چیز به صورت رسمی تایید نشده. در صفحه ی قبل توضیح دادم جزئیاتش رو.
کارتی که ساخته شده از خانواده Tesla ست وبا اسم Fermiمیشناسنش.دو مشکل در این کارتها وجود داره که گریبان گیر nVidia شده:
1-توان مصرفی بالا (در حدود 300 وات) ؟؟؟؟؟؟؟!!!!!!!!!!!!!!!
2-دمای بالا
اما امیدوارم مشکل زودتر حل بشه چون حل این مشکل باعث پیشرفت کارتها میشه.درجا زدن خوب نیست
کارتی که ساخته شده از خانواده Tesla ست وبا اسم Fermiمیشناسنش.دو مشکل در این کارتها وجود داره که گریبان گیر nVidia شده:
1-توان مصرفی بالا (در حدود 300 وات) ؟؟؟؟؟؟؟!!!!!!!!!!!!!!!
2-دمای بالا
اما امیدوارم مشکل زودتر حل بشه چون حل این مشکل باعث پیشرفت کارتها میشه.درجا زدن خوب نیست
اینا شایعست هیچ جا همچین خبر تأیید شدهای وجود نداره، تا کارتهای GF100 به صورت رسمی عرضه نشن نمیشه همچین چیزی گفت.
--------------------------
بهبه میبنم چقدر اینجا ضد Nvidia وجود داره باید یه انقلاب قکری اینجا بکنم. [ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
فقط Nvidia [ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
عزیز شایعه چیه این چیزیه که تمام دنیا تونمایش سری اولیه این کارت دادن.
بعد تو که این قدر متعصبی و از nVidia جانبداری می کنی نمیشه باهات بحث کرد .سری 5000ATIآغاز یک دوران جدیده.
عزیز شایعه چیه این چیزیه که تمام دنیا تونمایش سری اولیه این کارت دادن.
بعد تو که این قدر متعصبی و از nVidia جانبداری می کنی نمیشه باهات بحث کرد .سری 5000ATIآغاز یک دوران جدیده.
سر دره تاپیک نوشته GT300 یعنی تاپیک Nvidia، در ضمن سری ATI 5000 مثلاً چه چیز خاصی داره که آغاز یک دوران جدید باشه؟ شما میدونی بگو ماهم بدونیم. اگر چیزی آغاز یک دوران جدید باشه بدون شک معماری Fermi انویدیاست هست.
sepinood1
26-11-2009, 16:19
عزیز شایعه چیه این چیزیه که تمام دنیا تونمایش سری اولیه این کارت دادن.
بعد تو که این قدر متعصبی و از nVidia جانبداری می کنی نمیشه باهات بحث کرد .سری 5000ATIآغاز یک دوران جدیده.
ولی نه جدیدتر از G300 ... بابا کلی تکنولوژی داره با این کارت معرفی میشه ...! سری 5000 فقط خوب هستن و مقداری قویتر از سری پیش همین ...! البته یه سری چیزهای جدید باهاش معرفی شده که تاثیر چندانی در تکنولوژیهای موجود نداره .... من ATI رو قویتر دوست دارم چون باعث میشه NVIDIA سریعتر تکنولوژی هاش رو معرفی کنه و برای عقب نبودن بیشتر به بخش تحقیقاتش فشار بیاره ...! :10:
Kianoosh
26-11-2009, 16:39
بعد تو که این قدر متعصبی و از nVidia جانبداری می کنی نمیشه باهات بحث کرد .سری 5000ATIآغاز یک دوران جدیده.
پس این نظر شماست!؟
کارتهای رده بالای این سری با های اندهای نسل قبل انویدیا مقایسه میشن!در واقع حالا سری جدید 300 هم عرضه میشه ببین دوران جدید فرمی هست یا چیز دیگه یکی از عواملی که بحث سری 6000 ای تی آی خیلی زود شروع شده همین هست!!:46:
امروز خبری نچندان خوب پخش شده در مورد اولین کارتی که Nvidia از این سری عرضه میکنه کارت G 310 هست که یک کارت ضعیف هست نکته جالب و عجیب اینجاست که این کارت هیچ فرقی با نسخه قدیمیه خودش یعنی G 210 نداره و دقیقاً مشخصات همون، 512 مگ رم DDR2، فرکانس 589Mhz و مموری 64 بیت. گرچه این کارت رده پائین با لیست کاملی از پورتها شامل DVI, HDMI, Dsplayport و VGA عرضه میشه، با این حال دلیل Nvidia از عرضه این کارت به عنوان اولین کارت این سری مشخص نیست و برای خودش به جوکی تبدیل شده ولی هدف این کارت OEMها هستن؛ مثل اینکه واقعاً به دره بسته خورده.
کارتهای معمولی این سری در Q1 2010 عرضه میشن.
برای مشاهده محتوا ، لطفا وارد شوید یا ثبت نام کنید
امروز خبری نچندان خوب پخش شده در مورد اولین کارتی که Nvidia از این سری عرضه میکنه کارت G 310 هست که یک کارت ضعیف هست نکته جالب و عجیب اینجاست که این کارت هیچ فرقی با نسخه قدیمیه خودش یعنی G 210 نداره و دقیقاً مشخصات همون، 512 مگ رم DDR2، فرکانس 589Mhz و مموری 64 بیت. گرچه این کارت رده پائین با لیست کاملی از پورتها شامل DVI, HDMI, Dsplayport و VGA عرضه میشه، با این حال دلیل Nvidia از عرضه این کارت به عنوان اولین کارت این سری مشخص نیست و برای خودش به جوکی تبدیل شده ولی هدف این کارت OEMها هستن؛ مثل اینکه واقعاً به دره بسته خورده.
کارتهای معمولی این سری در Q1 2010 عرضه میشن.
برای مشاهده محتوا ، لطفا وارد شوید یا ثبت نام کنید
پس شد همون اژدهای کاغذی
برای مشاهده محتوا ، لطفا وارد شوید یا ثبت نام کنید
مثل اینکه واقعاً به دره بسته خورده.
چرا به در بسته خورده؟ قراره در ژانویه کارت ها عرضه بشند. پس عرضه ی G310 چه ربطی به کارت های HIGH END آینده داره.
پس شد همون اژدهای کاغذی
یعنی چی این حرف؟!! ATI می خواد در Q1 2010 کارت هایی عرضه کنه که از سری 5000 هستند و جانشین کارت هایی مثل 4550 و 4350 خواهند شد. این درسته که یکی بیاد بگه" پس شد همون گوریل کاغذی"! یا مثلا بگه ATI چقدر ضعیفه.
کارت ها رده بندی مختلفی دارند. g 310 متعلق به رده ای که مردم به خاطر بازی کارت گرافیک نمی خرند. بلکه حداکثر استفادشون دیدن فیلم های Full HD ایه.
حالا اگه بعد از عرضه ی GTX 360 یکی این کارت رو با 53XX ( جانشین 4550 ) مقایسه کنه و کارت های ATI رو مناسب بازی ندونه، اونوقت واکنش شما چیه؟
چرا به در بسته خورده؟ قراره در ژانویه کارت ها عرضه بشند. پس عرضه ی G310 چه ربطی به کارت های HIGH END آینده داره.
یعنی چی این حرف؟!! ATI می خواد در Q1 2010 کارت هایی عرضه کنه که از سری 5000 هستند و جانشین کارت هایی مثل 4550 و 4350 خواهند شد. این درسته که یکی بیاد بگه" پس شد همون گوریل کاغذی"! یا مثلا بگه ATI چقدر ضعیفه.
کارت ها رده بندی مختلفی دارند. g 310 متعلق به رده ای که مردم به خاطر بازی کارت گرافیک نمی خرند. بلکه حداکثر استفادشون دیدن فیلم های Full HD ایه.
حالا اگه بعد از عرضه ی GTX 360 یکی این کارت رو با 53XX ( جانشین 4550 ) مقایسه کنه و کارت های ATI رو مناسب بازی ندونه، اونوقت واکنش شما چیه؟
میشه بگید کی تنها کارگرافیکیش با سیستم دیدن فیلم full hd هست ؟
خوب یک همچین آدمی یک کارت onboard میگیره و یک پخش DVD برا تلوزیونش
میشه بگید کی تنها کارگرافیکیش با سیستم دیدن فیلم full hd هست ؟اولا من از کلمه ی "حداکثر" استفاده کردم نه کلمه ی "تنها".
دوم، به مشخصات g 310 توجه کنید. حتی از 9500 هم ضعیفتره. این کارت مطمئنا استفاده هایی به جز بازی کردن داره.
سوم، در مثال، مناقشه نیست. ممکنه در نهایت مثال خوبی نزده باشم. ولی کارت g310 متعلق به رده ی low-end و کارتهای ارزان قیمته.
alborz_k
28-11-2009, 14:07
چرا به در بسته خورده؟ قراره در ژانویه کارت ها عرضه بشند. پس عرضه ی G310 چه ربطی به کارت های HIGH END آینده داره.
یعنی چی این حرف؟!! ATI می خواد در Q1 2010 کارت هایی عرضه کنه که از سری 5000 هستند و جانشین کارت هایی مثل 4550 و 4350 خواهند شد. این درسته که یکی بیاد بگه" پس شد همون گوریل کاغذی"! یا مثلا بگه ATI چقدر ضعیفه.
کارت ها رده بندی مختلفی دارند. g 310 متعلق به رده ای که مردم به خاطر بازی کارت گرافیک نمی خرند. بلکه حداکثر استفادشون دیدن فیلم های Full HD ایه.
حالا اگه بعد از عرضه ی GTX 360 یکی این کارت رو با 53XX ( جانشین 4550 ) مقایسه کنه و کارت های ATI رو مناسب بازی ندونه، اونوقت واکنش شما چیه؟
کلأ مرسومه که اول کارت های high-end عرضه بشند و بعدش کارت های سطح پایین!! چون کارت های های اند جای مدل بالایی ها رو میگیریند و اون ها یک سطح می ان پایین ر و ... ! کلأ کارتی مثل gt310 رو می شه ندید گرفت!! چون هیچ تغییراتی در معادلات بازار ایجاد نمی کنه!
sir payman
28-11-2009, 14:18
من هنوزم میگم انتظار یک انقلاب رو نباید داشت.مطمِءن باشید قوی ترین کارتش که dual gpu باشه حداکثر 10 تا 15 درصد از 5970 قویتره ولی 20 تا 30 درصد از 5970 گرونتره.
hassanshaikhi
28-11-2009, 14:50
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
مشخصاتی فاش شده از GTX380 ، شرکت Nvidia هنوز این مشخصات را تایید نکرده .
اگه به فرض این ماله gtx380 باشه باید از driectx11 ساپورت کنه پس چرا shader model رو 4.0 نوشته؟
پهنای باندم طبق bus with و سرعت حافظه باید حدود باشه 263 gb/s باشه!
اولا من از کلمه ی "حداکثر" استفاده کردم نه کلمه ی "تنها".
دوم، به مشخصات g 310 توجه کنید. حتی از 9500 هم ضعیفتره. این کارت مطمئنا استفاده هایی به جز بازی کردن داره.
سوم، در مثال، مناقشه نیست. ممکنه در نهایت مثال خوبی نزده باشم. ولی کارت g310 متعلق به رده ی low-end و کارتهای ارزان قیمته.
9500 که جای خود داره از 9400 هم کلی ضعیفتره.فکر هم نکنم ارزونتر از 9500 بده بیرون.آخه کی حاضره با هر کاربریی این کارتو بخره.
این کارت G 310 در اصل همون G 210 هست، Nvidia بیشتر برای OEMها این کارت رو میزنه (مثل HP، Dell ...) تا برای مشتریان خورد دلیل عرضه این کارت هم به این صورت، دیرکرد در عرضه سری GT300 هست و نیاز بازار به این سطح و نوع کارت.
این کارت رو میشه با Radeon 4350 مقایسش کرد یا Geforce 9400 ولی کلاً هدف گیری این کارت دستگاههایی مثل HTPC ها یا سیستمهای مناسب مالتی مدیا و کاری هست. باید دقت کنید این کارت هم 40 نانومتره و هم G210 از DX10.1 پشتیبانی میکنه (حالا معلوم نیست G310 از DX11 پشتیبانی میکنه با نه ولی بعیده) و در ضمن لیستی از پورتهای مختلف رو پشتبانی میکنه که برای سیستمهای HTPC یا سیستمهایی برای استفادههای مالتی مدیا و کارهای سبک خیلی مناسبه.
البته ممکنه Nvidia برای اینکه فرقی بین G210 و G310 باشه این کارت رو با مموری DDR3 عرضه کنه.
بنا به FUDZILLA :
The G 310 packs a 16-core GPU clocked at 589MHz and 512MB of DDR2 memory on a 64-bit memory bus
Kianoosh
28-11-2009, 20:51
یه بررسی اجمالی نشون میده اگه مدلهای مین استریم و های اند سری 300 توان رقابت رو نداشته باشن باز هم تجربه تک قطبی شدن بازار رو برای کارتهای DX11 ای تی آی خواهیم داشت که فقط به ضرر کاربر هست اونم به شدت!!
پس باید تا عرضه این محصولات صبر کرد وگرنه چنین جی پی یویی فقط برای فاصله انداختن هست... نه بر اساس این مشخصات میشه سری 300 رو اژدهای کاغذی خوند نه با این تاخیرهای متوالی میشه خیلی منتظر یک محصول با ارزش خرید بالا بود...باز باید صبر کرد
morbidtale82
04-12-2009, 14:29
سلام. ببخشید هنوز تاریخ دقیق ورود های اند ها معلوم نیست؟
به نظرتون 385gtx دور و بر چند باشه؟
سلام. ببخشید هنوز تاریخ دقیق ورود های اند ها معلوم نیست؟
به نظرتون 385gtx دور و بر چند باشه؟
چیزی که نشنیدم.مشخصات این چیزی که شما داری میگی هم معلوم نیست اما با توجه به سری قبل
بیاد ش500 کمتر نباید باشه
mehrdad_ati
05-12-2009, 23:07
q1 2010 تاریخ ریلیز احتمالی gt300 هست .
قیمتش هم اگر بخواد رقابتی باقی بمونه باید حدود 300-400 دلار باشه .
mehrdad_ati
05-12-2009, 23:19
و خبر بعدی [ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
جدول مشخصات Fermi (GF100) در مقایسه با نسلهای پیش:
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
ببینید اگر این مشخصات واقعی باشه ! 3 بیلیون ترانزیستور با یک باس 512 بیتی احتمالا با نیتروژن مایع هم نمیشه خنکش کرد !
به نظر من دقیقا قظیه مثل سری 2000 ati شده اون موقع خیلی وقت بود که nvidia سری 8800 رو با قدرت هر چه بیشتر ارائه کرده بود و ati هم خیلی وعده روی سری 2000 داده بود وحتی یادمه باسشون 512 بیتی بود ! و اولیت باز از pixel proccesor استفاده کرده بودن و روی کاغذ (به صورت کاملا تایید شده و واقعی!) بوی یک انقلاب گرافیکی تمام عیار رو میداد اما در عمال ati رو از اوج کشید پایین و برای اولین بار اون سال میزان فروش nvidia از ati بیشتر شد .
حالا فرمی هم همین جوری شده ! البته فرقش اینه که تمام اطلاعات سری 2000 واقعی بودن ولی الان چیزی تایید نشده .
از من میشنوید خیلی روش حساب نکنید! در بهترین حالت در حد همین cypress هست . چون nvidia واقعا توی خنک کردن سری gt200 مشکل داشت و همونطور که میدونید نتونست gtx280 رو دو هسته ایش رو تولید کنه چون غولی میشد که هیچ رقمی نمیشد خنکش کرد و تازه مصرفش به کنار !
پس بیاید منطقی به قضیه نگاه کنید و تا زمان اعلام مشخصات و حد اقل تاریخ ریلیزش صبر کنیم !
تا حالا که هرچی inquirere پیش بینی کرده بود درست از اب در اومده و طبق گفته ی اونا gt300 نمیتونه در حد cypress ظاهر بشه
والبته یادتون باشه که تنها دلیلی که کارت 5970 رو ati خیلی downclock کرد ارائه ی احتمالی یک 5990 احتمالی در صورتی که gt300 بتونه رقابت کنه بوده !
به نظر من دقیقا قظیه مثل سری 2000 ati شده اون موقع خیلی وقت بود که nvidia سری 8800 رو با قدرت هر چه بیشتر ارائه کرده بود و ati هم خیلی وعده روی سری 2000 داده بود وحتی یادمه باسشون 512 بیتی بود ! و اولیت باز از pixel proccesor استفاده کرده بودن و روی کاغذ (به صورت کاملا تایید شده و واقعی!) بوی یک انقلاب گرافیکی تمام عیار رو میداد اما در عمال ati رو از اوج کشید پایین و برای اولین بار اون سال میزان فروش nvidia از ati بیشتر شد .
این جمله چیزی رو علیه Fermi اثبات نمی کنه!
والبته یادتون باشه که تنها دلیلی که کارت 5970 رو ati خیلی downclock کرد ارائه ی احتمالی یک 5990 احتمالی در صورتی که gt300 بتونه رقابت کنه بوده !
خوب از اول همین 5990 رو ارائه می کرد. فکر نکنم حرف شما درست باشه. هدف اصلی ATI از ارائه ی 5970 با این فرکانس ها پایین اوردن مصرف کارت تا زیر 300 وات بود.
mehrdad_ati
06-12-2009, 11:14
منم که چیری رو ادعا نکردم فقط نظر خودمو گفتم !
اولین نکته همینهیه که شما میگید اما در صورتی که فرمی قدرتمند ظاهر بشه یک راه حل ساده برای ati باقی میمونه اونم آور کردن کارتهاشه که میتونه با یک تغییر اسم سادهع از 70 به90 باشه که خیلی هم تعجب نداره چون این کارتها خیلی کم مصرف هستند .
در کل تا قبل از ارائه ی فرمی نمیشه صحبتی از کاراییش کرد . اونم که ظاهرا تا 2 ماه دیگه هم نمیاد ! تا اون موقع ati تمام mainstream و lowend هاش رو هم بیرون داده و کل بازار dx11 رو گرفته ! نمدونم nvidia منتظر چی هست !؟
sepinood1
06-12-2009, 19:10
منم که چیری رو ادعا نکردم فقط نظر خودمو گفتم !
اولین نکته همینهیه که شما میگید اما در صورتی که فرمی قدرتمند ظاهر بشه یک راه حل ساده برای ati باقی میمونه اونم آور کردن کارتهاشه که میتونه با یک تغییر اسم سادهع از 70 به90 باشه که خیلی هم تعجب نداره چون این کارتها خیلی کم مصرف هستند .
در کل تا قبل از ارائه ی فرمی نمیشه صحبتی از کاراییش کرد . اونم که ظاهرا تا 2 ماه دیگه هم نمیاد ! تا اون موقع ati تمام mainstream و lowend هاش رو هم بیرون داده و کل بازار dx11 رو گرفته ! نمدونم nvidia منتظر چی هست !؟
اولا که nvidia ثابت کرده هیچ وقت کارتهای پرقدرتش در حدی نبوده که ATi بخواد با اور بهش برسه .. حالا گیرم حرف شما قبول ! مگه nvidia نمی تونه اور کنه !؟
فکر نکنم مسائل اینقدر ساده که شما می گین باشه ATI واسه خیلی مسائل اینهمه تغییران در 5970 ایجاد کرده که اتفاقا بزرگترین مسئله ها هم همون مشکل گرما و مصرف زیاد کارت می تونن باشن ... بله ممکنه با ورود نسل جدید کارتهای NVIDIA ... و در صورت قویتر بودن اون کارتها ATI بخواد حتی 5990 رو هم وارد بازار کنه ... کاری که به نظر من تا مجبور نباشه انجامش نخواهد داد ...
راستی در مورد بازار چی فکر می کنید !؟ هر کس زودتر رسید برنده س !؟ ATI اگه سه ماه زودتر وارد میشه سود همین سه ماه وارد جیبش میشه ... تازه اگه ما خریدانی که منتظر ورود سری 300 هستن رو حساب نکنیم و بگیم همه هجوم آوردن هر چه سریعتر یه کارت DX11 بخرن و ...!
بهتره که کمی صبر کنیم ... زمان همه چیز رو مشخص خواهد کرد من امیدوارم که NVIDIA اونقدر قوی ظاهر نشه که بخواد کلا جهت و سمت و سوی بازار رو به طرف خودش بکشه و همچنین امیدوارم اونقدر ضعیف نباشه که باعث دلسردی مصرف کننده شه و بازار رو از دست بده چون هر یک از دو شرکت احساس کنن حاشیه ی امن دارن این ما خریداران هستیم که ضرر می کنیم .. من هنوز سری 8 NVIDIA رو فراموش نکردم چند سال حکومت با قیمتی گزاف و انگار این کابوس پایان یافتنی نبود ...! :41:
البته مموری اینترفیس تو Gt300 Fermi ها 384بیتیه نه 512.
بعد قضیه رو اینطوری که دوستان میگن اصلاً نمیشه تحلیل کرد با نسل های قبلم نمیشه مقایسه کرد (چون تکنولوژی هر سال پیشرفت میکنه به تنهایی فب 40 نانومتری برای این کارتها خودش کلی چیز رو براشون تغییر میده) که حالا بگیم چون 3 بیلیون ترانزیستور داره و مموری اینترفیسم 512 بیتیه (که نیست) پس حتماً در دمای بالا کار میکنه این حرف اصلاً از پایه اشتباهه.
Kianoosh
07-12-2009, 07:09
Nvidia volume Fermi shipping late Q1 ([ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ])
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
In January, Nvidia should have the final samples and a limited number of Fermi Geforce GT300 chips, but the launch might take place later.
If pushed, Nvidia might launch Fermi Geforce in late January as the final chips should be there by then, but real volume shipments should start towards end of Q1 2010.
The most realistic availability date is March 2010, and again only if everything goes right. Judging by our previous information, Nvidia delayed its plans by more than one, if not two quarters.
This is rather unpleasant for Nvidia and the only thing that really keeps Nvidia sane is the fact that ATI also suffers from massive shortages of its 40nm RV870 based chips.
......
خیلی جالبه...!
mehrdad_ati
07-12-2009, 20:46
اولا که nvidia ثابت کرده هیچ وقت کارتهای پرقدرتش در حدی نبوده که ATi بخواد با اور بهش برسه .. حالا گیرم حرف شما قبول ! مگه nvidia نمی تونه اور کنه !؟
فکر نکنم مسائل اینقدر ساده که شما می گین باشه ATI واسه خیلی مسائل اینهمه تغییران در 5970 ایجاد کرده که اتفاقا بزرگترین مسئله ها هم همون مشکل گرما و مصرف زیاد کارت می تونن باشن ... بله ممکنه با ورود نسل جدید کارتهای NVIDIA ... و در صورت قویتر بودن اون کارتها ATI بخواد حتی 5990 رو هم وارد بازار کنه ... کاری که به نظر من تا مجبور نباشه انجامش نخواهد داد ...
راستی در مورد بازار چی فکر می کنید !؟ هر کس زودتر رسید برنده س !؟ ATI اگه سه ماه زودتر وارد میشه سود همین سه ماه وارد جیبش میشه ... تازه اگه ما خریدانی که منتظر ورود سری 300 هستن رو حساب نکنیم و بگیم همه هجوم آوردن هر چه سریعتر یه کارت DX11 بخرن و ...!
بهتره که کمی صبر کنیم ... زمان همه چیز رو مشخص خواهد کرد من امیدوارم که NVIDIA اونقدر قوی ظاهر نشه که بخواد کلا جهت و سمت و سوی بازار رو به طرف خودش بکشه و همچنین امیدوارم اونقدر ضعیف نباشه که باعث دلسردی مصرف کننده شه و بازار رو از دست بده چون هر یک از دو شرکت احساس کنن حاشیه ی امن دارن این ما خریداران هستیم که ضرر می کنیم .. من هنوز سری 8 NVIDIA رو فراموش نکردم چند سال حکومت با قیمتی گزاف و انگار این کابوس پایان یافتنی نبود ...! :41:
خیلی جالب شد !
شما یا خیلی وقت نیست توی کار gpu هستید یا اینکه خیلی چیزها رو نمیدونید ! nvidia فقط توی 3 سری هست که از لحاظ کارایی از ati جولو هست (تازه سری 8000 و 9000 هم که در واقع یکیه پس میشه 2 سری) شما کارتی قبل از 8800ultra سراغ داری که بتونه تو performanec کارتهایی مثل x1950xt , x850xt pe ,9800 xt رو شکست بده !
حالا نمیخوام گذشته رو زنده کنم ولی برای یاد آوری گفتم ! تازه با ارائه ی سری 8000 و هم زمان شدنش با ادغام ati با amd بود که nvidia برای اولین بار تونست بیشتر از ati بفروشه که با ارائه ی سری 4000 این فاصله به شدت کم شد و احتمالا توی این سری دوباره فروش ati بیشتر از nvidia میشه . (نظر منه)
اما در مورد اون دوستی که گفته بودند ارائه ی زود تر cypress نمیتونه علتی برای فروش موفق ترش در بازار باشه که به نظرم کاملا اشتباهه
نمونش همین xbox360 در حالی که چیز خاصی بیشتر از ps3 نداشت (شاید حتی در بعضی موارد کاملا بر تر باشه) اما به دلیل تاخیری که نسبت به xbox360 داشت هیچ وقت نتونست موفقین 360 رو تکرار کنه و حتی تو ژاپن هم اون طور که باید و شاید فروش نداشت .
تازه تعداد افرادی که منتظر ورود ps3 بودن مطمعنا از تعداد افرادی که احتمالا منتظر ورود fermi میمونند بیشتر بود .
و اگر الان به چند سایت تحلیلی سر زده باشید (بی طرف ها) میبینید که هیچ کودوم با این وضعیت آینده ی روشنی رو برای nvidia پیش بینی نکردن . :13:
البته اینها همش احتمال هست و ممکنه که کلا gt300 بیاد و cypress رو بشوره و با خودش ببره ولی چیزی که فعلا میشه از اوضاع پیشبینی کرد همینه که گفتم و اگر کمی منطقی باشید باید قبول کنید که nvidia نه یک پله بلکه چندین پله از رقیب سنتیش عقب تر هست (در حال حاظر)
و من هم منکر این نیستم که nvidia ثابت کرده که اصلا قابل پیش بینی نیست و ممکنه با یک حرکت حریفش رو کیش و مات کنه . :46:
بعپه هر حال امیدوارم gt300 هر وقت که میاد باعث گرم تر شدن رقابت بشه نه سرد تر شدنش . :10:
خیلی جالب شد !
شما یا خیلی وقت نیست توی کار gpu هستید یا اینکه خیلی چیزها رو نمیدونید ! nvidia فقط توی 3 سری هست که از لحاظ کارایی از ati جولو هست (تازه سری 8000 و 9000 هم که در واقع یکیه پس میشه 2 سری) شما کارتی قبل از 8800ultra سراغ داری که بتونه تو performanec کارتهایی مثل x1950xt , x850xt pe ,9800 xt رو شکست بده !
حالا نمیخوام گذشته رو زنده کنم ولی برای یاد آوری گفتم ! تازه با ارائه ی سری 8000 و هم زمان شدنش با ادغام ati با amd بود که nvidia برای اولین بار تونست بیشتر از ati بفروشه که با ارائه ی سری 4000 این فاصله به شدت کم شد و احتمالا توی این سری دوباره فروش ati بیشتر از nvidia میشه . (نظر منه)
اما در مورد اون دوستی که گفته بودند ارائه ی زود تر cypress نمیتونه علتی برای فروش موفق ترش در بازار باشه که به نظرم کاملا اشتباهه
نمونش همین xbox360 در حالی که چیز خاصی بیشتر از ps3 نداشت (شاید حتی در بعضی موارد کاملا بر تر باشه) اما به دلیل تاخیری که نسبت به xbox360 داشت هیچ وقت نتونست موفقین 360 رو تکرار کنه و حتی تو ژاپن هم اون طور که باید و شاید فروش نداشت .
تازه تعداد افرادی که منتظر ورود ps3 بودن مطمعنا از تعداد افرادی که احتمالا منتظر ورود fermi میمونند بیشتر بود .
و اگر الان به چند سایت تحلیلی سر زده باشید (بی طرف ها) میبینید که هیچ کودوم با این وضعیت آینده ی روشنی رو برای nvidia پیش بینی نکردن . :13:
البته اینها همش احتمال هست و ممکنه که کلا gt300 بیاد و cypress رو بشوره و با خودش ببره ولی چیزی که فعلا میشه از اوضاع پیشبینی کرد همینه که گفتم و اگر کمی منطقی باشید باید قبول کنید که nvidia نه یک پله بلکه چندین پله از رقیب سنتیش عقب تر هست (در حال حاظر)
و من هم منکر این نیستم که nvidia ثابت کرده که اصلا قابل پیش بینی نیست و ممکنه با یک حرکت حریفش رو کیش و مات کنه . :46:
بعپه هر حال امیدوارم gt300 هر وقت که میاد باعث گرم تر شدن رقابت بشه نه سرد تر شدنش . :10:
دوست عزیز اطلاعات شما ضعیفه، Nvidia تقریباً همیشه مقدار خیلی بیشتری از بازار تو دست داشته، (البته در سال های اخیر Intel بوده که سهم عمده بازار در عرضه GPU داشته و نه ATI و Nvidia) کلاً از نظر Market share در اکثر کوارترهای حتی چندین سال پیشم نگاه کنی برتری با Nvidia بوده در سال های اخیر که تقریبا سهم ATI نصف Nvidia بوده.
مقایسهای هم که میکنید اصلاً اشتباه که کدوم سری از کدوم سری قوی تر بوده بعد شما تا 2-3 سال پیش انگار فقط اطلاعات دارید، Nvidia در اکثر سری های Geforce از سال 99 با Geforce 256 و بعد 2، 3، 4 ... عملکرد خیلی خوبی داشته. مخصوصاً در سال های خیلی اخیر عملکرد Nvidia از نظر تکنولوژیکی و هزینه بر روی تکنولوژی های جدید بدون در نظر گرفتن فروش خیلی بهتر از ATI بوده.
mehrdad_ati
07-12-2009, 22:46
اطلاعات من ظعیفه ؟
دوست عزیز شما روی هوا صحبت می کنید من کاملا مستند صحبت میکنم ati شرکتی با بیش از 25 سال سابقست و بیش از دو برابر nvidia سابقهی کار داره !
همون قدر که پای اینتل رو کشیدید وسط کافی بود ! باید به عرضتون برسونم که اینتل فقط گرافیک مجتمع تولید میکنه نه کارت گرافیکی و بحث ما سر مارکت شر کارت گرافیکی هست نه شصرفا شتابدهنده ی گرافیکی
شما اگر خاطرتون باشه این کارتها با هم رقابت داشتن در سری های قبل حالا میتونی بری ببینی کودوم برتر بودن بعد بیاید اینجا و از اطلاعات بقیه انتقاد کنید .
x850xt pe vs 6800 ultra
x1950xt vs 7900gt
9800xt vs 5950
8500 vs geforce 4
7500 vs geforce 3 and 2
بعد که اینا رو خوب نگاه کردی با هم بیشتر صحبت میکنیم . در مورد مارکت شر هم حتما شما در جریان کارها نبودی . اینجا رو ببین
سال 2002 حکومت مطلق ati
برای مشاهده محتوا ، لطفا وارد شوید یا ثبت نام کنید
2003 سالی خوب برای nvidia اما همچنان زیر سایه ی ati
برای مشاهده محتوا ، لطفا وارد شوید یا ثبت نام کنید
این وضعیت بازار گرافیک در سال 2004 هست
برای مشاهده محتوا ، لطفا وارد شوید یا ثبت نام کنید
این هم مال 2005
برای مشاهده محتوا ، لطفا وارد شوید یا ثبت نام کنید
این هم 2006
برای مشاهده محتوا ، لطفا وارد شوید یا ثبت نام کنید
حالا این که شما میگی همیشه مقدار خیلی بیشتری از بازار رو nvidia تو دستش داشته نمیدونم از کجا میاری !
همونطور که میبینی در هیچکدوم از این سالهای پی در پی nvidia نتونسته بود ati رو شکست بده حالا در این دو سالی که جولو افتاده خیلی خوب کار کرده اونم به خاطر تعلل ati بود که دلیل اصلیش ادغام با amd و کنار اومدن با شرایط جدید بود ولی حالا که ati دوباره خودش رو پیدا کرده به نظر میرسه که بتونه سهمش رو از nvidia پس بگیره . مخصوصا اگر nvidia خیلی gt300 رو معطل کنه آخه همونطور که حتما میدونی بیشترین مشتری کارتهای گرافیک شرکت های oem هستند که اگر nvidia باز هم معطل کنه اونها چاره ای ندارند جز اینکه برند سراغ تنها تولید کنندهی dx11 بازار اونقته که دیگه ...
این وضعیت فعلی بازاره (یه ماهه ی سوم سال 2009 دقیاق قبل از اومدن cypress)
nvidia --------------24.9
intel--------------- 52.7
ati------------------19.8
برای مشاهده محتوا ، لطفا وارد شوید یا ثبت نام کنید
این نشون میده که nvidia حتی قبل از ارائه ی cypress روند نزولی خودش رو در حال طی کردن بوده . حالا امار این سه ماه هم بیاد چه بسا حتی عقب هم افتاده باشه . اما در نهایت سه ماه ی اول و دوم 2010 میتونه تعیین کننده باشه .
فکر کنم زیاد جالب نباشه ما توی این تاپیک به این بحث ادامه بدیم اینا رو هم فقط برای اطلاع دوستان گفتم تا به اشتباه نیفتن.
millad1388
08-12-2009, 00:19
یکی از هربه هایی که ati برای پیشرت بکار گرفت عرضه کارتهای نسل جدید در زمانی بین عرضه نسل جدید کارتهای nvidia بود چون در اون صورت حداقل برای 5 الی 6 ماه جلو تر از رقیب قرار میگرفت!!!
millad1388
08-12-2009, 00:27
یکی از نکات جالب معماری ati هم تعداد alu اون ها نسبت به رقیبش هست که باعث نتایج عجیب در بعضی مقایسه ها میشود!!
و تعداد کمتر texter و rop ... با این حال به علت بیشتر بودن shader ها عملکردی بهتر نسبت به رقیب دارد و نکته دیگر اینکه فرکانس هسته و سایه زن -ati برابر هستش و کسی هم نمیدونه چرا!!!!!!!
اطلاعات من ظعیفه ؟
دوست عزیز شما روی هوا صحبت می کنید من کاملا مستند صحبت میکنم ati شرکتی با بیش از 25 سال سابقست و بیش از دو برابر nvidia سابقهی کار داره !
همون قدر که پای اینتل رو کشیدید وسط کافی بود ! باید به عرضتون برسونم که اینتل فقط گرافیک مجتمع تولید میکنه نه کارت گرافیکی و بحث ما سر مارکت شر کارت گرافیکی هست نه شصرفا شتابدهنده ی گرافیکی
...........................
دوست عزیز اصلاً من منظور شما رو متوجه نمیشم از این مقایسه کارتهای 4-5 سال پیش با هم، خوب میشه توضیح بدین! من اصلاً یادم نمیاد مثلاً 6 سال پیش، 9800XT مثلاً تو تست ها چند فریم بهتر از 5950 Ultra بوده حتی ارزش جستجو کردنم نداره اصلاً این مقایسه بی هدف برای چیه و فایدش چیه؟ میشه ازش نتیجه گرفت که Nvidia یا ATI بهتر هستن؟! حتی میشه ازش نتیجه گرفت سری Geforce 5000 خوب نبوده یا بدتر از سری R300 بوده؟ بعد من کجا گفتم کارت های Nvidia همیشه بهتر از ATI بوده من گفتم Nvidia روی سری Geforce کلاً از Geforce 256 خوب عمل کرده شما خوب نمیخونید انگار متن منو برای خودتونم جبهه میگیرید.
در ضمن من گفتم در سال های اخیر سهم بازار بیشتری در اختیار Nvidia بوده که خوب بوده دیگه، از سال 2006 به اینور، این اختلافم همینطور داره بیشتر میشه.
در ضمن Market Share رو معمولاً کوارتری حساب میکنن کوارتر 2 امسال نصف بازار چیپ گرافیک دسته اینتل بوده بعدشم حدود 30 درصد برای Nvidia بوده 18 درصد هم حدوداً برای ATI، کوارتر سوم هم خوب ATI سری HD5000 رو معرفی کرده که مشخصاً باید فروشش رو زیاد کنه که تابلو هست، حدود 4 درصد همش از سهم Nvidia از بازار کم شده ولی سهم بازار ATI هم نسبت به کوارتر قبل نزدیک 2٪ زیاد شده فقط، که که ناامید کنندست تا حد زیادی. البته احتمالاً تو Q4 هم سهم ATI بیشتر بشه ولی از اونور دوباره Q1 2010 نوبت Nvidia میشه با سری جدید حالا هر مزخرفی که میخواد باشه.
-----------------------------
دوست عزیز شما میخوای بحث کنیم به روی چشم ولی این بحث جالبی نیست که شما بخوای معماری و تکنولوژی n سال پیش رو با هم مقایسه کنی و هیچ فایده و هدفی هم نداره به جای این بیا مقایسه بین معماری Fermi و Evergreen انجام بدیم. تا بقیه هم یچیزی دستگیرشون بشه.
بررسی لینکهای آقای mehrdad_ati :
سال 2002 حکومت مطلق ati
کد:
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
شما ادعا کردید که ati در سال 2002 حاکم مطلق بوده. برای اثباتش هم از این لینک استفاده کردید. ولی این لینک مربوط میشه به سال 1998 . به تاریخش دقت کنید. August 1998
سالی خوب برای nvidia اما همچنان زیر سایه ی ati
کد:
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
کمی انصاف هم خوب چیزیه. با توجه به لینک شما :
The latter's Q4 2003 market share was 24.9 per cent - Nvidia's was 24.7 per cent.
سهم nvidia از بازار 24.7 درصد و سهم ati 24.9. امیدوارم بلد باشید تفریق کنید! اختلاف فقط 0.2 که خیلی ناچیزه.
در ادامه در همون سایت اومده :
Intel's share was down 3.3 percentage points on the previous quarter. ATI's was up 3.9 points. Nvidia's overall share remained static, dropping a mere 0.3 per cent.
ati نسبت به قبل 3.9 درصد رشد داشته و nvidia تقریبا ثابت بوده و 0.3 از سهم بازارش کاسته شده در این کوارتر. یعنی قبل از Q4 2003 که احتمالا q3 2003 باشه، سهم بازار انویدیا 25 درصد و سهم بازار ATI ، 21 درصد بوده که این به این معناست که ati سهم بازار کمتری نسبت به nvidia داشته.
در ضمن در همون سایت اومده که :
ATI nosed past Nvidia last quarter to retake its long-lost leadership of the graphics chip market
که معنی متن اینه که ATI بعد از یک مدت طولانی( که در متن اشاره نشده چقدر)، جدیدا تونسته بود که بیشترین سهم بازار رو بعد از اینتل در اختیار خودش بگیره.
به علاوه اون لینک حرفی از سال 2003 نمیزه بلکه دقیقا اشاره داره q4 2003 که من هم با یه تفریق ساده نشون دادم در q3 انویدیا بالاتر بود.
لطفا حداقل قبل از لینک دادن بخونید ببینید چی نوشته که وقتی به عنوان یک fanboy منطق و انصاف رو میزارید کنار، حداقل از لینک خودتون علیه خودتون استفاده نشه.
این وضعیت بازار گرافیک در سال 2004 هست
کد:
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
در لینک شما جمله ی زیر اومده :
then ATI will have surpassed NVIDIA in terms of market share for the first time in about five years:
یعنی ATI بعد از 5 سال تازه تونسته بود که سهم بازار بیشتری داشته باشه نسبت به nvidia !
در حالی که از جملات اخیر شما اینگونه برداشت میشد که ati سال هاست بیشترین فروش رو داشته، و nvidia اخیرا تازه رشد ناچیزی کرده.
این هم مال 2005
کد:
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
میشه لطفا توضیح بدید چه فرقی بین این لینک و لینک بالایی شما وجود داره؟
این هم 2006
کد:
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
این لینک هم همین طور! شما برای 3 سال متوالی از یک لینک مربوط به گزارش سال 2004 استفاده کردید.
تمام لینک هاتون بر خلاف ادعاهای شما بودند.
ati شرکتی با بیش از 25 سال سابقست و بیش از دو برابر nvidia سابقهی کار داره !
ATI سال 1985 تاسیس شده و از عمرش 24 سال می گذره.
nVidia سال 1993 تاسیس شده و از عمرش 16 سال می گذره.
اگه 24 رو تقسیم بر 16 کنیم میشه 1.5 برابر نه 2 برابر.
این وضعیت فعلی بازاره (یه ماهه ی سوم سال 2009 دقیاق قبل از اومدن cypress)این یعنی چی؟ " یه ماهه ی سوم"؟ منظورتون کوارتر سومه؟
این نشون میده که nvidia حتی قبل از ارائه ی cypress روند نزولی خودش رو در حال طی کردن بوده موافقم. ولی سرعت/ شیب این نزول نسبت به قبل با توجه به منبع خودتون در حال کاهش بوده.
حالا در این دو سالی که جولو افتادهبا توجه به لینک های خودتون nvidia حداقل برای 5 سال جلوتر بوده.
فکر کنم زیاد جالب نباشه ما توی این تاپیک به این بحث ادامه بدیم اینا رو هم فقط برای اطلاع دوستان گفتم تا به اشتباه نیفتن.اتفاقا دوستان بیش از گذشته به اشتباه میافتادند بوسیله ی لینک ها و ادعاهای غلط شما.
sepinood1
08-12-2009, 04:55
خیلی جالب شد !
شما یا خیلی وقت نیست توی کار gpu هستید یا اینکه خیلی چیزها رو نمیدونید ! nvidia فقط توی 3 سری هست که از لحاظ کارایی از ati جولو هست (تازه سری 8000 و 9000 هم که در واقع یکیه پس میشه 2 سری) شما کارتی قبل از 8800ultra سراغ داری که بتونه تو performanec کارتهایی مثل x1950xt , x850xt pe ,9800 xt رو شکست بده !
حالا نمیخوام گذشته رو زنده کنم ولی برای یاد آوری گفتم ! تازه با ارائه ی سری 8000 و هم زمان شدنش با ادغام ati با amd بود که nvidia برای اولین بار تونست بیشتر از ati بفروشه که با ارائه ی سری 4000 این فاصله به شدت کم شد و احتمالا توی این سری دوباره فروش ati بیشتر از nvidia میشه . (نظر منه)
اما در مورد اون دوستی که گفته بودند ارائه ی زود تر cypress نمیتونه علتی برای فروش موفق ترش در بازار باشه که به نظرم کاملا اشتباهه
نمونش همین xbox360 در حالی که چیز خاصی بیشتر از ps3 نداشت (شاید حتی در بعضی موارد کاملا بر تر باشه) اما به دلیل تاخیری که نسبت به xbox360 داشت هیچ وقت نتونست موفقین 360 رو تکرار کنه و حتی تو ژاپن هم اون طور که باید و شاید فروش نداشت .
تازه تعداد افرادی که منتظر ورود ps3 بودن مطمعنا از تعداد افرادی که احتمالا منتظر ورود fermi میمونند بیشتر بود .
و اگر الان به چند سایت تحلیلی سر زده باشید (بی طرف ها) میبینید که هیچ کودوم با این وضعیت آینده ی روشنی رو برای nvidia پیش بینی نکردن . :13:
البته اینها همش احتمال هست و ممکنه که کلا gt300 بیاد و cypress رو بشوره و با خودش ببره ولی چیزی که فعلا میشه از اوضاع پیشبینی کرد همینه که گفتم و اگر کمی منطقی باشید باید قبول کنید که nvidia نه یک پله بلکه چندین پله از رقیب سنتیش عقب تر هست (در حال حاظر)
و من هم منکر این نیستم که nvidia ثابت کرده که اصلا قابل پیش بینی نیست و ممکنه با یک حرکت حریفش رو کیش و مات کنه . :46:
بعپه هر حال امیدوارم gt300 هر وقت که میاد باعث گرم تر شدن رقابت بشه نه سرد تر شدنش . :10:
دوست عزیز من از سال 96 تو بازار کامپیوتر هستم .... در همون سالی هم که 850 مقداری قویتر از 6800 بود nvidia با تکنولوژِی sli پا به میدون گذاشت .... و همه چیز تقریبا با این تکنولوژِی به نفعش شد و از سری بعدی کارتها رقابت بسیار فشره تر شد و در اکثر موارد این nvidia بود که بهتر عمل می کرد در سری 8 که تا چند سال این nvidia بود که حاکم بدون قید شرط بازار و کارایی بود و سری 9 را هم به این خاطر روونه ی بازار کرد که یه کم تنوع داشته باشه بیشتر وگرنه این نسل همون نسل قبل nvidia بود از نظر تکنولوژی و کار آیی و چون رقیب اونقدر ضعیف بود حتی به خودش زحمت تغییرات بنیادی رو نداد ورود سری 3 و 4 باعث شد که nvidia احساس خطر کنه و نتیجه ش هم شد سری200 ... به هر حال ما فن بوی هیچکدوم نیستیم ... امیدوارم هر دو شرکت همیشه قوی و رقیب باشن ... تا ما خریدارن همیشه جنسی خوب قوی و با قیمتی معقول در اختیار داشته باشیم ...
بله باید فروش ATI الان بیشتر هم شده باشه ... خود من هم به هر کس پیشنهاد سیستم میدم می گم فعلا کارتهای ATI از نظر کارایی و قیمت خریدشون به صرفه تره خصوصا مدلهای پرقدرتشون high end ...
توجه داشته باشین xbox و ps3 یک سیستم کامل هستن و کاربردشون هم خودتون می دونین چیه ...!
هرگز نمیشه این مثال رو به یه بخش از pc ربط داد حالا از این هم بگذریم که فروش کم ps3 برای قیمت بالایی بود که داشت و حالا با پایین اومدن قیمتش سهمش از بازار خیلی بیشتر از قبل شده و فروش xbox داره کمتر میشه...!
به هر حال شما هیچ وقت نباید روی اورکلاک برای پیشی گرفتن ATI از NVIDIA حساب کنی چون این چمد سالی حداقل این ثابت شده که NVIDIA در این زمینه همواره سر بوده ... کارتهاش قابلین اورکلاک بیشتری داشتن ... :10:
sir payman
08-12-2009, 21:44
حرفهای این دوستان در مورد انویدیا درسته ولی در مورد فروش در Q1 سال 2010 باید تا اومدن gt300 صبر کرد و هنوز هیچ نظر قاطعی نمیشه داد.و شکی هم نیست که انویدیا در اغلب موارد در مورد تکنولوژی پیشگام بوده.
حرفهای این دوستان در مورد انویدیا درسته ولی در مورد فروش در Q1 سال 2010 باید تا اومدن gt300 صبر کرد و هنوز هیچ نظر قاطعی نمیشه داد.و شکی هم نیست که انویدیا در اغلب موارد در مورد تکنولوژی پیشگام بوده.
هرچی باشه از سری قبل بدون شک بهتره پس فروش بالا میره بعد مردم دوست دارن چیزهای جدید بخرم حتی اگر خیلی جالب نباشه در مورد سری جدید این کارتها هم همینطوره خیلیا دست نگه داشتن تا GT300 بیاد یه کارت جدید بگیرن مثل خوده من، حالا اومدیم جالب نبود خیلی یا باید بری سری HD5000 بگیری یا با هرچی هست Gt300 رو بگیری از اونجایی که سری 5000 هم آنچنان آش دهن سوزی نیست مخصوصاً در رده MainStream و سری 57xx (که بیشتری فروش برای همین بخشه) پس نتیجه میگیری همون Gt300 رو بگیری بهتره در ضمن شکی نیست Nvidia حداقل و در بدترین حالت بگیم در رنج مشابه کارتی بهتر از کارت های سری HD5000 نزنه دیگه بدترم نمیزنه و رقابت رو از دست نمیده. این دیگه بدترین حالت ممکنه.
mehrdad_ati
09-12-2009, 23:41
دوست عزیز شما سری hd2k رو یادتون نیست از این حرفها پشتشون زیاد بود ولی در نهایت چی شد ! ....
در هر حال امیدوارم کارتهای خوبی از آب در بیان .
در مورد mainstream های ati هم به نظر من که مشکلی نداره . شایدم یک خورده قیمتشون نا معقول باشه که اونم مطمعنن وقتی fermi بیاد کاهش پیدا میکنه !
فعلا بزرگترین مشکل ati اینه که تولیدش کمتر از تقاضاست !!!!!!!!!!!!! یعنی همینطور الکی قیمتها بالا میره بدون اینکه سودی به ati برسه !
امیدوارم هر چه سریعتر این مشکلم حل بشه و قیمتها دوباره پایین بیاد .
ولی اینو مطمعن باشید وقتی gt300 بیاد tsmc که تو همین 5000 هم مونده حتی وضع رو بذ تر هم میکنه برای nvidia مگر اینکه تا اون موقع بتونه مشکل تولیدش رو برطرف کنه .
البته میشه گفت چون tsmc هم تایوانی هست شاید هوای nvidia رو بیشتر داشته باشه ولی خوب از طرفی amd هم تایوانی هست ! و اینطور که بوش میاد کلا تو ساخت die های 40 نانومتری مشکل داشته و اینتل هم به این مشکل tsmc اشاره کرده .
چند تصویر تازه از Fermi در حالت SLI
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
اولین مشخصات رسمی از طرف همون شخصی که تو عکس بالاس :دی
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
mehrdad_ati
10-12-2009, 19:15
این مشخصات به نظر ایراد داره ؟ آخه با این همه اختلاف معماری الان باید حد اقل 3 گیگافلوپس توان محاسباتی داشته باشه . پس چرا انقدر توان محاسباتیش کم شده ؟ 1.7 ؟ بعیده ! یا مشخصات اغراق آمیزه یا توان محاسباتی رو پایین حساب کردن .
حالا منبعش کجاست که رسمیه ؟ سایت nvidia ? میشه لینک بدید خیلی علاقه مند شدم .
این مشخصات به نظر ایراد داره ؟ آخه با این همه اختلاف معماری الان باید حد اقل 3 گیگافلوپس توان محاسباتی داشته باشه . پس چرا انقدر توان محاسباتیش کم شده ؟ 1.7 ؟ بعیده ! یا مشخصات اغراق آمیزه یا توان محاسباتی رو پایین حساب کردن .
حالا منبعش کجاست که رسمیه ؟ سایت nvidia ? میشه لینک بدید خیلی علاقه مند شدم .
البته این مشخصات در حد شایعست ولی پرفرمنس دقت Double زیاده از این جهت خیلی عالیه چون با API های زبون ++C میتونه Fermi مستقیم کار بکنه از این جهت این خیلی مهمه و تأثیر زیادی تو پرفرمنسش داره. کلاً پرفرمنس دقت Double تأثیر بیشتری در پرفرمنس واقعی و نهایی داره البته از یه جهتی یکمی هم Multi-purpose ترش میکنه که این خودش یکی از اهداف Nvidia برای Fermi هست و تکیه زیادی هم روش کرده و میخواد با Intel هم رقابتهایی بکنه گرچه هنوز خیلی زوده براش که جلوی غولی مثل اینتل بتونه درست حسابی بلند بشه.
اینم لینکه این شایعاته مشخصات و اون عکساست:
برای مشاهده محتوا ، لطفا وارد شوید یا ثبت نام کنید
alborz_k
11-12-2009, 01:20
البته این مشخصات در حد شایعست ولی پرفرمنس دقت Double زیاده از این جهت خیلی عالیه چون با API های زبون ++C میتونه Fermi مستقیم کار بکنه از این جهت این خیلی مهمه و تأثیر زیادی تو پرفرمنسش داره. کلاً پرفرمنس دقت Double تأثیر بیشتری در پرفرمنس واقعی و نهایی داره البته از یه جهتی یکمی هم Multi-purpose ترش میکنه که این خودش یکی از اهداف Nvidia برای Fermi هست و تکیه زیادی هم روش کرده و میخواد با Intel هم رقابتهایی بکنه گرچه هنوز خیلی زوده براش که جلوی غولی مثل اینتل بتونه درست حسابی بلند بشه.
اینم لینکه این شایعاته مشخصات و اون عکساست:
برای مشاهده محتوا ، لطفا وارد شوید یا ثبت نام کنید
چی گفتی؟! :دی 3-4 نفر باید بشینند ، ترجمش کنند! :دی
کلأ این ها هم شایعه هستند و مانور دادن روشون ، کاریست اشتباه!آخه وقتی تعداد واحد simd برابره ، چه طور ممکنه که هسته ی cuda ، 128 واحد اختلاف داشته باشه؟!!! هر کشی اینو پیش بینی کرده ، متأسفانه خیلی بی سواد بوده!
در ضمن ، من که تا حالا هیچ مشخصات رسمی ندیده بودم که بدون die size , TDP باشه! :دی
در ضمن خودتون می دونید که این بحثی که دارین در مرود ati &nvidiaمی کنید ، بی نتیجست و فقط جنبه ی سرگرمی داره! :دی
چی گفتی؟! :دی 3-4 نفر باید بشینند ، ترجمش کنند! :دی
کلأ این ها هم شایعه هستند و مانور دادن روشون ، کاریست اشتباه!آخه وقتی تعداد واحد simd برابره ، چه طور ممکنه که هسته ی cuda ، 128 واحد اختلاف داشته باشه؟!!! هر کشی اینو پیش بینی کرده ، متأسفانه خیلی بی سواد بوده!
در ضمن ، من که تا حالا هیچ مشخصات رسمی ندیده بودم که بدون die size , TDP باشه! :دی
در ضمن خودتون می دونید که این بحثی که دارین در مرود ati &nvidiaمی کنید ، بی نتیجست و فقط جنبه ی سرگرمی داره! :دی
من که بحثی سره Nvidia و Ati ندارم؛
ما از بچگی طرفدار Nvidia بودیم [ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ] یکی بگه بالای چشمش ابروست بهمون بر میخوره [ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ] البته پاش که برسه گند بزنه، Ati هم میخریم [ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]؛ کلاً تا وقتی خودم نخوام بخرم بهترینه ولی اگر قرار باشه خودم بخرم اونوقت باید دید منطق چی میگه [ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
alborz_k
11-12-2009, 11:45
من که بحثی سره Nvidia و Ati ندارم؛
ما از بچگی طرفدار Nvidia بودیم [ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ] یکی بگه بالای چشمش ابروست بهمون بر میخوره [ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ] البته پاش که برسه گند بزنه، Ati هم میخریم [ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]؛ کلاً تا وقتی خودم نخوام بخرم بهترینه ولی اگر قرار باشه خودم بخرم اونوقت باید دید منطق چی میگه [ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
من منظورم شما نبودی ، کلأ این یکی دو صفحه ی آخر این تاپیک علمی نبود! :دی
خب هر کسی از یک برند خوشش می اد! این طبیعیه! :دی
mehrdad_ati
11-12-2009, 13:02
در این که فرمی gtx380 احتمالا کمی از hd5870 قوی تره شکی ندارم اما اگر واقعا 3 بیلیون ترانزیستور داشته باشه باز هم بازنده nvidia میشه چون با توجه به اینکه ویفر هاشون ساخت یک شرکت هست قطعا کارت nvidia قیمت به مراتب بیشتری پیدا میکنه و همین هزینه ی اضافی رو برای خنک کردن و تعمین تغذیه ی مناسب برای این کارت در نظر بگیرید .
تا حالا تنها چیزی که من از خود nvidia شنیدم این بوده که fermi یکی از عظیم ترین پروزه هاشون تا به حال بوده (عمرا به xbox نمیرسه) .
با این اوصاف خیلی برام جالب شد تا ببینم چه میکنه این fermi +tesla !!!!!
در این که فرمی gtx380 احتمالا کمی از hd5870 قوی تره شکی ندارم اما اگر واقعا 3 بیلیون ترانزیستور داشته باشه باز هم بازنده nvidia میشه چون با توجه به اینکه ویفر هاشون ساخت یک شرکت هست قطعا کارت nvidia قیمت به مراتب بیشتری پیدا میکنه و همین هزینه ی اضافی رو برای خنک کردن و تعمین تغذیه ی مناسب برای این کارت در نظر بگیرید .
تا حالا تنها چیزی که من از خود nvidia شنیدم این بوده که fermi یکی از عظیم ترین پروزه هاشون تا به حال بوده (عمرا به xbox نمیرسه) .
با این اوصاف خیلی برام جالب شد تا ببینم چه میکنه این fermi +tesla !!!!!
Xbox چیه دیگه، چه ربطی داره اصلاً، اگر منظورت Xenos هست که تعطیله.
در این که فرمی gtx380 احتمالا کمی از hd5870 قوی تره
چه جوری میشه به این نتیجه رسید؟ شاید GTX 360 کمی از 5870 قوی تر باشه.
اون گیگافلاپ چیه اونو من یه جا خوندم یه جورایی رو کاغذ زیاده فقط زیاد تاثیری نداره میگن جریانش تو مایه های همون تعداد شیدرهای زیاده ATI هست که واقعا موقع مقایسه با انویدیا خیلی بیشترن ولی کارایشون بهینه نیست ! عمرا همین انویدیا با همین فلاپ کمترش میخوره ATI رو ... چیزی تو که تو 4890 و 280 شاهد بودیم ...
millad1388
12-12-2009, 16:59
به نظر من ALU مهمتر از همه چیز هستش!!مثل گرافیک 4850 با 9800GTX+ که هردو از 128 ALU استفاده میکردند و هر دو نتایج مشابهی هم میگرفتند
اون گیگافلاپ چیه اونو من یه جا خوندم یه جورایی رو کاغذ زیاده فقط زیاد تاثیری نداره میگن جریانش تو مایه های همون تعداد شیدرهای زیاده ATI هست که واقعا موقع مقایسه با انویدیا خیلی بیشترن ولی کارایشون بهینه نیست ! عمرا همین انویدیا با همین فلاپ کمترش میخوره ATI رو ... چیزی تو که تو 4890 و 280 شاهد بودیم ...
بهتره پیش بینی نکنید و منتظر باشید ... الان غول پردازنده جهان AMD پشت ATI هست و هر دفعه پیشرفت های زیادی میکنه بعید نیست nvidia گند بزنه و همون کارت های سری 200 را کمی قوی تر با نام 300 وارد بازار کنه !
mehrdad_ati
12-12-2009, 21:55
در واقع اون ترا فلوپس میزان قدرت پردازشی کارت هست و بیشترین تاثیر رو معمولا میزاره و توی سری gtx200 به هیچ عنوان ati بهتر نبود در این زمینه مخصوصا gtx295 که خیلی توان محاسباتی خوبی داشت
تعداد شیدر هم نمیشه گفت هیچ تاثیری نداره . در واقع مثل هسته های cpu میمونه فرض کن nvidia کارتهاش هسته های کمتری داره ولی هر هسته در فرکانس بیشتری فعالیت میکنه اما ati کارتهاش هسته های زیادی داره که هر کدوم توی فرکانس پایین تری کار میکنه (همون shader clocl)
ولی با تمام این تفاسیر من نفهمیدم چه جوری gpu clocl کارتهای ati از nvidia بیشتره ؟؟؟؟ اگر shader همون هسته هست ؟!!!!! آخه مگه میشه ! من دوچار دوگانگی گرافیکی شدم الان !!!!!
چه جوری میشه به این نتیجه رسید؟ شاید GTX 360 کمی از 5870 قوی تر باشه.
داداش منم دقیقا همینو گفتم !!!
Xbox چیه دیگه، چه ربطی داره اصلاً، اگر منظورت Xenos هست که تعطیله.
نه داداش .
همزمان با کار بر روی سری geforce fx بیشتر محقق های nvidia روی یک پروژه ی عظیم کار میکردند که بعد ها معلوم شد که داشتند برای xbox یک پردازنده گرفیکی میساختند که بتونه ps2 رو شکست بده ! اون بزرگترین پروژه ی تاریخ nvidia بود .
در مورد xenos شما از کجا میگی تعطیله ؟ فکر میکردم قوی ترین پردازنده ی گرافیکی هست که تا به حال برای کنسول طراحی شده !!! اگر منظورتون کلی هست که خوب الان r500 اصلا عددی به حساب نمیاد ! ولی بین کنسولها شاخی هست برای خودش . و برای اولین مایکروسافت با همین gpu تونست sony رو عقب بزنه . کاری که nvidia با تمام توانش نتونست انجام بده (البته همون gpu اولیه ی xbox که طراحی nvidia بود هم خیلی در زمان خودش شاخ بود اما چون قیمتش زیاد بود نمیتونست با ps2 رقابت کنه)
دوستان عزیز،
تا حد امکان از ارائه نظرات شخصیتون درباره محصولاتی که هنوز عرضه نشدند خود داری کنید چون باعث بی نظمی انجمن و اشتباه سایر کاربران میشه.
ممنون.
تعداد شیدر هم نمیشه گفت هیچ تاثیری نداره . در واقع مثل هسته های cpu میمونه فرض کن nvidia کارتهاش هسته های کمتری داره ولی هر هسته در فرکانس بیشتری فعالیت میکنه اما ati کارتهاش هسته های زیادی داره که هر کدوم توی فرکانس پایین تری کار میکنه (همون shader clocl)
ولی با تمام این تفاسیر من نفهمیدم چه جوری gpu clocl کارتهای ati از nvidia بیشتره ؟؟؟؟ اگر shader همون هسته هست ؟!!!!! آخه مگه میشه ! من دوچار دوگانگی گرافیکی شدم الان !!!!!
صحبت های شما خیلی علمی نیست دوست عزیز :46:
اگه به ساختار کلی GPU های NVIDIA دقت کنید، کل GPU (از دید Multiprocessor) داره با یک فرکانس خاص کار می کنه (Core Clock) و عملات هایی مثل Decode کردن Instruction ها یا تهیه Instruction Set ها هم با همین فرکانس انجام میشه.
زمانی که بیشتر به داخل GPU نگاه کنید می بینید که هر Stream Processor داره با فرکانس متفاوتی نسبت به هسته (که معمولا با یک ضریب وابسته به فرکانس هسته است) کار می کنه که به این فرکانس Shader Clock گفته میشه. به طور خلاصه میشه گفت تغذیه هسته ها با فرکانس متفاوتی نسبت به پردازش اونها درون Stream Processor ها صورت می گیره.
در ATI این قضیه به کل فرق می کنه و کل هسته و Stream Processor ها با یک فرکانس کار می کنند. هیچ کدوم رو نمیشه برتری دونست، چون هسته های ATI و NVIDIA از نظر معماری Pipelining و ... کاملا با هم تفاوت دارند.
این که NVIDIA معمولا همیشه Stream Processor های کمتری نسبت به ATI داشته، فقط به دلیل این نبوده که فرکانس کاری Stream Processor هاش بیشتر از ATI بوده ... در واقع ساختار Stream Processor های دو کمپانی تا حد بسیار زیادی با هم متفاوت هست و نمیشه اینطور نتیجه گیری کرد که یکی تعداد هسته های بیشتری با فرکانس پایین تری داره و یکی هسته های کمتر و فرکانس بالاتر ...
mehrdad_ati
13-12-2009, 21:24
خوب من الان چی گفتم پس !
منم همینو دارم میگم فقط میگم نمیشه خیلی هم بگی که تعداد شیدر ها هیچ تفاوتی ایجاد نمیکنه حتی اگر معماری زمین تا آسمون با هم متفاوت باشه !
خوب من الان چی گفتم پس !
نه دوست من، صحبت شما با مطالبی که من بهش اشاره کردم تفاوت داره ... پیشنهاد می کنم پست قبلی من رو دوباره با دقت بیشتری بخونید.
منم همینو دارم میگم فقط میگم نمیشه خیلی هم بگی که تعداد شیدر ها هیچ تفاوتی ایجاد نمیکنه حتی اگر معماری زمین تا آسمون با هم متفاوت باشه ! فکر نمی کنم کسی گفته باشه تعداد Shader ها هیچ تفاوتی ایجاد نمی کنه به دلیل تفاوت زمین تا آسمون معماری ..
چیزی که من بهش اشاره کردم (و در پست قبلی هم هست، اگه خونده باشید!) اینه که Stream Processor های ATI با Stream Processor های NVIDIA تفاوت دارند، برای همین شما نمی تونید از روی عددی که به عنوان تعداد Stream Processor در Specification محصولات منتشر میشه نتیجه گیری خاصی برای مقایسه دو محصول از دو کمپانی انجام بدید.
کاملا مشخصه تعداد Shader ها تفاوت در کارایی داره ... همونطور که دو برابر بودن Shader ها در Radeon HD 5870 با Radeon HD 5770 باعث تفاوت محسوسی در کارایی شده. ولی نمیشه نتیجه گیری کرد تعداد Shader های بیشتر ذکر شده در مشخصات Radeon HD 5870 نسبت به Geforce GTX 380 (یا هر اسمی!) قراره کوچکترین نقشی رو در تفاوت کارایی دو محصول ایجاد کنه. امیدوارم متوجه منظور من شده باشید.
mehrdad_ati
13-12-2009, 22:12
من کی ادعا کردم که تعداد بیشتر شیدر ها در کارتهای ati ممکنه باعث تفاوت در کاراییش با fermi بشه ؟ اصلا کسی حرفی اط فرمی زد ؟ من الان 3 تا پست زدم تا بگم کل معماری shader های دو شرکت با هم متفاوته بعد شما یک پست دادی حرفهای خودم رو تکرار کردی ولی بر خلاف خودم !
من کی ادعا کردم که تعداد بیشتر شیدر ها در کارتهای ati ممکنه باعث تفاوت در کاراییش با fermi بشه ؟ اصلا کسی حرفی اط فرمی زد ؟ من الان 3 تا پست زدم تا بگم کل معماری shader های دو شرکت با هم متفاوته بعد شما یک پست دادی حرفهای خودم رو تکرار کردی ولی بر خلاف خودم !
دوست من مثل اینکه شما اصلا پست های من رو نمی خونید! :46: من بر خلاف شما چیزی نگفتم :31:... به همین دلیل بود که پیشنهاد دادم پست قبلی من رو دوباره بخونید! مثالی هم که در پایان زدم هیچ ارتباطی به صحبت های شما نداشت که فکر می کنم کاملا واضح بود.
دقیقا همونطور که خودتون هم گفتید من صحبت های عمومی شما رو که خیلی هم دقیق نبود به طور علمی تر و دقیق تر توضیح دادم تا احیانا در ذهن افرادی که تاپیک رو دنبال می کنند تصور اشتباهی رخ نده ... ولی مثل اینکه اولین تصور اشتباه در ذهن خود شما رخ داد! :31:
به هر حال امیدوارم باز هم متوجه منظور من شده باشید. :46:
mehrdad_ati
13-12-2009, 22:58
من کاملا متوجه منظور شما شدم و صحبت خودمم همین بود !
یه چیز بزارم تاپیک یه حال اساسی بکنه:
البته درستیه این اطلاعات رو نمیدونم دقیقاً ولی دقت کنید با فرض درست بودن، 5970 یه کارت dual-GPU هست.
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
برای مشاهده محتوا ، لطفا وارد شوید یا ثبت نام کنید
Kianoosh
14-12-2009, 01:43
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
NVIDIA GeForce GTX 380
CUDA cores 512
core clock 730MHz
shader clock 1600MHz
Memory 1100MHz 2GB
TDP(watts) 225w
NVIDIA GeForce GTX 360
CUDA cores 480 (strange number, why not 484?)
core clock 650MHz
shader clock 1400MHz
Memory 1000MHz 1.8GB
TDP(watts) 195w
البته منم تایید نمی کنم!:دی فعلا بازار شایعات و پرویو ها داغه...
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
NVIDIA GeForce GTX 380
CUDA cores 512
core clock 730MHz
shader clock 1600MHz
Memory 1100MHz 2GB
TDP(watts) 225w
NVIDIA GeForce GTX 360
CUDA cores 480 (strange number, why not 484?)
core clock 650MHz
shader clock 1400MHz
Memory 1000MHz 1.8GB
TDP(watts) 195w
البته منم تایید نمی کنم!:دی فعلا بازار شایعات و پرویو ها داغه...
بله البته منم تأیید نشده میگم که، ATI (یا بهتر بگم AMD که یکمی هم رو اینتل مایه بزاریم) به خاک و خون کشیده شده.
راستی لینک اینو نزاشتی ببنیم چی گفته.
البته درستیه این اطلاعات رو نمیدونم دقیقاً ولی دقت کنید با فرض درست بودن، 5970 یه کارت dual-GPU هست.
منظورتون از dual GPU بودن 5970 چیه؟ یعنی از بنچمارک غیر واقعی که گذاشتید، میشه فهمید 5970 Dual GPU ست؟ خوب این که قبلا گفته شده بود. اگه منظورتون GTX 380 باشه که فکر نکنم Dual باشه.
Kianoosh
14-12-2009, 06:08
بله البته منم تأیید نشده میگم که، ATI (یا بهتر بگم AMD که یکمی هم رو اینتل مایه بزاریم) به خاک و خون کشیده شده.
راستی لینک اینو نزاشتی ببنیم چی گفته.
درسته حداقل الان کاملا مطمئن شدیم که بازار رقابتی هست این به نفع کاربر هست اما در مورد بنچمارکها مشخصا غیر واقعی هستند حداقل اونایی که خودم گذاشتم رو کاملا مطمئنم!:دی اما با توجه به سری های قبلی و پیشبینی های سایتهایی که معمولا نزدیک به واقعیت بودن میشه نتیجه گرفت به هیچ عنوان بازار تک قطبی نداریم دیگه افزایش قیمت کاذب برای عرضه کم نداریم که هیچ کاهش قیمت هم داریم و مدل GTX360 احتمالا با توجه به تمام شرایط انتخاب بهتری نسبت به 5870 خواهد بود یا رقابت نزدیک البته اینا حدس هست باید عرضه بشه تست دقیق مصرف دما و از همه مهمتر قیمت!
اینتل هم که لارابی رو فعلا کنسل کرده گویا!؟:دی
DO NOT BELIEVE THEM, THEY ARE PROBABLY FAKE! ([ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ])
منظورتون از dual GPU بودن 5970 چیه؟ یعنی از بنچمارک غیر واقعی که گذاشتید، میشه فهمید 5970 Dual GPU ست؟ خوب این که قبلا گفته شده بود. اگه منظورتون GTX 380 باشه که فکر نکنم Dual باشه.
فکر کنم با فرض درست بودن بنچمارکها می خواست مقایسه کارایی GTX360 و Hd5970 رو بگه که البته تمام کسانی که کارشون پیشگویی! و حدس و گمان هست تو سایتهای مختلف نظرشون این بوده که 360 کاملا 5870 رو کنار میزنه.و البته اون مورد هم باز شایعات اینطور میگه که کد نیم Gemini نسخه Dual-GPU از Fermi هست!:دی
..........
حالا مواردی که خیلی جاها مطرح شده و بد نیست اینجا هم در موردش بحث کنیم اینه که با توجه به مدتی که تا عرضه این سری مونده انویدیا دو مدل (GTX360-GTX380) رو تو چه رنج قیمتی عرضه می کنه که بدون در نظر گرفتن کارایی قابل رقابت با 5870 و 5970 باشه و اختلاف با های اندهای سری 200 (GTX295-GTX285) هم حفظ بشه یعنی چه رنج قیمتی رو مناسب میدونید برای این دو مدل؟(قیمت جهانی رو مثلا 450-600 دلار پیشبینی کردن حدودا!البته ویکی پدیا ([ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ] orce_300_Series)ارزونتر میده!:دی) و کاهش قیمت سری 200 چطور؟
و اگه قیمت معقول باشه قطعا ای ام دی/ ای تی آی رو مجبور می کنه که قیمت سری 5800 رو کاهش بده(به نفع همه!) و البته بحث عرضه 6800 در Q4/2010!
بعدی دما و مصرف این سری هست که باز نظر اینه که حتی اگه 360 کمی از 5870 بهتر باشه چون دما و مصرفش خیلی بیشتر هست (؟)کافیه کمی گرونتر هم باشه که کاملا ارزش خرید بره سمت 5870!
همچنین پشتیبانی و درایور هم که همیشه برتری مشخص انویدیا بوده ...
بازم میگم همش حدس و گمان هست....خب نظر شما چیه؟:13:
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
NVIDIA GeForce GTX 380
CUDA cores 512
core clock 730MHz
shader clock 1600MHz
Memory 1100MHz 2GB
TDP(watts) 225w
NVIDIA GeForce GTX 360
CUDA cores 480 (strange number, why not 484?)
core clock 650MHz
shader clock 1400MHz
Memory 1000MHz 1.8GB
TDP(watts) 195w
البته منم تایید نمی کنم!:دی فعلا بازار شایعات و پرویو ها داغه...
هیچ منبع معتبری نداره 100 درصد Fake ....
درسته حداقل الان کاملا مطمئن شدیم که بازار رقابتی هست این به نفع کاربر هست اما در مورد بنچمارکها مشخصا غیر واقعی هستند حداقل اونایی که خودم گذاشتم رو کاملا مطمئنم!:دی اما با توجه به سری های قبلی و پیشبینی های سایتهایی که معمولا نزدیک به واقعیت بودن میشه نتیجه گرفت به هیچ عنوان بازار تک قطبی نداریم دیگه افزایش قیمت کاذب برای عرضه کم نداریم که هیچ کاهش قیمت هم داریم و مدل GTX360 احتمالا با توجه به تمام شرایط انتخاب بهتری نسبت به 5870 خواهد بود یا رقابت نزدیک البته اینا حدس هست باید عرضه بشه تست دقیق مصرف دما و از همه مهمتر قیمت!
اینتل هم که لارابی رو فعلا کنسل کرده گویا!؟:دی
DO NOT BELIEVE THEM, THEY ARE PROBABLY FAKE! ([ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ])
فکر کنم با فرض درست بودن بنچمارکها می خواست مقایسه کارایی GTX360 و Hd5970 رو بگه که البته تمام کسانی که کارشون پیشگویی! و حدس و گمان هست تو سایتهای مختلف نظرشون این بوده که 360 کاملا 5870 رو کنار میزنه.و البته اون مورد هم باز شایعات اینطور میگه که کد نیم Gemini نسخه Dual-GPU از Fermi هست!:دی
..........
حالا مواردی که خیلی جاها مطرح شده و بد نیست اینجا هم در موردش بحث کنیم اینه که با توجه به مدتی که تا عرضه این سری مونده انویدیا دو مدل (GTX360-GTX380) رو تو چه رنج قیمتی عرضه می کنه که بدون در نظر گرفتن کارایی قابل رقابت با 5870 و 5970 باشه و اختلاف با های اندهای سری 200 (GTX295-GTX285) هم حفظ بشه یعنی چه رنج قیمتی رو مناسب میدونید برای این دو مدل؟(قیمت جهانی رو مثلا 450-600 دلار پیشبینی کردن حدودا!البته ویکی پدیا ([ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ] Fwiki%2FComparison_of_Nvidia_graphics_processing_u nits%23GeForce_300_Series)ارزونتر میده!:دی) و کاهش قیمت سری 200 چطور؟
و اگه قیمت معقول باشه قطعا ای ام دی/ ای تی آی رو مجبور می کنه که قیمت سری 5800 رو کاهش بده(به نفع همه!) و البته بحث عرضه 6800 در Q4/2010!
بعدی دما و مصرف این سری هست که باز نظر اینه که حتی اگه 360 کمی از 5870 بهتر باشه چون دما و مصرفش خیلی بیشتر هست (؟)کافیه کمی گرونتر هم باشه که کاملا ارزش خرید بره سمت 5870!
همچنین پشتیبانی و درایور هم که همیشه برتری مشخص انویدیا بوده ...
بازم میگم همش حدس و گمان هست....خب نظر شما چیه؟:13:
بله منم قبول دارم احتمالاً Fake باشه ولی خوب این دو تا بنچمارکی که من و شما گذاشتیم بهم نزدیکن اگه دقت کنی، اینجوری دو حالت وجود داره یا یکی رو از اون یکی کپی کردن یا نه واقعاً درسته. حالا فعلاً صبر میکنیم ببنیم چی میشه.
mehrdad_ati
14-12-2009, 15:19
مطمعن باشید fermi حتی نزدیک به این رکورد ها هم نمیتونه بشه در رویاییی ترین پیش بینی ها !
حدس من (که تا حدود زیادی میتونه واقعی باشه)
کارایی gtx380 : معادل 5870 و (احتمالا) تا حدودی قوی تر با قیمت حدودا 70 تا 100 دلار بیشتر (اگر مشخصاتی که گذاشیتد ازش درست باشه)
کارت gtx260 : بین 5870 و 5850 و با قیمتی معادل 5850
و در مرحله ی اول nvidia کارتی رو برای رقابت با 5970 نخواهد داشت .
منتظر انتقاد های کوبنده ی fanboy های nvidia هستم .البته 2 ماه دیگه صبر کنیم میفهمیم بنچهای fake شما درسته
این رو داشته باشید تا به نحوه ی درست کردن این بنچمارکها پی ببرید (طرف حتی بلد نبوده با فتوشاپ کار کنه) بیچاره تامز !
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
مطمعن باشید fermi حتی نزدیک به این رکورد ها هم نمیتونه بشه در رویاییی ترین پیش بینی ها !
حدس من (که تا حدود زیادی میتونه واقعی باشه)
کارایی gtx380 : معادل 5870 و (احتمالا) تا حدودی قوی تر با قیمت حدودا 70 تا 100 دلار بیشتر (اگر مشخصاتی که گذاشیتد ازش درست باشه)
کارت gtx260 : بین 5870 و 5850 و با قیمتی معادل 5850
و در مرحله ی اول nvidia کارتی رو برای رقابت با 5970 نخواهد داشت .
منتظر انتقاد های کوبنده ی fanboy های nvidia هستم .البته 2 ماه دیگه صبر کنیم میفهمیم بنچهای fake شما درسته
این رو داشته باشید تا به نحوه ی درست کردن این بنچمارکها پی ببرید (طرف حتی بلد نبوده با فتوشاپ کار کنه) بیچاره تامز !
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
خوبی، اینا گیریم که Fake هم باشن آخه Fake دیگه فوتوشاپ میخواد چیکار خوب چارتها رو Fake درست میکنه دیگه، اینم از اون دلایل بود آوردیاٰ، در مورد قدرت کارتهای گرافیکم چند هفته صبر میکنیم و میبینیم.
Kianoosh
14-12-2009, 20:04
هیچ منبع معتبری نداره 100 درصد Fake ....
WoW بابا ایول از کجا فهمیدی!؟:27:
مطمعن باشید fermi حتی نزدیک به این رکورد ها هم نمیتونه بشه در رویاییی ترین پیش بینی ها !
حدس من (که تا حدود زیادی میتونه واقعی باشه)
کارایی gtx380 : معادل 5870 و (احتمالا) تا حدودی قوی تر با قیمت حدودا 70 تا 100 دلار بیشتر (اگر مشخصاتی که گذاشیتد ازش درست باشه)
کارت gtx260 : بین 5870 و 5850 و با قیمتی معادل 5850
و در مرحله ی اول nvidia کارتی رو برای رقابت با 5970 نخواهد داشت .
منتظر انتقاد های کوبنده ی fanboy های nvidia هستم .البته 2 ماه دیگه صبر کنیم میفهمیم بنچهای fake شما درسته
این رو داشته باشید تا به نحوه ی درست کردن این بنچمارکها پی ببرید (طرف حتی بلد نبوده با فتوشاپ کار کنه) بیچاره تامز !
با حدس فن بوی ها (چه ای تی آی چه انویدیا)کاری نداریم اکثرا GTX360 رو رقیب 5870 میدونن مثل GTX260 که رقیب 4870 بود یا 9600GT که 3870 بود و ...
و در مرحله ی اول nvidia کارتی رو برای رقابت با 5970 نخواهد داشت .
در واقع کارتی که قراره با 5970 رقابت کنه GTX390 یا GTX 380 هست!حالا این یا رقابته یا له کردن برای این باید صبر کرد چیزی که به نفع کاربر هست رقابته و چیزی که برای فن بویها مهمه له کردن و برتری قاطع هست که اون وقت قیمتهای بسیار بالاتری هم داره!
در ضمن توی متن لینک و اینکه خودم هم گفتم کاملا مشخصا هست تمام بنچمارکهای فعلی بر پایه حدس گمان یا طرفداری هستند و همگی غیر واقعی نیازی نیست IQ بالای 150 داشته باشیم تا اینو بفهمیم...اینا برای شروع بحث و گفت و گو هست
خوبی، اینا گیریم که Fake هم باشن آخه Fake دیگه فوتوشاپ میخواد چیکار خوب چارتها رو Fake درست میکنه دیگه، اینم از اون دلایل بود آوردیاٰ، در مورد قدرت کارتهای گرافیکم چند هفته صبر میکنیم و میبینیم.
خوب شد من گفتم خودم اینا غیر واقعی هستند وگرنه فن بوی های ای تی آی حسابی جنجال می کردن!:دی
mf.designing
19-12-2009, 00:21
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
نقاشی Liquid هفت ساله از تهران ! :دی
اما منم موافقم که سری 300 (با نوجه به دقت و تاخیر NVIDIA) کاملا از ATI های سری 5000 برتر خواهند بود :دی (مثله همیشه !)
راستی کسی میدونه که آیا زمان دقیق برای عرضه مشخص شده ؟! اولین محصولاتی که میان کدوم مدلها هستن ؟!
Kianoosh
19-12-2009, 02:32
راستی کسی میدونه که آیا زمان دقیق برای عرضه مشخص شده ؟! اولین محصولاتی که میان کدوم مدلها هستن ؟!
دقیق که نه اواخر q1-2010 احتمال زیاد GTX360-GTX380
mehrdad_ati
19-12-2009, 06:22
خداییش تا اون موقع ati هم میتونه یک سری جدید طراحی کنه (شوخی بود!)
این آخرین حدس و گمان های مربوط به 2010 هست که از inc گرفتم
برای مشاهده محتوا ، لطفا وارد شوید یا ثبت نام کنید
amd stays on top ? or nvidia recovers ?
Kianoosh
19-12-2009, 06:41
خداییش تا اون موقع ati هم میتونه یک سری جدید طراحی کنه (شوخی بود!)
این آخرین حدس و گمان های مربوط به 2010 هست که از inc گرفتم
اینطور که صحبتش بود گویا ATI سری 6000 رو Q4-2010 قصد داره عرضه کنه...
millad1388
19-12-2009, 08:00
اینطور که صحبتش بود گویا ATI سری 6000 رو Q4-2010 قصد داره عرضه کنه...
من که شنیدم که ati حتی مدل کارت های سری 6000 رو به سازندگان بورد کارت!!!داده!!!!!!!!!!!!
ati در q2-2010 یعنی فقط 6 ماه دیگه!!! کارت های سری 6000 را به دست مصرف کننده میرساند!!!
Kianoosh
19-12-2009, 11:38
من که شنیدم که ati حتی مدل کارت های سری 6000 رو به سازندگان بورد کارت!!!داده!!!!!!!!!!!!
ati در q2-2010 یعنی فقط 6 ماه دیگه!!! کارت های سری 6000 را به دست مصرف کننده میرساند!!!
شما یکم صرفه جویی کن علامت تعجبهات تموم میشه ها!:دی
گفتم که این موضوع رو من خیلی وقت پیش(زمان عرضه 5800) خوندم و دقیق مشخص نبود کی عرضه میشه اگه الان رسمی شده که q2-2010 که هیچی فقط لینکشم بده...
فروش ATI هم خیلی خوب نبوده با اینکه بازار DX11 رو تو دست داره ولی مثل اینکه همش حدود 800 هزارتا از این کارتها فروخته که اصلاً جالب نیست. یکی از دلایلی هم که Nvidia عجلهای نداره به خاطر همینه فکر کنم.
Kianoosh
19-12-2009, 15:21
فروش ATI هم خیلی خوب نبوده با اینکه بازار DX11 رو تو دست داره ولی مثل اینکه همش حدود 800 هزارتا از این کارتها فروخته که اصلاً جالب نیست. یکی از دلایلی هم که Nvidia عجلهای نداره به خاطر همینه فکر کنم.
درسته انویدیا سعی داره ای تی آی رو مجبور کنه که سری 6000 رو خیلی سریع عرضه کنه تا در صورت شکست 5000 تو برخی مدلها امکان رقابت باشه...
البته اخیرا یه اظهار نظر جالب هم کرده:
Nvidia says AMD's DX11 lead is insignificant ([ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ])
...
We don't have, hence it doesn't matter
درسته انویدیا سعی داره ای تی آی رو مجبور کنه که سری 6000 رو خیلی سریع عرضه کنه تا در صورت شکست 5000 تو برخی مدلها امکان رقابت باشه...
البته اخیرا یه اظهار نظر جالب هم کرده:
Nvidia says AMD's DX11 lead is insignificant ([ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ] Fcontent%2Fview%2F16904%2F65%2F)
...
We don't have, hence it doesn't matter
آره منم از روی همین گفتم، راست گفته بدبخت آخه 800 هزارتا چیه. البته Ati بعید میدونم زودتر از نیمه دوم سال آینده سری جدید بده چون اینطوری ضرر در ضرر میشه، هزینه طراحی و پیادهسازی یه معماری جدید خیلی زیاده و البته نباید فراموشم کرد باید یه چیزی جدید و یه تکنولوژی جدیدی اصلاً بتونه تولید که بیرون بده از آسمون که معماری جدید نمیاد.
فروش ATI هم خیلی خوب نبوده با اینکه بازار DX11 رو تو دست داره ولی مثل اینکه همش حدود 800 هزارتا از این کارتها فروخته که اصلاً جالب نیست. یکی از دلایلی هم که Nvidia عجلهای نداره به خاطر همینه فکر کنم.
دلیلش خود ATI هست ! چون به اندازه درخواست این کارت ها رو وارد بازار نمیکنه الان هم که سری 5800 گرون تر هم شدن !
ATI isn't shipping nearly enough DirectX 11 GPUs to meet demand.
5850 $299
5870 $399
mehrdad_ati
19-12-2009, 21:59
دلیلش tsmc هست که نمیتونه اونقدر ویفر رو برای ati تامین کنه و در واقع فروش ati کم نیست بلکه تولیدش کمه !
و از اونجایی که ویفر های nvidia رو هم tsmc میسازه پس این مشکل برای nvidia هم قطعا پیش میاد !
دلیلش tsmc هست که نمیتونه اونقدر ویفر رو برای ati تامین کنه و در واقع فروش ati کم نیست بلکه تولیدش کمه !
و از اونجایی که ویفر های nvidia رو هم tsmc میسازه پس این مشکل برای nvidia هم قطعا پیش میاد !
درسته ... شاید مهمترین دلیلی که NVIDIA هم عجله ای در عرضه سری جدید محصولاتش نداره همین باشه. به هر حال وقتی محصولی از ATI برای فروش در بازار نباشه NVIDIA هم چیزی از بازار رو از دست نمی ده.
mehrdad_ati
20-12-2009, 17:28
اینطور ها هم که میگید نیست ! وگرنه 5850 تا ایران و به دست من نمیرسید ! درسته که عرضه از تقاضا کمتره ولی اون چنان هم عرضه کم نیست .
اینطور ها هم که میگید نیست ! وگرنه 5850 تا ایران و به دست من نمیرسید ! درسته که عرضه از تقاضا کمتره ولی اون چنان هم عرضه کم نیست .
محصولات به بازار ما رسیده چون در همون عرضه سری اول وارد کننده ها محصولات رو خریداری کردند.
شما اگه همین الان هم به فروشگاه های معتبر اروپایی سر بزنید می بینید که چیز قابل توجهی در Stock ندارند... و چندین ماهی میشه که وضعیت همینه. البته در یکی دو هفته اخیر وضعیت کمی بهتر شده و مقداری HD 5850 در بازار پخش شده.
mehrdad_ati
20-12-2009, 20:17
البته همه ی این بحث ها موقعی میتونه اثبات بشه که وضعیت بازار در کوارتر آخر امسال مشخص بشه .
البته اوضاع الان بهتره شده و دسترسی به کارتها هم تو بازار نسبت به قبل بهتر شده ولی مشکل TSMC احتمالاً در کوارتر اول سال دیگه کامل حل میشه، طبق اخبار (که اتفاقاً هم زمان با عرضه سری جدید GT300 هست و این مسئله هیچ ربطی هم به Nvidia نداشته :21:).
البته من خبر قبلی رو هم تصحیح کنم که AMD/ATI فروش کل 800 هزار واحد رو برای سری 5700 و 5800، 5900 داشته که از این میزان 300 هزارتاش مربوط به سری 5800 و 5900 هست.
برای مشاهده محتوا ، لطفا وارد شوید یا ثبت نام کنید
mehrdad_ati
20-12-2009, 21:30
شایدم دست nvidia و tsmc توی یک کاسه بوده ! کسی چه میدونه !
Kianoosh
21-12-2009, 07:12
بنچ جدید:دی
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
از ویژگی های این تست اختلاف 5 فریمی 360 با 380 هست!!و کاهش فریم هر دو و کارایی وحشتناک لارابی و همچنین نبودن 295 ...
با قبلیه مقایسه کنید متوجه میشید!
با تشکر از فتوشاپ :دی
شایدم دست nvidia و tsmc توی یک کاسه بوده ! کسی چه میدونه !
توهم توطئه ([ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]تئوری_توطئه)!
mehrdad_ati
21-12-2009, 21:07
من به مزاح گفتمو گرنه روابط amd و tsmc بسیار محکمه و در واقع tsmc خیلی سریع مجبور شد خط تولید 40 نانومترش رو روی کار بیاره و این مشکلات هم از همین ضعف tsmc بلند میشه .
ولی تئوری توطعه رو خوب اومدی !!! توطعه پنداری مضمن ! (از این مار سبز خوش خط و خال بعید نیست :31:)
بنچمارکه رو دیدم ! لارابی مال این حرف ها نیست ! من کامل بردمش زیر ذره بین اصلا نمیتونه با کارتهای high end شاخ تو شاخ بشه . gtx380 هم میشه تقریبا به قطع گفت کمی از 5870 سریعتره (اگر اطلاعات موجود درست باشه)
Larrabee که اصلاً برای سال دیگه کنسل شده.
mehrdad_ati
23-12-2009, 22:01
اطلاعات جدیدی ازز fermi به بیرون درز پیدا کرده !
اول اینکه به دلیل گرمای فوقالعاده ایجاد شده در نسخه های آزماشی nvidia مجبود به کاهش تعداد استریم های این کارت از 512 به 448 شده !
همچنین طبق اطلاعات منتشر شده فرمی قرار0 بالای 200 وات مصرف داشته باشه که فکر کنم هر کاربری مجبوره برای خریدش منبع تغذیشم تعویض کنه !
و همینطور با توجه به گرمای تولید شده توسط این چیپ فقط با یک خنک کننده ی آبی میشه اون رو خنک کرد .
و رد آخر اینکه nvidia اعلام کرده فرمی در تاریخ باقی میمونه .
برای مشاهده محتوا ، لطفا وارد شوید یا ثبت نام کنید
البته یک جا چیز خیلی جالبی نوشته شده بود (چیزی که امکانش کم هم ینست)
Fermi = R600
this whole thing about Fermi remember me the R600 launch !
dont remember ?
ATi pushed back the thing about 4 times, while saying that it will beat G80 ! The final product was a BIG , HEATING, POWER HUNGRY chip, that didnt perform well....
Looks like nVidia is facing the exact same situation ....
Fermi : BIG, POWER HUNGRY chip , that will not perform as expected !!!
millad1388
24-12-2009, 08:03
آدرسش فیلتر بود...
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
اینو میشه فرستاد برای برنامه خردسالان تی وی :دی!این عکس نشون میده اظهار نظر ها چقدر تخصصی!و فوق تخصصی شده!!!:31::31::31:خواهشا اون شخصی که این عکس رو گزاشته رو باید به عنوان بمب خنده معرفی کرد:31::31::31: و نشان دهنده خلاقیت ایشون هست و هر شخصی برای خودش یه 4 تا خط میکشه مثل قضیه آمار ها شده !!!
بنچ جدید:دی[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
از ویژگی های این تست اختلاف 5 فریمی 360 با 380 هست!!و کاهش فریم هر دو و کارایی وحشتناک لارابی و همچنین نبودن 295 ...
با قبلیه مقایسه کنید متوجه میشید!
با تشکر از فتوشاپ :دی
توهم توطئه ([ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]تئوری_توطئه)!مثل اینکه اینتل هم راه افتاده و تو این هرج و مرج داره چه خالی بندی هایی روتو مغز مردم دنیا میچپونه!!!
اینتل=خالی بند و صهیونیست و زورگو و انحصار طلب و .....که لقب های قدیمی این شرکت هستش
اطلاعات جدیدی ازز fermi به بیرون درز پیدا کرده !
اول اینکه به دلیل گرمای فوقالعاده ایجاد شده در نسخه های آزماشی nvidia مجبود به کاهش تعداد استریم های این کارت از 512 به 448 شده !
همچنین طبق اطلاعات منتشر شده فرمی قرار0 بالای 200 وات مصرف داشته باشه که فکر کنم هر کاربری مجبوره برای خریدش منبع تغذیشم تعویض کنه !
و همینطور با توجه به گرمای تولید شده توسط این چیپ فقط با یک خنک کننده ی آبی میشه اون رو خنک کرد .
و رد آخر اینکه nvidia اعلام کرده فرمی در تاریخ باقی میمونه .
برای مشاهده محتوا ، لطفا وارد شوید یا ثبت نام کنید
البته یک جا چیز خیلی جالبی نوشته شده بود (چیزی که امکانش کم هم ینست)
Fermi = R600
this whole thing about Fermi remember me the R600 launch !
dont remember ?
ATi pushed back the thing about 4 times, while saying that it will beat G80 ! The final product was a BIG , HEATING, POWER HUNGRY chip, that didnt perform well....
Looks like nVidia is facing the exact same situation ....
Fermi : BIG, POWER HUNGRY chip , that will not perform as expected !!!
تعجبی نداره اگه فرکانسش هم نسبت به 285 کاهش داشته باشه و اصلا اگه کاهش نداشته باشه باعث تعجبه!!!و اگه مشخصات درست باشه حتی با تکنولوژی 40nm هم رکورد بزرگترین مساحت ساخت چیپ و بیشترین مصرف و بیشترین قیمت و خیلی از رکورد های منفی دیگه رو به خودش اختصاصمیده
و تاریخ دوباره تکرار میشود!!!
mehrdad_ati
24-12-2009, 19:14
بابا انصاف هم خوب چیزیه ! درسته که nvidia لفتش داده ولی شما دارید در مورد یکی از بزرگترین شرکت های گرتفیکی تاریخ صحبت میکنید !
پس لا اقل تا اومدن فرمی صبر کنید بعد میتونید به درستی اظهار نظر کنید .
امروز در خبرها اومده بود که کارتهای Highend سری GT300 از AA 32x پشتیبانی میکنن، که جالبه.
امروز در خبرها اومده بود که کارتهای Highend سری GT300 از AA 32x پشتیبانی میکنن، که جالبه.
کارت های سری 5000 حداکثر از چه AA ای پشتیبانی می کنند؟
هر چند چندان اهمیتی هم نداره. چون بازی ها اکثرا حداکثر تا 16X تا امروز بهره برده اند.
mehrdad_ati
24-12-2009, 22:41
در حال cf حد اکثر تا 24x .
البته همونطور که اشاره شد تاثیری نداره . بالای 8x دیگه فقز افت کارایی هست .
alborz_k
25-12-2009, 21:59
این NVIDIA چه غلطی میکنه..؟ چرا خبری بیرون نمیده..!
به طور کاملأ خلاصه می شه گفت که انویدیا لقمه ی بزرگتر از دهنش برداشته و حالا توش مونده!! من واقعأ نمی دونم که اگه مثلأ کارتش 3 برابر 5870 هم قدرت داشته باشه ، چه فایده ای داره؟! وقتی که حتمأ قیمت هم بیش از 3 برابر خواهد بود!!
فقط می تونم بگم که انویدیا راه اشتباهی رو داره می ره!!
واقعیت اینه که انویدیا می خواد نشون بده هنوز بهترینه ، ولی کار هایی که می کنه ، باعث شدن که دیگه متر کسی اون رو بهترین بدونه ، حتی اگه قوی ترین کارت دنیا رو تولید کنه!
واقعیت اینه که انویدیا می خواد نشون بده هنوز بهترینه ، ولی کار هایی که می کنه ، باعث شدن که دیگه متر کسی اون رو بهترین بدونه ، حتی اگه قوی ترین کارت دنیا رو تولید کنه!
مثلا چه کارهایی؟
alborz_k
26-12-2009, 01:22
مثلا چه کارهایی؟
مثلأ همین که لقمه ی بزرگتر از دهنش برداره!! خب کارش قابل تقدیره که می خواد قوی ترین gpu جهان و حتی قوی ترین پردازشگر جهان رو بسازه ،ولی به چه قیمتی؟ از دست دادن کامل بازارش؟! کلأ این تعداد ترانزیستور ، این حرارت تولیدی ، این میزان مصرف ( کلاغه گفته در نمونه های اولیه حدود 300وات!!!!! بوده!!) بزرگترین سطح die و این همه هزینه طراحی، فقط برای اینه که کاری رو که مثلأ سال دیگه می تونست راحت انجام بده ، امسال انجام بده!!
mehrdad_ati
26-12-2009, 01:24
کلا سیاست nvidia همینه . از یک طراحی چند بار استفاده نمیکنه . بلکه همون بار اول با تمام قدرت ظاهر میشه . که خوب این روش هم بگیر نگیر داره ! حالا ببینیم این دفعه میگیره یا نه ! ؟
millad1388
26-12-2009, 08:09
کلا سیاست nvidia همینه . از یک طراحی چند بار استفاده نمیکنه . بلکه همون بار اول با تمام قدرت ظاهر میشه . که خوب این روش هم بگیر نگیر داره ! حالا ببینیم این دفعه میگیره یا نه ! ؟
بله nvidia به صورت جهشی!!! پیشرفت میکنه ولی ati به صورت پیوسته و مداوم!!!
به نظرم یا سری 300nvidia خیلی خوب در مییآد یا خیلی بد و حد وسط نداره!!!
اگه 448 سایه زن داشته باشه که معماریش هم تغییر نکنه (نسبت به سری200)!!! و با تکنولوژی 40 ننومتری باز هم نمیتونه فرکتانس ها رو ثابت نگهداره و در هر صورت مجبور به کاهش فرکانس سایه زن خواهد بود که باعث میشه در نهایت کارایی در حد 5870 داشته باشه البته با قیمت 50 درصد بیشتر و گرمای بیشتر و مصرف بیشتر
اگر هم معماری تازه ایی داشته باشه که در اوم gpu با cpu خلوط شده باشد!!!در اون صورت مساحت چیپ باز هم افزایش پیدا میکنه و اونوقت افتضاح ببار مییآد
اگر هم بخواهد دقیقا از به مااند ati سری 2000 تقلید کنه و معماری اش را استفاده بکنه!!! در اون صورت هم همون مشکلات ati گریبانگیرش میشه یعنی کارایی سطح پایین و تنها مضیتش میشه کاهش مساحت چیپ گرافیک و مصرف
و من رو با چه رنگی نوشتی که invis شد ؟
گیر نده من نمیتونم از بند حقیقت این چنین گستاخانه به فراغ برم حتی اگر، از علیه من باشد. :31:
--------------------------------
AMD هم نسل بعدی کارتها رو قرار شده سال 2011 عرضه کنه و برنامههایی هم داره براش، خودش فکر کنم میخواد دیگه فب کنه در این صورت اگر این GT300 خوب از آب در بیاد سال دیگه سال Nvidiaست.
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
برای مشاهده محتوا ، لطفا وارد شوید یا ثبت نام کنید
مقادیری از پست های اسپم این تاپیک حذف شدند... دوستان لطفا بیشتر رعایت کنید! [ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
(از قدیم گفتند: کم اسپم بدید، همیشه بدید!)
sepinood1
26-12-2009, 22:43
stream جان ممنون که اسپم ها رو پاک می کنی :46:
جناب آقای Guts این عکسی که شما گذاشتی ربط زیادی به گرافیک داشت !؟
بعدش بهتر نیست عوض اظهار نظر و حدس اینجا بیشتر اخبار و مستندات ارایه بشه و به دور از هر گونه تعصب به فکر اطلاع رسونی صحیح باشیم و بچه های طرفدار ATI نیان و سم پاشی نکنن و نخوان موضوع رو به چالش بکشن ...!؟
فکر می کنم یه تاپیک جداگونه واسه بحث و تبادل نظر و جبهه گیری داشته باشیم بدک نباشه آخه سر در تاپیک کنده شده NVIDIA Geforce 300 Series ولی بعدش میای می بینی کلی مهمون ناخونده داره این تاپیک و بحثهای نا مربوط اظهار عقیده ی شخصی و غیر علمی ...!
این هم از اسپم ما ...! :10:
[
mehrdad_ati
27-12-2009, 00:11
میدونی چیه ! آخه هنوز nvidia هیچ مشخصات رسمی و کاملا تایید شده ای از این سری منتظر نکرده به خاطر همینم حدس و گمانهایی زده میشه در مورد این سری .
و با توجه به مشخصات تایید نشده میشه در مورد موفقیت یا عدم موفقین این سری در بازار اظهار نظر کرد . که خوب طبیعیه که اظهار نظرها متفاوت هستند . که در کل به دو سمت و سو میرند
fanboy های nvidia : فرمی میتونه nvidia رو به بازار برگردونه و سال 2010 به nvidia تعلق داره .
fanboy های ati : فرمی هم درست مثل r600 فقط اسما قویه ولی در عمل یک کارت داغ و پر مصرفه که کارایی لازم رو نداره !
حالا بیننده چه جوری میخواد از اینا نتیجه گیری کنه دیگه خدا آگاهه !
stream جان ممنون که اسپم ها رو پاک می کنی :46:
جناب آقای Guts این عکسی که شما گذاشتی ربط زیادی به گرافیک داشت !؟
بعدش بهتر نیست عوض اظهار نظر و حدس اینجا بیشتر اخبار و مستندات ارایه بشه و به دور از هر گونه تعصب به فکر اطلاع رسونی صحیح باشیم و بچه های طرفدار ATI نیان و سم پاشی نکنن و نخوان موضوع رو به چالش بکشن ...!؟
فکر می کنم یه تاپیک جداگونه واسه بحث و تبادل نظر و جبهه گیری داشته باشیم بدک نباشه آخه سر در تاپیک کنده شده NVIDIA Geforce 300 Series ولی بعدش میای می بینی کلی مهمون ناخونده داره این تاپیک و بحثهای نا مربوط اظهار عقیده ی شخصی و غیر علمی ...!
این هم از اسپم ما ...! :10:
[
ببین دوست عزیز من حس بحث کردن با شما رو دیگه ندارم. لینک گذاشتم مطالعه بکنید و الکی نظر ندین. در ضمن در عکس هم مشخصه فقط کمی دقت میخواد، 2011 و ردیف Enthusiast رو ببنید خط آخرش نوشته Next Generation ATI Graphics.
Lord_theOne
27-12-2009, 00:39
دوستان وارد حاشیه نشوید چون پستهاتون پاک می شود
من که می گم انویدیا کم اورده نمی دونه چکار کنه الکی وقت تلف می کنه
یا شایدم می خواهد ATI آخرین ضربه خودشو با 5970 که زد بعدا بیرون بیاره و بزنه توی دماغه ATI البته به نظر من ATI برگ برنده ای دارد که نمی خواهد حالا حالاها رو کند شاید هم 5990
سیاستهای خارجی شرکتها هست دیگه
اینها جاسوس دارند توی شرکتهای همدیگر
خبر مربوط به امروز 27 دسامبر.
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
Nvidia خوشحال از عملکرد کارتهای گرافیکی GF100.
فرقی نمیکنه چی صداش کنی GF100، Fermi یا سری GT300؛ Nvidia برای اولین بار سری کارتگرافیکهای بر پایه معماری Fermi رو سه ماه قبل معرفی کرد. از اون زمان محصولی از این سری هنوز عرضه نشده [بجز اون 310 قلابی] با این حال تعجب برانگیزه که پیشبینیهای زیادی در مورد عملکرد نسل بعدی Geforce صورت میگیره. باتوجه به گفتههای یکی از نمایندگان Nvidia، این شرکت از عملکرد و Performance این سری تازهوارد خوشحال و راضیه، آقای Luciano Alibrandi مدیر بخش روابط عمومی کمپانی Nvidia در منطقه EMEAI در مصاحبهای با وبسایت donanimhaber، اینطور نقل کردند:
"ما انتظار داریم Fermi سریعترین پردازندهگرافیکی در یکایک بخشها باشه. ارقامی که ما از کارائی و Performance این سری در شرکت داریم هم همین موضوع را نشان میدهد. پس ما خوشحالیم از این موضوع و حالا فقط داریم همهچیز رو در سمت Driver نهاییسازی میکنیم."
نمایش و معرفی این سری جدید در حالی که چند ماه تا زمان عرضه واقعیشون باقی مونده بود، از طرف Nvidia یک سنت شکنی به حساب مییاد. اما این باور وجود داره که Nvidia سری کارتهای Fermi رو در اواخر ماه سپتامبر برای افت فروش کارتهای DX11 کمپانی Ati، به نمایش گذاشت. البته Nvidia هنوز نمایشی از عملکرد این کارتها ارائه نداده هرچند با توجه به گفتههای آقای Alibrandi، این شرکت نه تنها به سختی در حال کار بر روی این چیپگرافیکی جدیده، بلکه در حال توسعه و ساخت یک Driver "عالی" هست، تا یک تجربه منحصربفرد رو به کاربراننهائی عرضه کنه:
"ما فقط میخوایم مطمئن بشیم که این [Fermi] همونطور که خودمون میخوایم هم در گرافیکها و هم در محاسبات [performance و quality] عالی باشه."
تا به امروز Nvidia در مورد نسل بعد، Geforce GF100 چیزی که نمایش دارده اینه که بنچمارکهای DX11 رو رندر میکنه و در حالت SLI کار میکنه.
مدیر بخش روابط عمومی EMEAI در مورد تاریخ عرضه نهائی GF100 به مصرفکنندگان چیزی اعلام نکرد و تنها اطلاعاتی در این مورد وجود داره توضیحات آقای Jen-Hsun Huang مدیر اجرایی Nvidia هست که اعلام کرده بودن این سری در کوارتر اول سال مالی 2011 که از 26 ژانویه تا 26 اپریل 2010 هست، عرضه میشه.
کشتی Fermi حامل پردازنده گرافیکی شامل 512 موتور stream processing هست (16 تا streaming multi-processors با 32 هسته در هر کدوم) که از نوعی از تکنولوژی multi-threading برای حداکثر سازی استفاده از هستهها، پشتیبانی میکنه. هر stream processor دارای fully pipelined ALU & FPU هست. چیپ شامل 3 بیلیون [میلیارد] ترانزیستور هست که از یک مموری کنترلر 384 بیتی از نوع GDDR5 با ECC استفاده میکنه و شامل کش بیسابقه 768Kb سطح دو به علاوه کش سلسله مراتبی پیچیده به صورت کلی هست. سری Fermi با رابطهای APIی DX11, Open GL 3.x و Open Cl 1.x تطبیق داره. در آخر هم این چیپ از تکنولوژی 40nm در TSMC تایوان استفاده میکنه.
برای مشاهده محتوا ، لطفا وارد شوید یا ثبت نام کنید
Lord_theOne
28-12-2009, 16:03
DirectX 11 پیشرفته 10.1 است؟
چقدر صحت دارد؟
خبر بد، تأخیر کارتهای Fermi انویدیا
Nvidia اعلام کرده تا ماه March هیچ خبری از کارتگرافیکهای بر پایه Fermi نخواهد بود. Nvidia اینو به سازندگان 3rd Party کارتاش اعلام کرده. این در حالیه که AMD/ATI در ماه ژانویه و فبریه سری HD5000 رو با چند کارت جدید زندهتر و متنوعتر میکنه.
این خبر برای همین امروزه یعنی 28 دسامبر.
برای مشاهده محتوا ، لطفا وارد شوید یا ثبت نام کنید
خبر بد، تأخیر کارتهای Fermi انویدیا
Nvidia اعلام کرده تا ماه March هیچ خبری از کارتگرافیکهای بر پایه Fermi نخواهد بود. Nvidia اینو به سازندگان 3rd Party کارتاش اعلام کرده. این در حالیه که AMD/ATI در ماه ژانویه و فبریه سری HD5000 رو با چند کارت جدید زندهتر و متنوعتر میکنه.
این خبر برای همین امروزه یعنی 28 دسامبر.
برای مشاهده محتوا ، لطفا وارد شوید یا ثبت نام کنید
دیگه همه برید کارت هاتونا بخرید منتظر این نباشید وگرنه رنگ موهامون مثل دندونمون سفید میشه.
توی این دنیا که تکنولوژی اینجور پیشرفت میکنه این تاخیر ها =شکست
من که ضد حالی بس اساسی خوردم، میخواستم بعد از مدتی یه کارت خوب بگیرم و قبل عیدی بشینم چندتا بازی ناب بزنم باهاش ولی مثل اینکه قسمت نیست، اونوره سالم که دیگه...
توی این دنیا که تکنولوژی اینجور پیشرفت میکنه این تاخیر ها =شکست
یعنی الان فرمی شکست خورده چون تاخیر خورده؟ بعد از عرضه میشه گفت شکست خورده یا نه. تا مارچ هم قرار نیست بیاد. پس رقیبی برای سری 5000 وجود نداره. در رقابت با سری 5000 و بررسی فرمی از لحاظ performance و قیمت میشه گفت چه کسی برنده است و چه کسی بازنده.
کسانی که تا مارچ قصد خرید کارت DirectX 11 دارند، تنها محصول موجود کارت های سری 5000 ــه. بعد از مارچ - اگه تاخیر دیگه ای وجود نداشته باشه - چطور؟
من که ضد حالی بس اساسی خوردم، میخواستم بعد از مدتی یه کارت خوب بگیرم و قبل عیدی بشینم چندتا بازی ناب بزنم باهاش ولی مثل اینکه قسمت نیست، اونوره سالم که دیگه...
بهتر نیست از کارت های سری 5000 استفاده کنید؟
یعنی الان ......
بهتر نیست از کارت های سری 5000 استفاده کنید؟
نه بهتر نیست، الکی تبلیغ نکن من وسوسه نمیشم :13:.
نه بهتر نیست، الکی تبلیغ نکن من وسوسه نمیشم :13:.
لول ... CUDA & PhysX جلوی چشماشو گرفته :31:
البته بدک نیست آدم فعلا از این رده های متوسط رو بگیره و یکم طعم Dx11 رو مزه مزه کنه تا فرمه بیاد ؟! :5:
mehrdad_ati
29-12-2009, 14:27
منظورت از "این رده های متوسط" سری 5000 بود یا gf100؟
در ضمن تاخیر هم میتونه به نوعی خودش یک نوع شکست به حساب بیاد (در صورتی که بیش از اندازه باشه) .
وقتی میدون رو برای رقیبت خالی بزاری خودش نوعی اعلام شکست هست .
لول ... CUDA & PhysX جلوی چشماشو گرفته :31:
البته بدک نیست آدم فعلا از این رده های متوسط رو بگیره و یکم طعم Dx11 رو مزه مزه کنه تا فرمه بیاد ؟! :5:
خدایی یکی از دلایل اصلی که من Nvidia رو ترجیح میدم همون Physx هست این Batman رو ببنید چقدر جالبه، البته برای دوستداران ATI هم بگم که در آینده بازیهای بیشتری از Physx پشتیبانی جامع میکنن.
DX11 که فعلاً حرفه، بازیشو نشونم بده.
خدایی یکی از دلایل اصلی که من Nvidia رو ترجیح میدم همون Physx هست این Batman رو ببنید چقدر جالبه، البته برای دوستداران ATI هم بگم که در آینده بازیهای بیشتری از Physx پشتیبانی جامع میکنن.
DX11 که فعلاً حرفه، بازیشو نشونم بده.
میشه یک 9600GT (یا GT 220) گذاشت برای PhysX کنار HD 5000 ها ... و خوب هم کار می کنه. ما هم فعلا داریم همین کار رو می کنیم :27:
mehrdad_ati
29-12-2009, 17:09
خدایی یکی از دلایل اصلی که من Nvidia رو ترجیح میدم همون Physx هست این Batman رو ببنید چقدر جالبه، البته برای دوستداران ATI هم بگم که در آینده بازیهای بیشتری از Physx پشتیبانی جامع میکنن.
DX11 که فعلاً حرفه، بازیشو نشونم بده.
colin mcrae dirt2
میشه یک 9600GT (یا GT 220) گذاشت برای PhysX کنار HD 5000 ها ... و خوب هم کار می کنه. ما هم فعلا داریم همین کار رو می کنیم فکر می کردم nVidia جلوی این کار رو گرفته. ولی مثل اینکه اینطور نیست!
خدایی یکی از دلایل اصلی که من Nvidia رو ترجیح میدم همون Physx هست این Batman رو ببنید چقدر جالبه، البته برای دوستداران ATI هم بگم که در آینده بازیهای بیشتری از Physx پشتیبانی جامع میکنن.
DX11 که فعلاً حرفه، بازیشو نشونم بده.
استفاده از physx رایگانه؟ اگه رایگانه چرا ازش خیلی کم استفاده میشه؟
بازی ایرانی "گرشاسپ" هم مثل اینکه از physx بهره می بره. چرا که Engine اصلی بازی توانایی خلق افکت های فیزیکی رو نداره.
میشه یک 9600GT (یا GT 220) گذاشت برای PhysX کنار HD 5000 ها ... و خوب هم کار می کنه. ما هم فعلا داریم همین کار رو می کنیم :27:
بابا شما مایه داری، پول داری بده ما هم یکی بخریم، ما یدونشم به زور میخریم، حالا دو تا کارت! دوتا.
فکر می کردم nVidia جلوی این کار رو گرفته. ولی مثل اینکه اینطور نیست!
استفاده از physx رایگانه؟ اگه رایگانه چرا ازش خیلی کم استفاده میشه؟
بازی ایرانی "گرشاسپ" هم مثل اینکه از physx بهره می بره. چرا که Engine اصلی بازی توانایی خلق افکت های فیزیکی رو نداره.
تقریباً همه موتورهای جدید از Physx پشتیبانی میکنن ولی نه در یک سطح Batman اصلاً با یک Patch برای Physx اختصاصی میشد، و تأثیرش رو به روشنی میشد در بازی دید ولی در بازهای دیگه شاید نشه اوقدر وجود Physx رو حس کرد.
بابا شما مایه داری، پول داری بده ما هم یکی بخریم، ما یدونشم به زور میخریم، حالا دو تا کارت! دوتا.
تقریباً همه موتورهای جدید از Physx پشتیبانی میکنن ولی نه در یک سطح Batman اصلاً با یک Patch برای Physx اختصاصی میشد، و تأثیرش رو به روشنی میشد در بازی دید ولی در بازهای دیگه شاید نشه اوقدر وجود Physx رو حس کرد.
من لیست بازی های را که physx استفاده میکننو دیدم خیلی کم بودن.حدود 16 تا.غیر ازینه؟
خدایی یکی از دلایل اصلی که من Nvidia رو ترجیح میدم همون Physx هست این Batman رو ببنید چقدر جالبه، البته برای دوستداران ATI هم بگم که در آینده بازیهای بیشتری از Physx پشتیبانی جامع میکنن.
DX11 که فعلاً حرفه، بازیشو نشونم بده.
Physix هم مشکلات مربوط به خودش رو داره .. وقتی Physx فعال میشه 100 درصد بازی افت فریم شدیدی خواهد داشت ....:2:این Physx هم یکی دیگه از تبلیغات Nvidia برای فروش بیشتر است ... پول میده به شرکت ها تا بازی ها رو با پشتیبانی Physx بسازند ... و در عمل هم زیاد موثر نیست ...!!!
دوستان این بحث های بیهوده که کی بهتره و کی شکست میخوره رو خاتمه بدید چند صفحه این تاپیک فقط شده کلکل در صورتی که nvidia و ati دارن سود میکنن توی این تاپیک در مورد سری 300 باید بحث بشه و اطلاعاتی رو که منتشر میشه در اینجا بذاریم
فکر می کردم nVidia جلوی این کار رو گرفته. ولی مثل اینکه اینطور نیست!
بله گرفته ... ولی کماکان راه هایی هست برای انجامش که البته راه اندازیش خیلی سخت تر شده و نمیشه ازش به عنوان یک شیوه کلی برای همه کاربرها یاد کرد. فعلا که حتی AGEIA PhysX Card های قدیمی هم با درایورهای جدید NVIDIA دیگه کار نمی کنن :دی
استفاده از physx رایگانه؟ اگه رایگانه چرا ازش خیلی کم استفاده میشه؟
PhysX SDK رایگان هست ولی مثل اینکه استفاده از PhysX در بازیها نیاز به گرفتن License داره [مطمئن نیستم]
بابا شما مایه داری، پول داری بده ما هم یکی بخریم، ما یدونشم به زور میخریم، حالا دو تا کارت! دوتا.
شما که می خوای Fermi بگیری مایه داری دیگه :دی ما اگه مایه دار بودیم 5770 نمی گرفتیم :دی
تقریباً همه موتورهای جدید از Physx پشتیبانی میکنن ولی نه در یک سطح Batman اصلاً با یک Patch برای Physx اختصاصی میشد، و تأثیرش رو به روشنی میشد در بازی دید ولی در بازهای دیگه شاید نشه اوقدر وجود Physx رو حس کرد.
البته CryEngine 3 کماکان قراره از موتور فیزیک خودش استفاده کنه (مثل نسخه های قبل) ولی خب با کنسل شدن Havok FX الان PhysX به عنوان تنها موتور فیزیک همراه با Hardware Acceleration به حساب میاد و طبیعتا بقیه موتورها بیشتر سمتش کشیده میشن.
ولی خب با کنسل شدن Havok FX الان PhysX به عنوان تنها موتور فیزیک همراه با Hardware Acceleration به حساب میاد و طبیعتا بقیه موتورها بیشتر سمتش کشیده میشن.
Open CL رو فراموش کردید.
mehrdad_ati
29-12-2009, 22:14
physx داره میمیره !
خود nvidia هم رفته سمت opencl ! چه میکنه این apple
Physx چه ربطی به OpenCL داره؟ OpenCL یه API.
Open CL رو فراموش کردید.
physx داره میمیره !
خود nvidia هم رفته سمت opencl ! چه میکنه این apple
OpenCL یک موتور فیزیک نیست و PhysX و OpenCL دو مقوله جدا هستند، درسته که پیشرفت OpenCL در کل خطری برای PhysX به حساب میاد ولی به طور مستقیم به هیچ وجه رقیب همدیگه نیستند.
NVIDIA هم لازمه بره به سمت OpenCL حتی اگه پیشرفتش به ضرر PhysX باشه، چون پیشرفت OpenCL فقط در محدوده یک موتور فیزیک نیست. در هر صورت پیشرفت OpenCL رو به هیج وجه نمیشه مرگ PhysX تصور کرد.
ویرایش: مثل اینکه با پست بالایی با هم ارسال شد!
من لیست بازی های را که physx استفاده میکننو دیدم خیلی کم بودن.حدود 16 تا.غیر ازینه؟
نه بیشتر از این حرفاست، این لیست رو ببین:
برای مشاهده محتوا ، لطفا وارد شوید یا ثبت نام کنید
mehrdad_ati
29-12-2009, 22:38
شما چرا متوجه نیستید ؟
physx هم یک api هست و فرقش با سایر api های گرافیکی اینه که فقط مختص پردازش فیزیک هست .
اما opencl یک api جامع برای پردازش غیر گرافیکی روی gpu هست که شمال پردازش فیزیک هم میشه . و قرار شده که هر دو شکرت از این api برای پردازش های فیزیکیشون استفاده کنند .
OpenCL یک موتور فیزیک نیست و PhysX و OpenCL دو مقوله جدا هستند، درسته که پیشرفت OpenCL در کل خطری برای PhysX به حساب میاد ولی به طور مستقیم به هیچ وجه رقیب همدیگه نیستند.
NVIDIA هم لازمه بره به سمت OpenCL حتی اگه پیشرفتش به ضرر PhysX باشه، چون پیشرفت OpenCL فقط در محدوده یک موتور فیزیک نیست. در هر صورت پیشرفت OpenCL رو به هیج وجه نمیشه مرگ PhysX تصور کرد.
اصلاً Physx یه تکنولوژی کناری هست و همراه هست که به صورت Middle-ware کاملاً با OpenGl و DirectX کار میکنه Nvidia به راحتی میتونه برای OpenCl پورتش کنه که شایدم کرده باشه. بعد ماهیت Physx بسیار جالب و کاراست و خیلی میتونه ارتقاء پیدا کنه و عمراً به این راحتیا خدشهای نبینه و بدون شک هر سال استفادش بیشتر میشه.
در هر صورت OpenCl هنوز خیلی زوده که بتونه چیزی در کارهای مربوط به پردازش GPU در مقابل Directx بگه، این Apple یه قپزی همینطوری از خودش درکرده.
شما چرا متوجه نیستید ؟
physx هم یک api هست و فرقش با سایر api های گرافیکی اینه که فقط مختص پردازش فیزیک هست .
اما opencl یک api جامع برای پردازش غیر گرافیکی روی gpu هست که شمال پردازش فیزیک هم میشه . و قرار شده که هر دو شکرت از این api برای پردازش های فیزیکیشون استفاده کنند .
البته OpenCL برای محاسبات general-purpos هست و فقط روی GPU هم تمرکز نداره و محدوده کارش سمت CPU هم هست، ولی میشه باهاش محاسبات گرافیکی مشابه Directx یا OpenGl انجام داد ولی همینطور که گفتم نمیشه اصلاً با Directx مقایش کرد.
بله گرفته ... ولی کماکان راه هایی هست برای انجامش که البته راه اندازیش خیلی سخت تر شده و نمیشه ازش به عنوان یک شیوه کلی برای همه کاربرها یاد کرد. فعلا که حتی AGEIA PhysX Card های قدیمی هم با درایورهای جدید NVIDIA دیگه کار نمی کنن :دی
PhysX SDK رایگان هست ولی مثل اینکه استفاده از PhysX در بازیها نیاز به گرفتن License داره [مطمئن نیستم]
شما که می خوای Fermi بگیری مایه داری دیگه :دی ما اگه مایه دار بودیم 5770 نمی گرفتیم :دی
البته CryEngine 3 کماکان قراره از موتور فیزیک خودش استفاده کنه (مثل نسخه های قبل) ولی خب با کنسل شدن Havok FX الان PhysX به عنوان تنها موتور فیزیک همراه با Hardware Acceleration به حساب میاد و طبیعتا بقیه موتورها بیشتر سمتش کشیده میشن.
با تشکر از مطالب مفید استریم عزیز .. حاجی شما اگه راهی داری خوب به ما هم بگو دیگه .. ما یه 4850 داریم کنارش یه 9500GT گزاشتیم که هم حداقل 32 تا رو داره و هم 512 رم داشت ولی خوب اصلا میگی اینا کلا با هم کانفلیکت بودن یعنی درایورهای اجازه فعال شدن physx رو نمی دادن .. فکر کنم انویدیا چند وقتیه این قضیه رو گذاشته .. حداقل با آخرین درایورها ما هر کار کردیم این کلکو نتونستم به زنم به اینها ... خلاصه اگر راهی داره Manual ی چیزی داری حاجی بدی ؟!
mehrdad_ati
30-12-2009, 10:13
نه دوست عزیز opencl کاملا به سمت gpu گرایش داره و یک api برای انجام پردازش غیر گرافیکی بر روی gpu هست (یک چیزی مثل ati stream و nvidia cuda) و از اونجایی که پردازش فیزیک هم در این حیطه قرار میگیره . بسیاری از نگاه ها به سمت opencl جذب شده .
و به قول شما اگر nvidia بخواد physx رو در opencl پورت کنه یعنی دو دستی اون رو تقدیم به رقبا کرده ! چون opencl یک api opensource هست !
کسی هم اون رو با directx مقایسه نکرده . چون dx اصولا برای پردازش گرافیکی روی gpu هست اما opencl برای پردزاش غیر گرافیکی روی gpu , اون api که باید با dx مقایسه بشه opengl هست نه opencl !
پس فراموش نکنید که اصلا هرف از opencl انجام محسابات گرافیکی نیست و اصلا همچین قابلیتی هم نداره .
و در آخر اینکه فعلا من هر چی هم بگم شما حرف خودت رو میزنی پس بهتره مدتی صبر کنیم و ببینیم که کی درست میگفته !
نه دوست عزیز opencl کاملا به سمت gpu گرایش داره و یک api برای انجام پردازش غیر گرافیکی بر روی gpu هست (یک چیزی مثل ati stream و nvidia cuda) و از اونجایی که پردازش فیزیک هم در این حیطه قرار میگیره . بسیاری از نگاه ها به سمت opencl جذب شده .
و به قول شما اگر nvidia بخواد physx رو در opencl پورت کنه یعنی دو دستی اون رو تقدیم به رقبا کرده ! چون opencl یک api opensource هست !
کسی هم اون رو با directx مقایسه نکرده . چون dx اصولا برای پردازش گرافیکی روی gpu هست اما opencl برای پردزاش غیر گرافیکی روی gpu , اون api که باید با dx مقایسه بشه opengl هست نه opencl !
پس فراموش نکنید که اصلا هرف از opencl انجام محسابات گرافیکی نیست و اصلا همچین قابلیتی هم نداره .
و در آخر اینکه فعلا من هر چی هم بگم شما حرف خودت رو میزنی پس بهتره مدتی صبر کنیم و ببینیم که کی درست میگفته !
general-purpos هست یعنی برای هر کاری میشه ازش استفاده کرد اگر یک Library برای کار گرافیکی براش باشه برای اونم میشه استفاده کرد.
این یسری Document که پیدا کردم کسی خواست بخونه جالبه، من خودمم علاقه مند شدم:
برای مشاهده محتوا ، لطفا وارد شوید یا ثبت نام کنید
mehrdad_ati
30-12-2009, 17:08
اگر opencl میتونست نیاز بخش گرافیکی هم پوشش بده هیچ وقت opengl به وجود نمیومد !
حیطه ی کاری opencl روی gpgpu یا همون پردازش موازی بر روی gpu هست .
اگر opencl میتونست نیاز بخش گرافیکی هم پوشش بده هیچ وقت opengl به وجود نمیومد !
حیطه ی کاری opencl روی gpgpu یا همون پردازش موازی بر روی gpu هست .
OpenGl که خیلی قدیمی هست و OpenCL یک API open Standard جدیده والبته General-purpose البته.
یکی از استفادههای OpenCL و شاید بزرگترین استفادش برای GPGPU هست GPGPU هم هموطنور که میدونید محدود به محاسبات GPU میشه که معمولاً با API های مخصوص GPU مثل Cuda یا Stream کار میشده و میشه. ولی این جزو خواص اولیه OpenCL هست که تنها محدود به GPU نیست و از CPU هم استفاده میتونه بکنه (البته CPU همیشه در محاسبات نقش داره) اگرچه در حال حاضر نتایج خیلی خوبی در GPGPU در مقابل Cuda/Stream بدست آورده و چون Cross Platform هم هست در این بخش طرفدار داره زیاد پیدا میکنه ولی هنوز خیلی خیلی نوپا هست ولی چیزیه که آینده خوبی داره و من خودمم به شخصه علاقه مند شدم بهش مخصوصاً به خاطر پشتبانی از GPU و CPU باهم براحتی میشه وظایف رو تقسیم کرد کلاً چیز جالبیه فقط مشکلش اینه که فعلاً روی API و کامپایلر برای زبون مزخرف C خیلی کار شده ولی در آینده دنیای OpenCl دست Scala خواهد بود.
OpenCL هم حاصل همکاری Nvidia و Apple هست که اکثر دوستان فکر میکنن محصول Apple هست البته الان دیگه یک Open Standard همونطور که از اسمشم مشخصه، که به هیچ کمپانی تعلق نداره ولی زیر نظر کنسرسیوم Khronos هست.
در ضمن کاملاً میتونه با OpenGl رقابت کنه از هر نظری.
mehrdad_ati
31-12-2009, 13:33
opencl رو خود apple شروع کرده و کمپانی هایی مثل ati و nvidia و toshiba و ... بعدا از اون پشتیبانی کردند !
اما همونطور که میدونید . برای استفاده از gpgpu تعداد بسیار زیادی هسته مورد نیازه ! مثلا gt300 ظاهرا 512 و cypress بین 1440 تا 1600 هسته داره .
حالا به فرضم که از حد اکثر 8 هسته ی cpu اتسفاده بشه ! بازم تاثیر چندانی نمیتونه داشته باشه !
تجربه نشون داده که کارت گرافیک های ضعیف هم توی پردازش موازی میتونند از سریعترین cpu ها بهتر عمل کنند .
opencl رو خود apple شروع کرده و کمپانی هایی مثل ati و nvidia و toshiba و ... بعدا از اون پشتیبانی کردند !
اما همونطور که میدونید . برای استفاده از gpgpu تعداد بسیار زیادی هسته مورد نیازه ! مثلا gt300 ظاهرا 512 و cypress بین 1440 تا 1600 هسته داره .
حالا به فرضم که از حد اکثر 8 هسته ی cpu اتسفاده بشه ! بازم تاثیر چندانی نمیتونه داشته باشه !
تجربه نشون داده که کارت گرافیک های ضعیف هم توی پردازش موازی میتونند از سریعترین cpu ها بهتر عمل کنند .
gpgpu که پردازش فقط با استفاده از قدرت stream processors خوده GPU هست اگر CPU دخیل بشه که دیگه اصلاً GPGPU نمیشه و اصلاً هدف تغییر میکنه و اصلاً موازی سازیه داده دیگه مسخرست، اما همونطور که گفتم OpenCL شاید بزرگترین استفادش در حال حاضر برای GPGPU باشه ولی خاصیت بزرگش امکان استفاده از CPU هم هست که کارایی زیادی داره که از محدوده GPGPU خارجش میکنه و البته خیلی هم پیچیده میشه قضیه.
در مورد تعداد هسته چون اشاره کردی بگم (چون زیادی از GT300 زدیم بیرون یچیزی هم بگم که مربوط به اون بشه) تا حدودی درسته حرفتون به نظر میاد هرچی تعداد هسته stream یا همون تعداد stream processors بیشتر باشه خوب بدون شک تعداد بیشتری المان و قطعه موازی میشه برای اعمال Kernel فرستاد به هر واحد، که این اصلاً اصل GPGPU هست بر مبانای هدف Parrnell Programming، اما یکی موارد مهم دیگه توان arithmetic هست شاید Cypress از تعداد بالای هسته Stream در مباهات باشه اما معماری Fermi هم که از 448 واحد Stream (اول 512 تا بود که 448 شده مثل اینکه) تشکیل شده توان محاسباتی بالایی رو ارائه میده و البته در زمینه FPI هم به سان Intel کارهایی جدید کردن که بدون شک در کل توان محاسباتی تأثیر زیادی داره و البته کلی جزئیات دیگه هم وجود داره که از معلومات من خارجه (ولی به زودی اونارم متوجه میشم :31:).
این بخش سختافزاریه قضیست در بخش نرمافزاری قضیه خیلی متفاوته و کلاً مشکلات و قضایا جور دیگهایه.
mehrdad_ati
31-12-2009, 17:13
معلومه که توان محاسباتی فرمی بالاست !
درسته که 448 stream داره ولی هر کدوم در فرکانس بالاتری نستبت به 1600 stream که در cypress استفاده شده فعالیت میکنند .
در ضمن مگه در پست قبلی خود شما نبودید که اشاره کردید که cpu همیشه در محاسبات نقش داره .(که البته چندان جمله ی صحیحی نیست ) اما الان صحبت خودتون رو در مورد محسابات موازی در gpu نقض کردید ؟
alborz_k
31-12-2009, 17:26
معلومه که توان محاسباتی فرمی بالاست !
درسته که 448 stream داره ولی هر کدوم در فرکانس بالاتری نستبت به 1600 stream که در cypress استفاده شده فعالیت میکنند .
در ضمن مگه در پست قبلی خود شما نبودید که اشاره کردید که cpu همیشه در محاسبات نقش داره .(که البته چندان جمله ی صحیحی نیست ) اما الان صحبت خودتون رو در مورد محسابات موازی در gpu نقض کردید ؟
نوع alu های nvidia , ati کاملأ با هم فرق می کنند و اصلأ نمی شه کارایی برابر یا باللتر بودن مدل خاصی رو به فرکانس بالاتر sm های انودیدیا نسبت به ati نسبت داد!
mehrdad_ati
31-12-2009, 18:00
چرا در مورد فرکانس میشه صحبت کرد اما نمیشه اون رو دلیل برتری دونست ! این رو که هر کسی میدونه ! ممنون که یاد آوری کردید !
معلومه که توان محاسباتی فرمی بالاست !
درسته که 448 stream داره ولی هر کدوم در فرکانس بالاتری نستبت به 1600 stream که در cypress استفاده شده فعالیت میکنند .
در ضمن مگه در پست قبلی خود شما نبودید که اشاره کردید که cpu همیشه در محاسبات نقش داره .(که البته چندان جمله ی صحیحی نیست ) اما الان صحبت خودتون رو در مورد محسابات موازی در gpu نقض کردید ؟
من نمیخوام خیلی وارد این بحث بشم چون ربطی به اینجا نداره ولی چرا کلاً اگر پردازشی در سیستم قرار باشه اتفاق بیفته معماری X86 طوریه که بدون CPU نمیشه این اتفاق بیفته حتی اگر همه پردازش رو سمت GPU ببریم کامل (!) بازم CPU یه نقش خیلی جزئی در یه جائی عمل میکنه بدون شک این جنبه کاملاً عملیه قضیست و در تئوریات شاید درج نشه، البته کلاً تمام پردازش سمت GPU معمولاً غیر ممکنه و پردازش موازی فقط میتونه شامل سری از پردازشها با اهداف مشخص و یکسو باشه که خبری هم از Synchronization داده مشترک هم توشون نباشه کلاً محدودیتهای خودشون رو داره معمولاً اینجور پردازشها با اهداف خاص دنبال میشه که در بحث پردازش موازی بر روی GPU این مباحث وجود داره.
کلاک پائینتر هم میتونه عاملی در افزایش توان محاسباتی واحدها باشه اما بازم قضیه پیچیده تر از اینکه که بشه همچی رو به فرکانس و کلاک نسبت داد، باید معماریها به صورت جزئیتر بررسی بشن که از توان و تخصص این انجمن خارجه.
نوع alu های nvidia , ati کاملأ با هم فرق می کنند و اصلأ نمی شه کارایی برابر یا باللتر بودن مدل خاصی رو به فرکانس بالاتر sm های انودیدیا نسبت به ati نسبت داد!
کلاً دو معماری متفاوته مشخصاً نمیشه اینطور در مورد کلاکشون بحث کرد و همونطور که گفتم نیاز به باز کردن معماری هست.
mehrdad_ati
31-12-2009, 21:16
شاید نتونیم کاملا تخصصی صحبت کنیم اما میشه مقایستاتی رو در این مورد انجام داد .
خوب این جواب یکی از متخصصین سایت bit-tech به یکی از یوزرها در همین مورد تفاوت استریم ها هست .
The stream processors in Nvidia's and AMD's respective architectures are slightly different, but there's a reason for that. Nvidia's architecture is scalar, while AMD's architecture is superscalar. Basically, with Nvidia's architecture, you can throw any piece of code at it and it will run on as many of the stream processors as it needs - they all have the same functionality (bar the special function unit - there's one of those per eight stream processors but it's not part of the count) and are pretty generalised. It's a brute force method, although Nvidia would crucify me for saying that - you just throw code at it and it works everything out itself.
On the other hand, AMD's architecture has blocks of five (well, technically six) stream processors that have differing functionality. Four of them can handle FP MAD, FP MUL, FP/INT ADD and dot product calculations), while the fifth unit can't handle dot products, INT ADD or double precision calculations, but can handle INT MUL, INT DIV, bit shifting and transcendental calculations (SIN, COS, LOG, etc). It's a bit more complex, but if the code is optimised well, it can deliver much higher performance - that's why the FLOPS throughputs on the AMD chips are quite a bit higher, too, because they only take FP MAD and FP MUL into account and all of the units in the AMD chips can do those calculations (they're the most widely used).
I'd say the AMD architecture is a lot cleverer in many respects, but it does require a bit more work from the developer to achieve peak performance.
فکر کنم خوندنش آسون باشه .
alborz_k
31-12-2009, 22:40
شاید نتونیم کاملا تخصصی صحبت کنیم اما میشه مقایستاتی رو در این مورد انجام داد .
خوب این جواب یکی از متخصصین سایت bit-tech به یکی از یوزرها در همین مورد تفاوت استریم ها هست .
The stream processors in Nvidia's and AMD's respective architectures are slightly different, but there's a reason for that. Nvidia's architecture is scalar, while AMD's architecture is superscalar. Basically, with Nvidia's architecture, you can throw any piece of code at it and it will run on as many of the stream processors as it needs - they all have the same functionality (bar the special function unit - there's one of those per eight stream processors but it's not part of the count) and are pretty generalised. It's a brute force method, although Nvidia would crucify me for saying that - you just throw code at it and it works everything out itself.
On the other hand, AMD's architecture has blocks of five (well, technically six) stream processors that have differing functionality. Four of them can handle FP MAD, FP MUL, FP/INT ADD and dot product calculations), while the fifth unit can't handle dot products, INT ADD or double precision calculations, but can handle INT MUL, INT DIV, bit shifting and transcendental calculations (SIN, COS, LOG, etc). It's a bit more complex, but if the code is optimised well, it can deliver much higher performance - that's why the FLOPS throughputs on the AMD chips are quite a bit higher, too, because they only take FP MAD and FP MUL into account and all of the units in the AMD chips can do those calculations (they're the most widely used).
I'd say the AMD architecture is a lot cleverer in many respects, but it does require a bit more work from the developer to achieve peak performance.
فکر کنم خوندنش آسون باشه .
این بحث اصلأ جاش این جا نیست و راستشو بخوای فایده ای هم برامون نداره ، چون تخصصی تر و وقت گیر تر از اطلاعات عمومی هست ، همون طور که تو متن گفته ، هر stream proccesor از 5 بخش ایجاد شده ، یعنی بر خلاف معماری انویدیا ، که از یک بخش تشکیل شده ، می تونه چندین دستور العمل رو در آن واحد انجام بده ، البته این زمانی مزیت محسوب می شه که دستورات به هم و دستور العمل های قبلی وابسته نباشند ، چون وقتی وابسته باشند ، دیگه نمی شه اون ها رو جدا جدا پردازش کرد ( چون باید به صورت خطی و پشت سر هم پردازش بشن) ، البته بزرگترین استفاده از supersclar همون پیچیدگی کمتر نسبت به معماری انویدیا و ارزان تمام شدن gpu هست!
قراره Nvidia در CES 2010 (که 3-4 روز دیگست) کارتهای GF100 Fermi رو به نمایش بزاره.
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
برای مشاهده محتوا ، لطفا وارد شوید یا ثبت نام کنید
طبق گفته یکی از بچه های فروم خوده انویدیا ظاهرا اخباری که از فرمه داشته مبنی بر این بوده که قیمت حدودی 360 چیزی برابر با 500$ خواهد بود !!!!!!!!!!! و اما 380 ؟!! بله 700& !!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!! !!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!
اوها چه خبره بابا با این قیمتهای فضائی می خواهد به اختر شناسا بفروشش ؟! تازه اینطوری که ادعا کردن گفتن 380 .. 10 الی 14 فریم تو هر تستی از 5870 جلوتر بوده ! خوب که نمی ارزه آدم بره دوبله پول بده .. 2 تا 5770 می خری همون 15 درصد از یه 5870 قویتره :دی ... البته تقریبا .... این یارو تو فضا سیر می کنه بابا می خواد انویدیا رو بدبخت کنه تا اون موقع هم که بخوان 300 رو عرضه کنن احتمالا ATI سری 6000 هم معرفی می کنه !
برای مشاهده محتوا ، لطفا وارد شوید یا ثبت نام کنید
طبق گفته یکی از بچه های فروم خوده انویدیا ظاهرا اخباری که از فرمه داشته مبنی بر این بوده که قیمت حدودی 360 چیزی برابر با 500$ خواهد بود !!!!!!!!!!! و اما 380 ؟!! بله 700& !!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!! !!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!
اوها چه خبره بابا با این قیمتهای فضائی می خواهد به اختر شناسا بفروشش ؟! تازه اینطوری که ادعا کردن گفتن 380 .. 10 الی 14 فریم تو هر تستی از 5870 جلوتر بوده ! خوب که نمی ارزه آدم بره دوبله پول بده .. 2 تا 5770 می خری همون 15 درصد از یه 5870 قویتره :دی ... البته تقریبا .... این یارو تو فضا سیر می کنه بابا می خواد انویدیا رو بدبخت کنه تا اون موقع هم که بخوان 300 رو عرضه کنن احتمالا ATI سری 6000 هم معرفی می کنه !
برای مشاهده محتوا ، لطفا وارد شوید یا ثبت نام کنید
دوست عزیز خط اول نوشتههاش رو دقت نکردی: Since we're making predictions about release dates now, here's mine.
این یارو هم مثل من اعصابش از دست این بازیهای Nvidia برای Fermi بهم ریخته. مرده شور این Nvidia رو ببرن اگر گند بزنه که من بهش فحش میدم. اگر بنا به پیشبینیه من یه کارت میخوام قویتر از 5850 هم قیمت 5750 [ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ] تو جعبه کارته هم یدونه Mass Effect 2 اورجینال باشه، خیلی هم دراز نباشه از 6 اینچ بیشتر نباشه، کولینگشم خفن باشه با فن گنده دوبل بیصدا، البته روشم عکس Guts باشه امتیاز مثبت حساب میشه، هیچی دیگه هم حالیم نیست فقط همینو میخوام[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
Thermaltake سردمدار سازندگان کیس در دنیا هم سر از همکاری با Nvidia برای زدن محصولات و کیسهای Fermi-Certified در آورده؛ با نام Element V Nvidia Edition.
برای مشاهده محتوا ، لطفا وارد شوید یا ثبت نام کنید
mehrdad_ati
04-01-2010, 09:39
700 دلار ؟ امکان نداره .
بابا 5970 هم 600 دلاره. احتمالا طرف یک دشمنی چیزی با nvidia داشته !
Tesla آینهای:
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
آره خوب منم رو این قیمتها شک دارم .. ولی خوب بعید نیست ... باید صبر کنیم ببینیم چی میشه !
بابا این یارو یه چیزی از سر لجش گفته، خط اولش گفته حالا که همه دارن از قبل از انتشار Fermi پیشبینی می کنن، اینم پیشبینی من؛ دقت نکردین.
mehrdad_ati
05-01-2010, 13:21
چرا دقت کردم ! به خاطر همینم گفتم طرف مشکل با nvidia داشته !
راسیتی به نظرم آواتارت یک فرق هایی کرده .
millad1388
06-01-2010, 15:26
من با محاصباتی که خیلی ساده شدش رو برای شما خواهم گذاشت میتونم بین دو گرافیک از ati و nvidia ببینم کدوم قدرتش بیشتره !!! بدون هم بدون مراجعه به تست ها!!!
مثلا میدونم که هر سایه زن amd که 5 تاش در یک هسته قرار میگیره(البته در سری3000)دقیقا نصف سایه زن های nvidia قدرت داره اگه فرکانس سایه زن و ... رو یکسان در نظر بگیریم
و در مورد فرکانس هم باید بگم که فرکانس سایه زن ati حدود نصف nvidia هستش پس احتیاج به دو برابر سایه زن داره (اگه قدرت سایه زن هر دو یکی باشه) داره تا همون قدرت رو ارایه بده
millad1388
06-01-2010, 15:38
اصوا معماری های vidia و ati دارن به دو سمت مخالف میرن!!!که در جبهه ati ساده سازی بیشتر و اندازه کوچتر و قدرت محاصباتی بیشتر مد نظر هستش و در جبهه nvidia قوی تر شدن سایه زن ها در حد یک هسته مدنظره
با این حساب با اومدن یری 300 vidia نتنها معماری رو ساده تر نمیکنه!!!بلکه چندین بار هم پیچیده تر میکنه که نتیجش افزایش مصاحت die میشه و بالاترین قدرتش هم با محاصبات خود من یک کمی از 5870 بیشتره!! البته با قیمت دو برابر و گرمای خورشید!!!!در ضمن هرچی تعداد سایه زن ها و در گرافیک افزایش بدیم به خاطر گرما مجبورم فرکانس رو کم کنیم نمونه:
250 رو با 285 مقایسه کنید که 400 مگاهرتز اختلاف فرکانس دارند پس خودتون حساب کنید 400 سایه زن چقدر فرکانسش مییاد پایین
با اومدن یری 300 گرافیک های 6000 هم اومده در اون صورت nvidia برشکسته میشه
اصوا معماری های vidia و ati دارن به دو سمت مخالف میرن!!!که در جبهه ati ساده سازی بیشتر و اندازه کوچتر و قدرت محاصباتی بیشتر مد نظر هستش و در جبهه nvidia قوی تر شدن سایه زن ها در حد یک هسته مدنظره
با این حساب با اومدن یری 300 vidia نتنها معماری رو ساده تر نمیکنه!!!بلکه چندین بار هم پیچیده تر میکنه که نتیجش افزایش مصاحت die میشه و بالاترین قدرتش هم با محاصبات خود من یک کمی از 5870 بیشتره!! البته با قیمت دو برابر و گرمای خورشید!!!!در ضمن هرچی تعداد سایه زن ها و در گرافیک افزایش بدیم به خاطر گرما مجبورم فرکانس رو کم کنیم نمونه:
250 رو با 285 مقایسه کنید که 400 مگاهرتز اختلاف فرکانس دارند پس خودتون حساب کنید 400 سایه زن چقدر فرکانسش مییاد پایین
با اومدن یری 300 گرافیک های 6000 هم اومده در اون صورت nvidia برشکسته میشه
من با محاصباتی که خیلی ساده شدش رو برای شما خواهم گذاشت میتونم بین دو گرافیک از ati و nvidia ببینم کدوم قدرتش بیشتره !!! بدون هم بدون مراجعه به تست ها!!!
مثلا میدونم که هر سایه زن amd که 5 تاش در یک هسته قرار میگیره(البته در سری3000)دقیقا نصف سایه زن های nvidia قدرت داره اگه فرکانس سایه زن و ... رو یکسان در نظر بگیریم
و در مورد فرکانس هم باید بگم که فرکانس سایه زن ati حدود نصف nvidia هستش پس احتیاج به دو برابر سایه زن داره (اگه قدرت سایه زن هر دو یکی باشه) داره تا همون قدرت رو ارایه بده
با محاسبات نمیشه قدرت عملی یه پردازنده رو فهمید چون شرایط زیادی تو نتیجه نهایی پرفرمنس نقش دارن شاید بشه روی کاغد پیشبینیهایی کرد ولی واقعیت همیشه متفاوته یک بعد بزرگ قضیه همیشه نرمافزاره که کسی نمیتونه پیشبینی در موردشون بکنه چون n نوع معماری و طراحی و پیادهسازی دارن و شاید نصف قضیه پرفرمنس پردانزدهها هم همین باشه برای همین n مدل بنچمارک وجود داره.
mehrdad_ati
07-01-2010, 19:24
خوب ces هم که توموم شد ! خبری شد ؟
خوب ces هم که توموم شد ! خبری شد ؟
کجا تموم شد، تازه شروع شده امروز 7ام (روز شروع نمایشگاه) و الانم امریکا صبحه، 1-2 ساعت دیگه اولین کنفرانس Nvidia هست، امیدوارم خبرهای خوبی بشنویم.
این سایت Nvidia برای CES که خودشم خبرهاش رو بروز میکنه، از اینجا میتونید پیگیری کنید:
برای مشاهده محتوا ، لطفا وارد شوید یا ثبت نام کنید
من الان کنفرانس Nvidia رو دیدم تموم شد (البته تقریباً شنیدم تا ببنیم با این سرعت تعطیل اینترنت)، مرده شور کلی از Mobile گفت از Tegra و Cortex A9 گفت بعدی یه Audi آوردن نشون دادن توش Tegra گذاشتن بعد کلی هم در مورد تکنولوژی 3D Nvidia صحبت کردن و چند تا کلیپ و تصویر 3d برای شرکت کنندهها نشون دادن آخره آخر 20 ثانیه مونده بود تموم بشه گفت بله ما نسل بعدی Geforce هم تو نمایشگاه داریم و الانم قراره به volume production برسه دیگه هیچی نگفت، حتی نگفت کی عرضه میشه، منو بگو که الکی 1 ساعت نشستم.
من که بلکل ناامید شدم، این Nvidia هم با این مسخره بازیاش یه بچمارکم نشون نداد. تاریخ عرضه رو هم اعلام نکردن و همون شایعه مارچ باقیه.
با این حال چندتا عکس میزارم:
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
من الان کنفرانس Nvidia رو دیدم تموم شد (البته تقریباً شنیدم تا ببنیم با این سرعت تعطیل اینترنت)، مرده شور کلی از Mobile گفت از Tegra و Cortex A9 گفت بعدی یه Audi آوردن نشون دادن توش Tegra گذاشتن بعد کلی هم در مورد تکنولوژی 3D Nvidia صحبت کردن و چند تا کلیپ و تصویر 3d برای شرکت کنندهها نشون دادن آخره آخر 20 ثانیه مونده بود تموم بشه گفت بله ما نسل بعدی Geforce هم تو نمایشگاه داریم و الانم قراره به volume production برسه دیگه هیچی نگفت، حتی نگفت کی عرضه میشه، منو بگو که الکی 1 ساعت نشستم.
نباید به شرکتی مثل nVidia از یک بعد نگاه کرد. از همون اولین خبرها در مورد فرمی می شد فهمید که این شرکت دیگه محصول و دغدغه ی اولش Geforce و در نتیجه Game نیست.
من الان کنفرانس Nvidia رو دیدم تموم شد (البته تقریباً شنیدم تا ببنیم با این سرعت تعطیل اینترنت)، مرده شور کلی از Mobile گفت از Tegra و Cortex A9 گفت بعدی یه Audi آوردن نشون دادن توش Tegra گذاشتن بعد کلی هم در مورد تکنولوژی 3D Nvidia صحبت کردن و چند تا کلیپ و تصویر 3d برای شرکت کنندهها نشون دادن آخره آخر 20 ثانیه مونده بود تموم بشه گفت بله ما نسل بعدی Geforce هم تو نمایشگاه داریم و الانم قراره به volume production برسه دیگه هیچی نگفت، حتی نگفت کی عرضه میشه، منو بگو که الکی 1 ساعت نشستم.نباید به شرکتی مثل nVidia از یک بعد نگاه کرد. از همون اولین خبرها در مورد فرمی می شد فهمید که این شرکت دیگه محصول و دغدغه ی اولش Geforce و در نتیجه Game نیست.
mehrdad_ati
08-01-2010, 10:14
میشه عکسها رو جای دیگه آپلود کنی ! من نمیبینم .
آخه میدونی چیه . بازار اصلی nvidia همین gaming هست و بعیده بخواد مثلا بره توی بخشی مثل گرافیک موبایل سرمایه گزاری اصلیش رو انجام بده . اینا بیشتر فرعی جاته .
gpgpu هم که خیلی جدیده و تازه لازمش اینه که اولا یک کارت گرافیک gaming خوب داشته باشه بعد نوبت به پردازش موازی و سایر مقولات میرسه .
آخه میدونی چیه . بازار اصلی nvidia همین gaming هست و بعیده بخواد مثلا بره توی بخشی مثل گرافیک موبایل سرمایه گزاری اصلیش رو انجام بده . اینا بیشتر فرعی جاته .من از سیاست های nVidia اطلاع ندارم. اگر هم فعلا بیشترین پول رو از Gaming درمیاره - که مطمئن هم نیستم - با توجه به اخبار این یک سال اخیر، به خیلی چیزها جز Gaming صرف، فکر می کنه.
gpgpu هم که خیلی جدیده و تازه لازمش اینه که اولا یک کارت گرافیک gaming خوب داشته باشه بعد نوبت به پردازش موازی و سایر مقولات میرسه GPGPU tفقط بوسیله ی کارت های Geforce انجام نمیشه.
Bs_panzer
08-01-2010, 10:38
این که هنوز برای دسکتاپ ها نیمده :دی
به نظر اساتید چه قدر طول میکشه تا چیپست های موبایلی (لپتاپ) عرضه بشن ؟ یا شرکت های سازنده مثلا ایسوس روی لپتاپ های خودشون استفاده کنن ؟
چون من G51 ایسوس رو برای خرید در نظر گرفتم چیپستش 260 هست نمی دونم ارزش داره صبر کنم یا خیر چون ادمی نیستم که زود به زود نوتبوک عوض کنم
درسته تمرکز Nvidia دیگه روی کارتهای گرافیکش نیست، مثلاً الان بشدت روی Tegra سرمایه گذاری کرده و سود خوبی هم روش میکنه خیلی بیشتر از فروش Geforce و آینده دارم هست - برای امسال Nvidia بازار 4 بیلیونی (میلیاردی) پیشبینی کرده و این عدد برای سال 2013 به 10 بیلیون میرسه (مرده شور این فرووم رو ببرن یه لینکم نمیشه داد وگرنه لینک عکسش رو میزاشتم) - ولی بازی روی PC همچین آینده مشخصی نداره، کلاً خوده PC هم آینده مشخصی نداره، مخصوصاً که وقتی NVidia و ATI هم اینطور پشتیبانی کنن از PC دیگه نمیشه انتظار زیادی داشت.
----------------------------------------------------------
برای دوستانی که میخوان در مورد Tegra بدونن، اینم یه توضیح مختصر و خوب:
Tegra یه System on Chip هست یا همون Computer on Chip که آینده کامپیوترها همینه، یعنی داخل یک چیپ CPU داره (حالا ممکن چند پردازش گر باشه)، GPU مستقل داره بعد northbridge, southbridge و memory controller رو هم داخلش داره در اصل یه سیستم کامل داخل یک چیپ هست، که خوب تو سیستمها یکپارچه و سیستمهای موبایل و Embedded سیستمها کاربرد بسیار زیادی داره، تو CES امسال یه نمونه جدید از Tegra رو به اسم Tegra 2 معرفی کرد.
Tegra در نسخه اول شامل 7 پردازشگر مجزا بود که در این نسخه تعدادشون 8 تا شده و دو تا هسته ARM Cortex A9 کنار هم کار میکنن (یعنی CPU دو هستهای) که هستهها روی 1GHz کار میکنن. (Tegra معمول از هسته ARM11 استفاده میکرد).
این CPU بود، یسری Processor دیگه هم On-Chip وجود داره که دیگه در شکل زیر کاملاً مشخصه.
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
دیگه من نمیخوام خیلی وارد جزئیات بشم اگر خودتون خواستین از لینک زیر مقاله Anand رو بخونید.
فقط میخواستم یه شمای کلی از قضیه بیاد دستتون که این بازار و این مقوله خیلی وسیعتر و گستردهتر از این حرفاست.
برای مشاهده محتوا ، لطفا وارد شوید یا ثبت نام کنید
میشه عکسها رو جای دیگه آپلود کنی ! من نمیبینم .
آخه میدونی چیه . بازار اصلی nvidia همین gaming هست و بعیده بخواد مثلا بره توی بخشی مثل گرافیک موبایل سرمایه گزاری اصلیش رو انجام بده . اینا بیشتر فرعی جاته .
gpgpu هم که خیلی جدیده و تازه لازمش اینه که اولا یک کارت گرافیک gaming خوب داشته باشه بعد نوبت به پردازش موازی و سایر مقولات میرسه .
نه شما مسئله رو نگرفتی بلکل؛ حالا پست بالای منم بخونی بهتر متوجه میشی.
mehrdad_ati
08-01-2010, 15:33
نه بابا اونجوریا هم که میگی نیست !
این tegra برای بازار موبایله . از این جور چیپ ها خیلی زیاده و tegra هم قوی ترینشون نیست . مدل های بسیار غولی مثل ولنشتاین و داوینچی هستند که به راحتی tegra رو قورت میدن . nvidia هنوز اول راهه در این زمنه .
بعد در مورد سود امسال فکر نمیکنم درست باشه . آخه کل ارزش سهام nvidia حدود 10 بیلیون هست بهد امسال 4 بیلیون سود کنه !؟ خیلی عجیبه !
فکر میکنم اینجا یک اشتباهی شده .
آخرین بار که اطلاعات مالی nvidia رو دیدم بیشترین سودش رو از فروش geforce گرفته بود.
این چیپ هایی مثل tegra رو ati هم از قدیم تولید میکرده و لی انقدر سرو صدا دور و برش نبود چیپ های از قبیل imageon .
حالا میخوای رقیب تگرا رو ببینی ؟
اینجا رو ببین :
برای مشاهده محتوا ، لطفا وارد شوید یا ثبت نام کنید
خیلی غوله . nvidia هنوز باید کار کنه تا به همچین جایی برسه . البته تا همین جا هم پیشرفت فوقالعاده ای داشته .
ترگا در واقع یک چیزی مثل یک main board هست که قسمت پردازش گرافیکیش رو nvidia تولید کرده . پردازنده هاش که مال arm هست .
نه بابا اونجوریا هم که میگی نیست !
این tegra برای بازار موبایله . از این جور چیپ ها خیلی زیاده و tegra هم قوی ترینشون نیست . مدل های بسیار غولی مثل ولنشتاین و داوینچی هستند که به راحتی tegra رو قورت میدن . nvidia هنوز اول راهه در این زمنه .
بعد در مورد سود امسال فکر نمیکنم درست باشه . آخه کل ارزش سهام nvidia حدود 10 بیلیون هست بهد امسال 4 بیلیون سود کنه !؟ خیلی عجیبه !
فکر میکنم اینجا یک اشتباهی شده .
آخرین بار که اطلاعات مالی nvidia رو دیدم بیشترین سودش رو از فروش geforce گرفته بود.
این چیپ هایی مثل tegra رو ati هم از قدیم تولید میکرده و لی انقدر سرو صدا دور و برش نبود چیپ های از قبیل imageon .
حالا میخوای رقیب تگرا رو ببینی ؟
اینجا رو ببین :
برای مشاهده محتوا ، لطفا وارد شوید یا ثبت نام کنیدخیلی غوله . nvidia هنوز باید کار کنه تا به همچین جایی برسه . البته تا همین جا هم پیشرفت فوقالعاده ای داشته .
ترگا در واقع یک چیزی مثل یک main board هست که قسمت پردازش گرافیکیش رو nvidia تولید کرده . پردازنده هاش که مال arm هست .
لینک که گذاشتم رو انگار نگاه نکردین و نخوندین.
با اینحال اتفاقاً بحث و معماری System on Chip بسیار بحث پیچیده تر و فراتر از هر CPU یا GPU میتونه باشه طوری الان داره میشه، البته system on chip داریم تا system on chip بله خیلی شرکتها در این زمینه کار میکنن ولی نه در سطح Tegra، چون هر دستگاه Embedded بالاخره همچین سیستمی رو در خودش داره ولی خوب دستگاه داریم تا دستگاه بدون شک پردازش و کاری که داخل یه نت بوک HD اتفاق میفته خیلی سنگینتر از پردازشیه که در یک تلویزیون معمولی یا یه گوشی موبایل معمولی اتفاق میفته ولی جفتشون پردازشگرهای خودشون رو دارن. توانایی که Tegra 2 عرضه کرده فوقالعادست کافیه فقط دموهاش رو ببنید همچین system on chip تا حالا وجود نداشته و در نوع خودش منحصر به فرده، کلاً System on Chip هایی که بتونن تصاویر HD رو پردازش کنن همینطور کم هست چه برسه چیزی به قدرت و توانایی Tegra 2 دو هستهای.
در هر صورت الان دنیا به سمت دستگاههای موبایل پیش میره که همونطور که گفتم خیلی جاها استفاده داره در تلفنهای همراه، نت بوکها، PDAها، ماشینها و کلاً هر سیستم Mobile یا Embedded و بازار وحشتناک بزرگی هم داره که به سرعت وحشتناکی هم داره پیشرفت میکنه واقعاً با سرعت زیادی، طوری که اینتل بزرگترین تولید کننده Microprocessors در دنیا پیشبینی کرده فروش SOC (System on Chip) ها از Microprocessors بیشتر میشه.
اون اعداد و چیزهای دیگه هم گفتید، همونطور که گفتم لینک رو ببنید و یکمی مطالعه کنید میاد دستتون.
mehrdad_ati
08-01-2010, 17:32
لینک رو دیدم و خوندم . میدونم تگرا چی هست .
اما خودتون ببینید خیلی از تگرا استقبال نشد . کمی اپل رفت دنبالش و قرار شد که روی 3gs استفاده بشه که فکر کنم نشد . (همون omap رو داره اگر اشتباه نکنم)
شما کمی در مورد داوینچی تحقیق کنید . میبینید که دقیقا بازار هدفش همون بازار هدف تگراست . حالا مدل هایی که از داوینچی استفاده کردند موفق تر بودند یا تگرا ؟
بعد فکر میکنم fusion هم توی همین رنج قرار میگیره که باید دید اون در چه حدیه ؟ راستی کسی خبر نداره fusion در چه مرحله ایه ؟
لینک رو دیدم و خوندم . میدونم تگرا چی هست .
اما خودتون ببینید خیلی از تگرا استقبال نشد . کمی اپل رفت دنبالش و قرار شد که روی 3gs استفاده بشه که فکر کنم نشد . (همون omap رو داره اگر اشتباه نکنم)
شما کمی در مورد داوینچی تحقیق کنید . میبینید که دقیقا بازار هدفش همون بازار هدف تگراست . حالا مدل هایی که از داوینچی استفاده کردند موفق تر بودند یا تگرا ؟
بعد فکر میکنم fusion هم توی همین رنج قرار میگیره که باید دید اون در چه حدیه ؟ راستی کسی خبر نداره fusion در چه مرحله ایه ؟
چرا استقبال از Tegra هم خوبه که 4 بیلیون پیش بینی درآمد کرده با اینحال بدون در نظر گرفتن حال هم، آیندشه که خیلی مهمه نه الان. با این حال خیلی کمپانیها مثل Asus، MSI، Compal و... Tabletهای با Tegra 2 زدن یا میخوان بزنن این چیزیه که اعلام کردن. یکی از چیزهای جالب در مورد Tegra باز کردن پای بازیهای خیلی خفن به دیواسهای بر پایه Tegra 2 هست که تو کنفرانس هم یه دموی خیلی جالب از یه بازی شوتر با موتور Unreal پخش کردن که همه بخاطر قدرت پردازش گرافیکی Tegra 2 هست.
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
Fusion هم نه SOC نیست یکی از برنامههای مزخرف AMD که قراره سال 2011 عرضه کنه، یه CPU + GPU یعنی همین Arrandale که 32نانومتری اینتل چند روز پیش برای موبایل (منظور نوتبوک نه MID) عرضه کرد که خیلی هم جالبه و Review هاشم هست سرچ بزنی، Westmere که همراهش عرضه کرد (همون i3, i5) که نسخه همراه GPU شو 1-2 ماه دیگه عرضه میکنه؛ هدف گیری این پردازندهها کامپیوترهای دسکتاپ و نوتبوکهاست ولی سیستمهای SOC مثل Tegra برای بازار MID و Tablet های جمع و جور ساخته شده، البته ممکنه در کامپیوترهای LowEnd هم استفاده بشه ولی بازم بعیده.
رقیب Tegra میخوای Moorestown اینتل هست که تو همین CES هم به نمایش گذاشت اینتل کلاً خفنه ولی بازم Tegra 2 از همین Moorestown قویتره البته Atom هم قبل این از طرف اینتل بود ولی چون GPU نداشت و انقدر کاملم نبود برای MIDها خیلی جالب نبود گرچه تو بعضی از Tabletها استفاده شده بود و البته همیشه قویترین بهترین هم نیست برای همین قویتر بودن Tegra دلیل بر بهتربودنش نیست.
کلاً الان رقابت در این سطح بین Nvidia و Intel یسری شرکتهای ریز درشت دیگه هم البته هستن مثل Qualcomm با Snapdragon ولی هیچکدوم توانایی رقابت با غولهایی مثل Nvidia و اینتل رو ندارن خوده Nvidia هم بشدت از دسته اینتل شاکیه که بازار رو دو دستی چسبیده و بیخیالم نمیشه، AMD هم که کلاً از مرحله مثل اینکه پرته و در این بخش فعالیت زیادی نداره.
بحث در این مورد بسته واقعاً این مطالب هیچ ربطی به این تاپیک نداره. فقط چند تا عکس میزارم آخرسر پایانی برای این بحث:
چند دستگاه با پردازنده Moorestown اینتل:
این یک tablet هست به اسم OpenPeak:
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ] [ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
اینم یک smartphone جدید از LG هست:
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ] [ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ] [ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
اینم چند دستگاه با پردازنده Tegra و چند اسکرین از کنفرانس Nvidia در CES در مورد Tegra:
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ] [ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ] [ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
mehrdad_ati
09-01-2010, 13:44
این قسمت خیالی جالب بود برام :
Fusion هم نه SOC نیست یکی از برنامههای مزخرف AMD که قراره سال 2011 عرضه کنه
.
تعصب خوبه ولی توهین ... .
این قسمت خیالی جالب بود برام :
Fusion هم نه SOC نیست یکی از برنامههای مزخرف AMD که قراره سال 2011 عرضه کنه
.
تعصب خوبه ولی توهین ... .
برای منم جالب بود.
mehrdad_ati
10-01-2010, 13:15
چی شد ؟ فرمی رو نشون ندادن ؟
چی شد ؟ فرمی رو نشون ندادن ؟
نمایش دادن که عکساش رو فکر کنم گذاشتم صفحات، اطلاعاتی ندادن ولی, عکس خالی هم که چیزی نداره یه کارته مثل باقیه کارتا، البته یه نمایش از Physx با یه Triple SLI گذاشتن یه بازیه در اصل اسمش Rocket Sled هست اون جالبه که قدرت این کارت رو تا حدی به نمایش میزاشت.
این فیلمش هست، اگر براتون باز نشد دلیلش اینه که فیلم برای YouTube هست که فیلتره.
برای مشاهده محتوا ، لطفا وارد شوید یا ثبت نام کنید
با این روند NVidia تا اواسط 2010 از سری جدید خبری نیست:13:
night lord
13-01-2010, 22:30
ای بابا هر چند وقت یه بار به این قسمت یه سری میزنیم مگر خبری باشه از nvidia ولی همش هیچ :13:
Bs_panzer
14-01-2010, 09:29
برای مشاهده محتوا ، لطفا وارد شوید یا ثبت نام کنید
مقایسه 295 و 5970
برای مشاهده محتوا ، لطفا وارد شوید یا ثبت نام کنیدمقایسه 295 و 5970
نه من میخوام بدون این چه ربطی به GT300 داشت؟ (حالا نه اینکه کل تاپیک گفتگو در مورد GT300 :31:)
CES تموم شد و Nvidia (مزخرف) هم گوشههایی از توانایی (GF100 (Fermi رو به صورت Live و زنده نمایش داد، اما اطلاعاتی در مورد این کارت و زمان عرضه دقیق کارت اعلام نکرد و مگر همون زمان عرضه Q1 (البته در نمایشگاه شایعاتی مبنی بر عرضه این سری در همون اوایل مارچ وجود داشت با این حال Nvidia نه تأیید کرد نه تکذیب).
دموهایی که در نمایشگاه به نمایش دراومدن همه به صورت زنده بر روی سیستمهایی مجهز به کارتهای گرافیکی (GF100 (Fermi بودن و این نشون میده (GF100 (Fermi به پایان دوران ساخت خودش نزدیک شده که نمونههایی ازش در دسترس هست، البته این مطلب هم توسط آقای Jen-Hsun Huang مدیر ارشد Nvidia اعلام شد که GF100 در شرف تولید انبوه هست؛ نگارندگان برخی از سایتهای معروف سختافزاری هم با اینکه اجازه دسترسی به صورت شخصی به GF100 رو در نمایشگاه نداشتن اما تأیید کردن که به زودی فرصت تست این کارت رو در آزمایشگاههای خودشون پیدا میکنن.
- - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
یکی از دموهایی که Nvidia نمایش داد دموی Rocket Sled بود یک بازی جالب که یک دموی Directx 11 با Tesselation بود که به شکل گستردهای درش از Physx استفاده شده بود، این دموی سنگین بر روی یک دستگاه با 3 کارت GF100 به صورت SLI اجرا میشد و نتیجه کار به گفته شاهدان خیلی جالب و عالی بوده.
(فرووم مززززززززززخرف بزار لینک بدم)
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ] [ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ] [ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
برای مشاهده محتوا ، لطفا وارد شوید یا ثبت نام کنید
برای مشاهده محتوا ، لطفا وارد شوید یا ثبت نام کنید
برای مشاهده محتوا ، لطفا وارد شوید یا ثبت نام کنیدفیلم:
برای مشاهده محتوا ، لطفا وارد شوید یا ثبت نام کنیدبا افزایش قدرت کارتهای گرافیک تکنولوژیهای چند نمایشگر هم چیزیه که کمکم توسط کمپانیها داره باب میشه، مخصوصاً برای بازیها یک تجربه عالی رو به همراه میاره؛ ATI تکنولوژی Eyefinity رو همراه با سری کارتهای جدیدش چند ماه پیش معرفی کرد، Nvidia هم همراه سری جدید GF100، تکنولوژی Surround Gaming رو معرفی کرد که مشابه Eyefinity یک تکنولوژی برای چند پنل هست، البته این تنها تکنولوژی ارائه شده توسط سری GF100 نیست، یکی دیگه از تکنولوژیهایی که بشدت Nvidia روش تبلیغ انجام داده، تکنولوژی نمایش سهبعدی 3D Vision هست که مثل اینکه آینده نمایشگرها و تصاویر یه این سمت میره چون به غیر از Nvidia کمپانیهای بزرگ دیگهای هم روی همچین تکنولوژیهایی سرمایهگزاری کردن. در هرصورت تکنولوژی 3D Vision و Surround Gaming یک تجربه عالی رو برای بازی کردن فراهم میکنه. که در نمایشگاه Nvidia این دو تکنولوژی رو بر روی سه نمایشگر به نمایش گذاشته بود.
در مقاله دیگهای در Cnet نگارنده مقاله با استفاده از تکنولوژی 3D انویدیا و نمایشگرهای iZ3D نشسته Left4Dead بازی کرده و نتیجه رو عالی میدونه و البته این نکته رو هم میگه که نتیجهای که بدست اومده بر روی یک نمایشگر سه بعدی بوده و حاصل کار تصویر سهبعدی بسیار عمیقتر و بهتر از تصاویر سهبعدی بر روی نمایشگرهای دوبعدی معمولی هست.
در حال حاضر کمپانی Samsung و ViewSonic نمایشگرهای سهبعدی تولید کردن که البته قیمتهای بالایی دارن ولی مدلهای iZ3D قیمت کمتری دارن به نسبت.
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
برای مشاهده محتوا ، لطفا وارد شوید یا ثبت نام کنید
night lord
14-01-2010, 12:30
دمت گرم بالاخره یه خبر درست وو حسابی از gt300 دوباره دیدیم .
در نمایشگاه CES2010 پیش نمایشی ازFermi GF100 آخرین وعده شرکتNvidia که قرار است در آخرین خبر "در هفته سوم ماه فوریه" تعدادی بصورت Sample برای تست در دست اورکلاکر ها قرار می گیرد و به نقل از تامز که گویای این هست که 4% با سری AMD5800 اختلاف کاراریی دارد!این کارت اولین کارت انویدیا که پردازش Physx با رابطDX11 بصورت سخت افزاری پردازش می کند !
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
نقل قول شده از forums.hotoverclock.com
در نمایشگاه CES2010 پیش نمایشی ازFermi GF100 آخرین وعده شرکتNvidia که قرار است در آخرین خبر "در هفته سوم ماه فوریه" تعدادی بصورت Sample برای تست در دست اورکلاکر ها قرار می گیرد و به نقل از تامز که گویای این هست که 4% با سری AMD5800 اختلاف کاراریی دارد!این کارت اولین کارت انویدیا که پردازش Physx با رابطDX11 بصورت سخت افزاری پردازش می کند !
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
نقل قول شده از forums.hotoverclock.com
منبع دقیق، بزار دوست عزیز. این مطالبی که گفتین اصلاً توی خبرها نبود و Nvidia همچین چیزهایی اعلام نکرده.
Bs_panzer
15-01-2010, 10:58
نه من میخوام بدون این چه ربطی به GT300 داشت؟ (حالا نه اینکه کل تاپیک گفتگو در مورد GT300 :31:)
می خواستم nvidia بیدار شه !
من انویدیا فن هستم نمی تونم ببینم این طور از ati عقب افتاده..........
mehrdad_ati
16-01-2010, 16:48
الان مشخصات فنی تایید شده داریم از fermi ؟
الان مشخصات فنی تایید شده داریم از fermi ؟
یه چیزهایی هست، که دوستمون هم عکسش رو گذاشت صفحات قبلم گذاشته بودیم، ولی هیچکدوم به صورت رسمی نه از طرف Nvidia تأیید نشده، البته ممکنم هست اینا درست باشه، ولی کلیات مثل اینکه 3 بیلیون ترانزیستور داره یا از DX11 پشتیبانی میکنه و نسخه شیدر و معماری کشها ویسری اطلاعات کلی دیگه چرا اعلام شده ولی جزئیات به صورت رسمی نه.
mehrdad_ati
16-01-2010, 23:34
واقعا 3 بیلیون ترانزیستور ریسک بزرگیه .
واقعا 3 بیلیون ترانزیستور ریسک بزرگیه .
چرا؟ ترانزیستور بیشتر تکنولوژی بالاتر.
mehrdad_ati
17-01-2010, 17:28
نه
ترانزسیتور بالاتر = گرامای بیشتر = مصرف بالاتر = هزینه تولید بیشتر = oc کمتر = دردسر بیشتر = کارایی بالاتر = ریسک بیشتر
نه
ترانزسیتور بالاتر = گرامای بیشتر = مصرف بالاتر = هزینه تولید بیشتر = oc کمتر = دردسر بیشتر = کارایی بالاتر = ریسک بیشتر
نه اینطوری هم نیست، و قضیه خیلی پیچیدهتر از این حرفاست.
mehrdad_ati
17-01-2010, 21:28
هیچ پیچیدگیه خاصی نداره . دقیقا همینه که گفتم .
بالاخره یسری اطلاعات در مورد (GF100 (Fermi روی اینترنت قرار گرفت. البته بنچمارکی فکر نکنم باشه بیشتر یک Preview از معماری هست من خودمم هنوز وقت نکردم بخونم، اگر اطلاعات جالبی بود خوندم میزارم.
برای مشاهده محتوا ، لطفا وارد شوید یا ثبت نام کنید
برای مشاهده محتوا ، لطفا وارد شوید یا ثبت نام کنید
بالاخره یسری اطلاعات در مورد (GF100 (Fermi روی اینترنت قرار گرفت. البته بنچمارکی فکر نکنم باشه بیشتر یک Preview از معماری هست من خودمم هنوز وقت نکردم بخونم، اگر اطلاعات جالبی بود خوندم میزارم.
برای مشاهده محتوا ، لطفا وارد شوید یا ثبت نام کنید
برای مشاهده محتوا ، لطفا وارد شوید یا ثبت نام کنید
-اولین چیزی که برام جالب بود، رد شایعه ی کاهش تعداد سایه زن ها در هر دو مقاله است. مثل اینکه محصول نهایی یعنی GTX 380 همون 512 سایه زن رو خواهد داشت.
- یه تفاوت بزرگ بین کارت های 5000 و کارتهای GF100 وجود داره. کارتهای 5000 از لحاظ طراحی و معماری فرق خاصی با سری قبلی ندارند. اما GF100 از لحاظ معماری تفاوت های بسیاری با قبل می کنه با توجه به هم ادعای خود nVidia و هم با توجه به دو مقاله ی بالا. شاید مهم ترین دلیل این تاخیر طولانی هم همین تغییرات گسترده در معماری کارت گرافیک باشه.
- یه چیز دیگه که nVidia بسیار روش کار کرده، geometry performance بوده. چرا؟ به خاطر tessellation که یکی از مهم ترین قابلیت های DirectX 11 ــه.
از کارت های NV30 ( کارتهای سری 5000 انویدیا مثل 5200 ) تا کارتهای GT200 ( مثل GTX 285 ) ،
geometry performance فقط حدود 3 برابر شده در حالی که کارایی سایه زن ها بیش از 150 برابر شده.
جالب اینجاست که کارایی و قدرت کارتهای GF100 نسبت به GT200 در geometry performance بنا به ادعای nVidia تقریبا 8 برابر شده!
اما tessellation به چه دردی می خوره؟ راستش بیشتر از اینکه به درد gamer ها بخوره بدرد Developer ها و سازندگان بازی می خوره. چرا که زحمتشون رو برای ساختن اشیای سه یعدی پیچیده و با جزئیات بالا کم می کنه. tessellation برای افزایش جزئیات اشیا و واقعی تر شدنشون تعداد چند ضلعی های به کار رفته در اون ها رو افزایش میده .
به تصویر زیر نگاه کنید :
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
تصویر سمت چپ کمترین چند ضلعی و تصویر سمت راست بیشترین چند ضلعی رو داره و بالطبع پرجزئیات تر و واقعی تر به نظر می رسه. بوسیله ی tessellation که فقط در کارتهای سری 5000 و GT100 به بعد وجود داره، خلق تصویر سمت راست به طور 100 درصد توسط GPU و سخت افزار انجام میشه.
چند تصویر دیگه از nVidia برای نمایش قابلیت tessellation :
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
نمودار زیر اختلاف کارایی GF100 و ATI HD 5870 در نرم افزار بنچمارک Unigine زمانی که tessellation در حالت High قرار داره رو نشون میده :
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
نمودار بالا توسط nVidia ارائه شده.
Guru3d علت این اختلاف کارایی رو Polymorph engines ( موتورهای چند ریختی ) که مخصوص کارتهای GF100 ــه، می دونه. در کل به نظر میرسه کارتهای GF100 نسبت به سری 5000 ATI ، به خاطر ساختار بهینه ترشون، در پردازش tessellation بهتر عمل خواهند کرد.
- nVidia در Anti Aliasing هم چیزهای تازه ای معرفی کرده. روش جدید AA برای سایه ها که به Accelerated Jittered Sampling معروفه و یه حالت جدید که Anti Aliasing رو تا 32X CSAA افزایش میده. و مهم تر از اینها افزایش کارایی کارت نسبت به گذشته در زمانی که AA فعاله.
nVidia برای مقایسه ی کارایی کارت جدیدش با GTX 285 در پردازش AA از نمودار زیر استفاده کرده.
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
در مورد کارایی محاسباتی کارتهای GF100 مثل پردازش فعل و انفعالات فیزیکی و هوش مصنوعی و ray tracing ، انویدیا از نمودار زیر استفاده کرده :
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
- در دو لینک بالا مطالب تخصصی و عمیق تر در مورد همه ی این مباحث مطرح شده وجود داره که به دلیل سواد کم اینجانب، مطالعش رو بخودتون واگذار می کنم!
با اینکه هیچ بنچمارکی به صورت مستقیم از GF100 اعلام نشد ولی تو guru3d آخرش نمایش مقایسه GTX 285 و GF100 رو توی بازیه Farcry2 گذاشته، که GF100 روی 1920x1200, 4xAA 16AA و ULTRA settings تقریباً 84 فریم به صورت میانگین داده که چیزی در حدود 60٪ از 50 فریم میانگین GTX285 بهتر کار کرده.
با اینکه واقعاً حسش رو ندارم ولی بخاطر مهم بودن این قضیه من سعی کردم از این جهت یه مقایسهای بین GF100 و 5870 بکنم البته فقط در Farcry انجام بدم باید کل وب رو میگشتم تا بتونم بنچمارکی با شرایط برابر پیدا کنم یا حداقل نزدیک، سیستم استفاده شده برای بنچمارک GF100 و GTX285 توسط Nvidia یه Core i7 960 در 3.2Ghz هست با 6 گیگ رم و ویندوز 7.
بیشتر از 20 تا Review و مقایسه از GTX285 و 5870 در Farcry 2 رو بررسی کردم. نکته مهم اینه که خیلی از سایتها حداکثر فریمریت رو درج میکنن، که جالب نیست و میانگین فریم ریت مد نظر باید قرار بگیره. سعی کردم مشخصات سیستم تست شده با تست اصلی یکی یا نزدیک باشه.
آخر بعد از کلی بررسی این نتیجه گیری من بود که در Far Cry 2 و در رزلوشون 1920 و در حداکثر جزئیات در تستهای مختلف چیزی بین 30-40 درصد 5870 قویتر از GTX285 هست (البته در شرایطی در بعضی از تستها این درصد کمتر میشه و تا 20٪ هم میرسه) البته ضریب AA بالاتر باعث میشه اختلاف کمتر بشه و البته چیزهای دیگه.
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ] [ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ] [ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
و این نتیجه نهایی، پس از ساعتها تلاش و زحمت :31: (خالی بستم 6-5 دقیقه طول کشید)، مسخره نکنید با Paint کشیدم. فقط میخواستم ببنیم چطوری بنچمارک میکشن فهمیدم با Paint این کار رو نمیکنن :31:.
5970 رو هم اضافه کردم البته این نمودار بنچمارک، ممکنه دقیق دقیق درست نباشه ولی تو Farcry2 تقریبی همینه.
GF100 Farcry2 BenchMark:
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
اینم چندتا لینک برای اینکه مشخص بشه خالی نبستم:
برای مشاهده محتوا ، لطفا وارد شوید یا ثبت نام کنید
برای مشاهده محتوا ، لطفا وارد شوید یا ثبت نام کنید
برای مشاهده محتوا ، لطفا وارد شوید یا ثبت نام کنید
برای مشاهده محتوا ، لطفا وارد شوید یا ثبت نام کنید
برای مشاهده محتوا ، لطفا وارد شوید یا ثبت نام کنید
برای مشاهده محتوا ، لطفا وارد شوید یا ثبت نام کنید
برای مشاهده محتوا ، لطفا وارد شوید یا ثبت نام کنید ...............و کلی دیگه که الان پنجرهاشون بستست.
اینم لینک اصلی شامل فیلم (YouTube فیلتره) و مشخصات تست اصلی بین GF100 و GTX285:
برای مشاهده محتوا ، لطفا وارد شوید یا ثبت نام کنید
Fudzilla هم در مورد همین بنچمارک مطالبی نوشته :
برای مشاهده محتوا ، لطفا وارد شوید یا ثبت نام کنید
mehrdad_ati
18-01-2010, 17:44
این تیکه جالبه :
جالب اینجاست که کارایی و قدرت کارتهای GF100 نسبت به GT200 در geometry performance بنا به ادعای nVidia تقریبا 8 برابر شده!
ادعاهایی میکنه این nvidia ها !
بچه ها این مطلب رو هم داشته باشید که 2 ناه دیگه این کارت میاد و میتونید تو تامز بنچ ها رو ببینید پس نیازی به paint و ... نیست .
این تیکه جالبه :
جالب اینجاست که کارایی و قدرت کارتهای GF100 نسبت به GT200 در geometry performance بنا به ادعای nVidia تقریبا 8 برابر شده!
ادعاهایی میکنه این nvidia ها !
بچه ها این مطلب رو هم داشته باشید که 2 ناه دیگه این کارت میاد و میتونید تو تامز بنچ ها رو ببینید پس نیازی به paint و ... نیست .
مسخره کردی!
این تیکه جالبه :
جالب اینجاست که کارایی و قدرت کارتهای GF100 نسبت به GT200 در geometry performance بنا به ادعای nVidia تقریبا 8 برابر شده!
ادعاهایی میکنه این nvidia ها !
به جای این حرف ها دلیل بیارید چرا ادعای nVidia غلطه یا چرا درسته؟
چند تا تصویر دیگه از presentation تازه ی nVidia :
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
تصاویر بیشتر :
برای مشاهده محتوا ، لطفا وارد شوید یا ثبت نام کنید
همان طور که hardocp 'گفته این نمودار ها چیزی جز تئوری نیست و تا این سری کارت بدستشون نرسه و تست نکنند هنوز هیچ چیز معلوم نیست پس زیاد شلوغش نکنید !!!
همان طور که hardocp 'گفته این نمودار ها چیزی جز تئوری نیست و تا این سری کارت بدستشون نرسه و تست نکنند هنوز هیچ چیز معلوم نیست پس زیاد شلوغش نکنید !!!
اینها به قول شما تئوری نیستند، بلکه نتایج آزمایش های خود nVidia اند. درست یا غلط اعتبار این آزمایشها ولی مشخص نیست.
این سری قراره در اولین فروش چند مدل داشته باشه؟چه قیمتی پیشبینی شده؟
این سری قراره در اولین فروش چند مدل داشته باشه؟چه قیمتی پیشبینی شده؟
نه قیمتشون معلومه، نه مصرف، نه صدا، نه دما و نه فرکانس.
مدل های اولش احتمالا GTX 380 و GTX 360 و کمی بعد یه کارت دو هسته ای.
سایت hardwarecanucks.com یه کار جالب کرده و سیستمی تقریبا مشابه سیستمی که nVidia از GF100 در بازی Farcry2 بنچمارک گرفته، جمع و جور کرده تا کارتهای GTX 285 و 5870 رو در شرایط یکسان با GF100 مقایسه کنه.
اختلاف نتیجه ی تست GF100 در سیستم hardwarecanucks.com با nVidia تنها 0.2 فریمه که نشان دهنده ی صحت تست nVidia ست.
نتیجه ی تست :
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
اختلاف بسیار زیاده. حدودا 20 فریم بیشتر از 5870 و بیش از 30 فریم نسبت به GTX 285 !
باید منتظر 5890 باشیم!
مقایسه ای هم در بازی Dark Void داشته. جایی که از Physx استفاده شده :
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
حدودا 30 فریم اختلاف! به لطف ساختار بهینه تر سخت افزار GF100 با Physx .
ali gamma
20-01-2010, 21:32
کلا تا یه بازی درست و حسابی که از dx 11 پشتیبانی کنه بیرون نیاد خرید این کارتا غیر معقولانه است
کلا تا یه بازی درست و حسابی که از dx 11 پشتیبانی کنه بیرون نیاد خرید این کارتا غیر معقولانه است
نه خوب این کارتها، پرفرمنس بهتر دارن به صورت کلی نسبت به نسل قبل حالا روی هر نسخه DX که باشه فرقی نداره.
سایت hardwarecanucks.com یه کار جالب کرده و سیستمی تقریبا مشابه سیستمی که nVidia از GF100 در بازی Farcry2 بنچمارک گرفته، جمع و جور کرده تا کارتهای GTX 285 و 5870 رو در شرایط یکسان با GF100 مقایسه کنه.
اختلاف نتیجه ی تست GF100 در سیستم hardwarecanucks.com با nVidia تنها 0.2 فریمه که نشان دهنده ی صحت تست nVidia ست.
نتیجه ی تست :
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
اختلاف بسیار زیاده. حدودا 20 فریم بیشتر از 5870 و بیش از 30 فریم نسبت به GTX 285 !
باید منتظر 5890 باشیم!
مقایسه ای هم در بازی Dark Void داشته. جایی که از Physx استفاده شده :
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
حدودا 30 فریم اختلاف! به لطف ساختار بهینه تر سخت افزار GF100 با Physx .
یعنی قیمت این کارت 600 هزار تومان به بالا هست.
شما فکر میکنید در نسبت قیمت به کارایی بهتر از سری 5000 ati باشه یا بدتر؟
یعنی قیمت این کارت 600 هزار تومان به بالا هست.
چجوری به این نتیجه رسیدید؟
شکی نیست دو یا سه کارت اول همه High end هستن و قیمت بالایی دارن بدون شک حداقل یکیشون بالای 400 هست حتی ممکنه خیلی بیشتر باشه چون در سابقه Nvidia همچین کارهایی وجود داره، با این حال نمیشه قیمت دقیق گفت تا Nvidia چیزی معرفی کنه. خیلی نمونده در طی هفتههای آینده بدون شک اخبار جدیدی میشنویم.
این اسلایدها رو Hardocp منتشر کرده که اسلایدهای رسمیه خوده Nvidia هست من چندتاش رو میزارم البته atheistboy صفحه قبل تعدادی عکسها رو گذاشتن و توضیحم دادن من دیگه توضیح نمیدم به توضیحاتش مراجعه کنید برای دیدن عکسها در اندازه بزرگتر هم به لینک برید:
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
برای مشاهده محتوا ، لطفا وارد شوید یا ثبت نام کنید
چجوری به این نتیجه رسیدید؟
روی حساب قدرت این کارت و قیمت های بالای کارتهای nvidia.البته اون را یادم رفته بود علامت سوالشو بزارم :31:.600 تومان را پرسیدم ببینم نظر شما چیه ولی اصلا این قیمت بعید نیست.من میگم خوش بینانه 500 تومان باید باشه
Codename 77
22-01-2010, 17:14
ببخشید دوستان من یه سوال داشتم ....
آیا درسته که قراره پردازش بعضی از برنامه توسط GPU های سری 300 صورت بگیره ؟ یعنی تمام بار رو GPU باشه .
ممنون .
mehrdad_ati
22-01-2010, 19:25
شاید یک روزی اگز gpgpu بتونه راهه خودش رو پیدا کنه و پردازش موازی هم با شکست مواجه نشه به کلی cpu ها محو بشن (چه خوش خیالم)
پیشبینی من در مورد gt300 اینه که حدود 15 درصد سریعتر از cypress هست. قیمت رو هم خدا میدونه . ولی با 3 بیلیون ترانزیستور و خنک کننده ای که براش نیازه .....
شاید یک روزی اگز gpgpu بتونه راهه خودش رو پیدا کنه و پردازش موازی هم با شکست مواجه نشه به کلی cpu ها محو بشن (چه خوش خیالم)
پیشبینی من در مورد gt300 اینه که حدود 15 درصد سریعتر از cypress هست. قیمت رو هم خدا میدونه . ولی با 3 بیلیون ترانزیستور و خنک کننده ای که براش نیازه .....
GPGPUنمیتونه اصلاً جای CPU رو بگیره خوبه خودتم اشاره کردی به پردازش موازی، آینده بدون شک پردازندهایه که آنچیپ CPU و GPU با هم دارن که خوب الانم نمونههایی موجوده یا شاید حتی جفتشون یه پردازنده بشن، ولی این نه ربطی به GPGPU داره نه پردازش موازی، پردازش موازی استفاده های خاص خودش رو داره.
D4NTE™®Ω
23-01-2010, 05:30
سلام
این هم یه عکس که تاریخ عرضه ی کارت های:
GTX 330, GTX340, GTX350, GTX360, GTX380, GTX395 رو گفته و 395 رو در Q3 لحاظ کرده، ولی شرط میبندم تا اون موقع تغییرات زیادی در Spec و شاید حتی تاریخش ایجاد شه.
برای مشاهده محتوا ، لطفا وارد شوید یا ثبت نام کنید
D4NTE™®Ω
23-01-2010, 17:49
سلام
اون بنچ مارك هايي هم كه گفتيد منبع نداره:
برای مشاهده محتوا ، لطفا وارد شوید یا ثبت نام کنیداينم خبرايي از 5890 و 5990 كه گفته بودين:
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
D4NTE™®Ω
23-01-2010, 19:57
سایت hardwarecanucks.com یه کار جالب کرده و سیستمی تقریبا مشابه سیستمی که nVidia از GF100 در بازی Farcry2 بنچمارک گرفته، جمع و جور کرده تا کارتهای GTX 285 و 5870 رو در شرایط یکسان با GF100 مقایسه کنه.
اختلاف نتیجه ی تست GF100 در سیستم hardwarecanucks.com با nVidia تنها 0.2 فریمه که نشان دهنده ی صحت تست nVidia ست.
نتیجه ی تست :
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
اختلاف بسیار زیاده. حدودا 20 فریم بیشتر از 5870 و بیش از 30 فریم نسبت به GTX 285 !
باید منتظر 5890 باشیم!
مقایسه ای هم در بازی Dark Void داشته. جایی که از Physx استفاده شده :
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
حدودا 30 فریم اختلاف! به لطف ساختار بهینه تر سخت افزار GF100 با Physx .
سلام
اين كه بيشتر از 0.2 فريمه:5::46:
سلام
اين كه بيشتر از 0.2 فريمه:5::46:
کجا 0.2؟
بعد اطلاعاتیم که در مورد GT300 گذاشتی بیشتر شبیه پیشبینیه تا خبر چون هنوز Nvidia به طور رسمی هیچ اطلاعاتی خاصی از کارتها ارائه نکرده مگه یسری چیزهای کلی از معماری.
D4NTE™®Ω
24-01-2010, 00:26
کجا 0.2؟
بعد اطلاعاتیم که در مورد GT300 گذاشتی بیشتر شبیه پیشبینیه تا خبر چون هنوز Nvidia به طور رسمی هیچ اطلاعاتی خاصی از کارتها ارائه نکرده مگه یسری چیزهای کلی از معماری.
سلام
1-چيو كجا 0.2 ؟؟ دارم مي گم تفاوت بيشتر از 0.2 فريم هست. نيست؟؟
2-به نظرت اين پيش بيني ها يه خبر محسوب نميشه ؟؟ به اين ها ميگن پوشاك مثلا؟؟!! خب خبر ديگه حالا به قول شما پيش بيني هم هست اما در كل اگر مشكلت سر كلمه هست باشه اينا پيش بينيه خبر نيست.
احتمال عرضهی نسل دوم Fermi در Q4 2010
Fudzilla ادعا کرده که اگه همه چیز خوب پیش بره، در اواخر 2010 شاهد عرضهی نسل دوم کارت گرافیکهای خانوادهی Fermi خواهیم بود.
در ضمن کارتهای mainstram فرمی تاخیر آنچنانی نخواهند داشت و احتمالا در March عرضه خواهند شد.
hassanshaikhi
25-01-2010, 17:35
سلام
اون بنچ مارك هايي هم كه گفتيد منبع نداره:
برای مشاهده محتوا ، لطفا وارد شوید یا ثبت نام کنیداينم خبرايي از 5890 و 5990 كه گفته بودين:
[ برای مشاهده لینک ، لطفا با نام کاربری خود وارد شوید یا ثبت نام کنید ]
کسی میدونه config core یعنی چی؟ و اون عدد های که زیرش نوشته چه معنی میدن؟؟
جوابش رو پیدا کردم :31:
Vertex shader : Pixel shader : Texture mapping unit : Render Output unit
morteza.m2n
25-01-2010, 17:38
پس چی شد این کارتها ی nvidia ؟
ati هر رزو داره کارتهای نسل جدید خودشو عرضه میکنه...
تا کی باید منتظر بود؟
vBulletin , Copyright ©2000-2025, Jelsoft Enterprises Ltd.