فناوری های اختصاصی-سخت افزاری از جمله جذاب ترین مباحث این حوزه به شمار می رود که کاربران علاقمند به مطالعه آن هستند؛ وب سایت “سخت افزار” نیز از ابتدای کار تا کنون همواره در پی ارائه مطالب تخصصی مرتبط با این مقوله گام برداشته و موارد متعددی را برای شما عزیزان منتشر نموده ایم. در همین راستا اینبار به جدید ترین مباحث مرتبط با فناوری سخت افزاری NVIDIA G-Sync می پردازیم. با ما همراه باشید.
G-Sync
انجام بازی های کامپیوتری را می توان یکی از سخت ترین بخش های علوم سخت افزار دانست که از سالهای دور تا کنون در حال تکامل و پیشرفت بوده است. از توسعه نرم افزار گرفته تا سخت افزار، هزاران مشکل و مانع بر سر راه آن قرار داشته است؛ با این وجود هم اینک شاهد اوج این مهم در صنعت کامپیوتر هستیم. مواردی از جمله زمان بازسازی تصاویر در پنل نمایشگر (Refresh Rate) و پاسخ به فرکانس (Respond Time) از جمله مواردی است که لزوم توجه به آنها برای انجام یک بازی روان همواره مورد بحث است. کمپانی NVIDIA در سال 2013 به فکر برداشتن موانع در این زمینه افتاده و با هدف بهبود دو مقوله یاد شده، تکنولوژی G-Sync را به صورت اختصاصی معرفی نمود. اما G-Sync به طور دقیق چه مشکلاتی را از سر راه بر می داشت؟ “لکنت” یا “پارگی” در تصاویر که اصطلاحا Screen Tearing خوانده می شود، لذت انجام بازی ها با کیفیت مناسب را از کاربران می گرفت؛ اما ریشه Screen Tearing در چیست؟ در برخی موارد، سیگنال های ویدئویی که از کارت گرافیک به خروجی و سپس مانیتور یا نمایشگر منتقل می گردد، با فرکانس و سیگنال های مانیتور همخوانی نداشته و منجر به نمایش خطوط افقی یا پارگی تصویر در یک یا چند مرحله می گردد.
در طی سال های 2012 تا 2014 مطالعات فراوانی در زمینه تولید نرم افزار هایی با هدف افزایش فریم به صورت تکراری، نمونه برداری اسلایدی، شناسایی پیکسل های نمایش داده شده و… انجام گرفت تا نرخ های خروجی کارت گرافیک با نمایشگرها یکسان شده و زمان تاخیر نیر به حداقل برسد. البته G-Sync تنها فناوری نبود که به همگام سازی (Sync) اهمیت داده و برای رفع مشکلات آن تلاش می کرد؛ مجموعه قوانین VESA در بخش Adaptive-Sync نیز از جمله توسعه دهندگان این حوزه بودند. انویدیا اینترفیس DisplayPort 1.2a را به عنوان حداقل رابط مورد استفاده تصویب کرده و به خودی خود موجب افزایش استفاده از آن در کارت گرافیک های GTX/TITAN شد. همانطور که گفته شد نسخه اولیه فناوری G-Sync در سال 2013 معرفی شد و حداقل کارت گرافیکی که می توانست از آن استفاده نماید، NVIDIA GeForce GTX 650Ti به بالا است. درایور R340.52 به بالا نیز قادر به هندل آن هستند. تمامی سیستم عامل های مایکروسافت از ویندوز 7 به بعد و همچنین سیستم عامل لینوکس نیز با G-Sync همخوانی کامل دارند. این فناوری با تمامی پنل های VA/IPS/LPS/TN سازگاری کامل دارد. G-Sync تنها به عنوان یک فناوری نرم افزاری شناخته نمی شود و برای استفاده از آن علاوه بر پشتیبانی، نیازمند یک تراشه-سخت افزاری هستیم. فناوری G-Sync به همراه یک ماژول عرضه می گردد که بر اساس مدار مجتمع FPGA ساخته شده است.
این ماژول با فرآیند TSMC 28LP تولید گشته که از شرکای قدیمی انویدیا است. در این ماژول از تراشه های رم DDR3L DRAM با ظرفیت حداکثر 768 مگابایت استفاده شده است. تولید کنندگان مانیتور تنها این تراشه را به ورودی های تصویری ترمینال کرده و از آن استفاده می کنند. بسیاری از تولید کنندگان مانیتور اعم از ACER، Samsung، ASUS، Philips، Benq، Dell و… از جمله برندهایی هستند که از G-Sync به طور عمده در نمایشگر و مانیتورهای خود استفاده می کنند. در جدول زیر می توانید شاهد کارت گرافیک هایی باشید که در کلاس دسکتاپ از این فناوری پشتیبانی می کنند:
Kepler | Kepler (refresh) | Maxwell | Pascal |
GeForce GTX 650 Ti Boost | GeForce GTX 760 | GeForce GTX 745 | GeForce GTX 1050 |
GeForce GTX 660 | GeForce GTX 770 | GeForce GTX 750 | GeForce GTX 1050 Ti |
GeForce GTX 660 Ti | GeForce GTX 780 | GeForce GTX 750 Ti | GeForce GTX 1060 |
GeForce GTX 670 | GeForce GTX 780 Ti | GeForce GTX 950 | GeForce GTX 1070 |
GeForce GTX 680 | GeForce GTX Titan | GeForce GTX 960 | GeForce GTX 1080 |
GeForce GTX 690 | GeForce GTX Titan Black | GeForce GTX 965M | GeForce GTX 1080 Ti |
GeForce GTX Titan Z | GeForce GTX 970 | GeForce GTX Titan X | |
GeForce GTX 970M | GeForce GTX Titan Xp | ||
GeForce GTX 980 | |||
GeForce GTX 980M | |||
GeForce GTX 980 Ti | |||
GeForce GTX Titan X |
نکته: در نوت بوک ها نیز شاهد پشتیبانی از این فناوری هستیم؛ کارت گرافیک های NVIDIA Polaris که دقیقا در نوت بوک ها نیز استفاده شده اند، G-Sync را هندل کرده اما در نسل های پیشین مانند Maxwell در کنار عناوین شاهد پسوند M بودیم؛ آنها نیز از G-Sync پشتیبانی می کنند. در نوت بوک ها، تراشه G-Sync مانند دسکتاپ نبوده اما کارایی یکسان است.
در برخی بازی ها شاهد استفاده از گزینه V-Sync هستیم؛ وی سینک در منوی تنظیمات با هدف کنترل خروجی کارت گرافیک با مانیتور و تطابق آنها استفاده می گردد؛ با این وجود گزینه V-Sync می تواند موجب تاخیر در سیگنال ورودی و به طبع فشار بیشتر بر روی GPU و کارت گرافیک می گردد. در نتیجه عملکرد کلی را در Gameplay تغییر دهد. اما در اینجا یک سوال وجود دارد؛ چگونه G-Sync بهتر از V-Sync است؟ در حالی که V-Sync برای بهبود شکست تصاویر خروجی کارت گرافیک را کنترل می کند، G-Sync به طور مستقیم نمایشگر را برای رسیدن سیگنال ویدئویی کارت گرافیک کنترل می کند. افزون بر آن، G-Sync برخی باگ و اشکلات غیر قابل اجتناب V-Sync را حذف کرده است. V-Sync گاها مجبور به پایین آوردن سیگنال کارت گرافیک برای سازگاری با مانیتور می گردد که بسیار بیش از حد استاندارد است. اما G-Sync نرخ Refresh Rate مانیتور را بالا برده و یا کنترل می کند و حتی می توان زمانبندی GPU را پیشبینی کرده و از این رو عملکرد بهتری را ارائه می دهد.
جدید ترین نسخه فناوری G-Sync به تازگی، در سال 2017 و در جریان نمایشگاه CES 2017 معرفی شد؛ این فناوری تنها یک ارتقاء کلی را به همراه داشت و آن هم پشتیبانی از فناوری HDR بود. در نتیجه هم اینک شاهد پشتیبانی G-Sync از HDR و HDR 10 هستیم. در برنامه بعد به معرفی AMD FreeSync خواهیم پرداخت؛ اما در این مطلب به یکی از مهمترین تفاوت های آنها اشاره خواهیم کرد. فناوری FreeSync دقیقا کاربردی مشابه با NVIDIA G-Sync را ارائه می دهد اما تفاوت هایی در آنها وجود دارد. به عنوان مثال AMD برای Adaptive Sync از یک الگوریتم مشابه با V-Sync بهره می برد و G-Sync در نرخ فریم پایین در پردازش های گرافیکی شدید، عملکرد بهتری را ارائه می دهد. در نتیجه FreeSync گاها مشکلات سنتی V-Sync را به همراه دارد. تفاوت عمده دیگر آنها در وجود تراشه است؛ جی سینک نیازمند وجود یک تراشه مجزا است که در اواسط متن بدان اشاره شد؛ اما FreeSync یک فناوری استاندارد باز است که به عنوان یک تکنولوژی در مانیتور و نمایشگرها مورد استفاده قرار می گیرد. در نتیجه با هزینه کمتر مورد استفاده قرار می گیرد و به همین علت مانیتورهایی که از AMD FreeSync بهره می برند دارای قیمتی به مراتب کمتر از مدل های دارای G-Sync هستند. تولید کنندگان مانیتور با برخی تغییرات در برد دیجیتال، قادر به استفاده از AMD FreeSync هستند و این در حالی است که برای استفاده از G-Sync در لپ تاپ یا مانیتورها نیازمند استفاده از ماژول آن هستیم. امروزه G-Sync به خوبی از 4K و HDR پشتیبانی می کند و عملکردی بهتر از AMD FreeSync را اما با قیمت بالاتر ارائه می دهد.
در مطلب بعدی به معرفی فناوری AMD FreeSync خواهیم پرداخت.
سلام دوست عزیز
مانیتور با فناوری جی سینک انتخاب بهتری است
آقا به نظرتون نمایشگر 120 هرتز بدون جی سینک بهتره یا 60 هرتز با جی سینک؟
آقای رستمی و بعضی از دوستان محترم چرا زیر هر پستی که میبینید بحث انیتل و ای ام دی رو پیش میکشید ؟؟؟
اینجا داستان مربوط به سینک هست، پست رو اشتباه اومدی ، داداچ!
رایزن از همون اول نسبت به کارایی و قیمت قافیه رو برده دیگه داد و بیدادهای فن بوهای اینتل تاثیری تو اون نداره
حاجی تو دیگه زیادی تو نقشت فرو رفتی=))=))=))=))=))=))
تازه اگه تو ایران سایتی برای فروش باشه
ااااااگه سه میلیون باشه … نه بیشتر
ماژول؟!!!!!
این تکنولوژی در کارتهای گرافیک انویدیا بکار رفته.باید مانیتور با پشتیبانی از gsync داشته باشد.
کلا چیز خاصی نیست که بخاطرش مانیتور رو عوض کنید مگه اینکه از همون اول چنین مانیتوری گرفته باشید.
یعنی باید یه ماژول حافظه که قابلیت g-sync رو همراه خودش داره نصب کنیم و بعد همه چی اوکی هست؟
خیر
لینک ([url]”https://us.hardware.info/product/273163/asus-vx24ah/specifications”[/url])
این مانیتوره G-Sync داره ؟
http://lioncomputer.ir/product/5450/مانیتور+ایسوس+24+اینچ+VX24AH+WQHD/
:-bd:-bd
سی پی یو 170$ با تکنولوژی و معماری جدید یا 340 دلاری ؟؟؟ مساله اینست
[img]https://i.gyazo.com/b3cf6e2e0f97a82285398552c42f56da.png[/img]
برای حرفه ایها ، بنظرتون produe سه ملیون تومنی بهینه تره یا 1080 دو و نیم ملیونی؟
لینک ([url]”http://wccftech.com/amd-radeon-pro-duo-dual-polaris-10-graphics-card/”[/url])
لینک ([url]”http://www.anandtech.com/show/10967/amd-announces-freesync-2-improving-ease-lowering-latency-of-hdr-gaming”[/url])