نفيديا ز

جدول المحتويات:
- كل شيء عن تقنية Nvidia G-Sync HDR
- صعوبات تنفيذ G-Sync HDR وتكلفته العالية
- تعمل تقنية Nvidia G-Sync HDR على تحسين تجربة اللعب
أحدثت تقنيات 4K و G-Sync و HDR ثورة في الطريقة التي نلعب بها بأجهزة الكمبيوتر الخاصة بنا ، على الرغم من أننا قد واجهنا المستخدمين شوكة لبعض الوقت ، حيث لم يكن من الممكن العثور على شاشة تجمع كل هذه التقنيات في منتج واحد. شيء تغير أخيرًا في أيدي G-Sync HDR وتقنية Nvidia ، هذه هي أحدث تقنية للشاشات من عملاق بطاقة الرسومات ، مما يضع تجربة اللعب على المستوى الذي حلمنا به دائمًا.
فهرس المحتويات
كل شيء عن تقنية Nvidia G-Sync HDR
حتى وصول G-Sync HDR ، كان على المستخدمين مواجهة قرار صعب عند شراء شاشة جديدة للعب ، حيث لم يكن من الممكن الحصول على وحدة تحتوي على لوحة عالية الجودة بدقة 4K وسلاسة كبيرة. اللعبة التي تقدمها G-Sync. ولدت G-Sync HDR لإنهاء هذه المشكلة ، لأنه لأول مرة يمكننا الحصول على شاشة بلوحة 4K من أفضل جودة ، ودعم HDR وتقنية G-Sync.
ولدت Nvidia G-Sync بغرض حل إحدى المشاكل الكبيرة لألعاب الكمبيوتر ، وهي عدم قدرة بطاقات الجرافيكس على الاحتفاظ بعدد من الصور في الثانية ، يتطابق مع معدل تحديث الشاشة. تتسبب هذه المشكلة في عدم تزامن بطاقة الرسومات والشاشة ، مما يؤدي إلى عيوب في الصورة تعرف باسم Stutter (التلعثم الصغير) والسمع (قطع في الصورة).
نوصي بقراءة منشوراتنا حول كيفية اختيار جهاز عرض ألعاب؟
G-Sync هي تقنية مسؤولة عن ضبط معدل تحديث الشاشة وفقًا لعدد الصور في الثانية التي ترسلها بطاقة الرسومات ، وبالتالي تحقيق التزامن المثالي. وينتج عن ذلك تجربة ألعاب سلسة للغاية ، بدون أي تقطع أو قطع في الصورة. كانت الخطوة التالية هي إضافة HDR للحصول على أفضل تجربة.
صعوبات تنفيذ G-Sync HDR وتكلفته العالية
لم يكن من السهل إنشاء تقنية G-Sync HDR ، لأنه لجعل من الممكن اللجوء إلى Intel وأحد FPGA الخاصة بها. على وجه التحديد ، يتم استخدام Intel Altera Arria 10 GX 480 ، وهو معالج متقدم للغاية وقابل للبرمجة للغاية يمكن ترميزه لمجموعة واسعة من التطبيقات. يرافق Intel Altera Arria 10 GX 480 هذه ذاكرة بسعة 3 جيجابايت من الذاكرة DDR4 2400 ميجاهرتز المصنعة من قبل ميكرون ، وهو مكون مكلف للغاية حاليًا. كل هذا يعني أن تنفيذ G-Sync HDR ليس رخيصًا على الإطلاق ، حيث يُقدر أنه يضيف تكلفة إضافية تقارب 500 دولار أمريكي إلى نفس الشاشة ، ولكن بدون هذه التقنية.
تتعلق صعوبة أخرى في تنفيذ G-Sync HDR بحدود النطاق الترددي لمواصفات DisplayPort 1.4 و HDMI 2.0b. تولد صورة 4K 144 Hz مع HDR و G-Sync حجمًا من المعلومات يتجاوز سعة هذه المعايير ، وهي الأكثر تقدمًا في الوجود. لحل هذه المشكلة ، كان من الضروري تقليل اختزال Chroma من 4: 4: 4 إلى 4: 2: 2. ويترجم هذا إلى خسارة طفيفة في دقة الألوان ، على الرغم من أن الشركات المصنعة تؤكد أنه ضئيل وأن الفوائد تفوق بكثير هذا العيب الصغير. إذا لم نرد أن نعاني هذا الفقد في أخذ عينات Chroma الفرعية ، فيجب أن نتقبل معدل تحديث يبلغ 120 هرتز.
تعمل تقنية Nvidia G-Sync HDR على تحسين تجربة اللعب
عملت Nvidia بجد مع الشركات المصنعة الرئيسية للشاشة لتحسين هذه التقنية إلى أقصى حد ، مع هذا سيكون لدينا ضمان أن جودة الصورة المقدمة لنا هي الحد الأقصى الممكن مع التكنولوجيا الحالية. سيتم القضاء على فقدان Chroma الفرعي لأخذ العينات عندما يتوفر لدينا مواصفات HDMI 2.1 و DisplayPort 5 الجديدة.
نوصي بقراءة منشورنا حول مراجعة Asus ROG Swift PG27UQ باللغة الإسبانية (تحليل كامل)
هناك عيب كبير آخر هو القوة اللازمة لنقل الألعاب الرائدة إلى 4K و 144 Hz ، ببساطة لا توجد بطاقة رسومات يمكنها القيام بذلك. هذا يخلق حالة حيث يكون من الضروري اللجوء إلى تكوينات SLI ، أي تجميع عدة بطاقات معًا على نفس جهاز الكمبيوتر. تكوينات SLI باهظة الثمن ، خاصة إذا اعتمدنا على أقوى بطاقات الرسومات مثل Nvidia GeForce GTX 1080 Ti ، التي يبلغ سعرها حوالي 800 يورو. المشكلة الأخرى المتمثلة في تجميع ورقتين معًا هي كمية كبيرة من الحرارة المتولدة ، مما يجعل من الضروري وجود نظام تبريد كبير في الكمبيوتر. لدينا بالفعل فكرة عن تكلفة استخدام G-Sync HDR.
كانت الصعوبة الرئيسية الأخرى في تنفيذ HDR على هذه الشاشات ، بشكل عام 32 بوصة كحد أقصى. هنا نتحدث عن تجربة HDR حقيقية ، والتي تتطلب سطوعًا لا يقل عن 1000 شمعة في المتر المربع ، والذي كان من الضروري تثبيت 384 منطقة إضاءة على الشاشة ، مما يوفر تباينًا عاليًا بشكل استثنائي ANSI. إن تنفيذ العديد من مناطق الإضاءة على شاشة 32 بوصة ليس سهلاً عندما تريد تحقيق أفضل نتيجة ممكنة.
هنا ننهي منشورتنا على G-Sync HDR: ما هي وماذا. إذا كان لديك أي أسئلة ، يمكنك ترك تعليق لنا أدناه أو تحتاج إلى معرفة رأي وتجربة مجتمع أجهزة جيد جدًا ، يمكنك التسجيل مجانًا في منتدى الأجهزة المتخصص لدينا. نريد أن نعرف رأيك!
حرق أول نفيديا GTX590

بعد ثلاثة أيام فقط من إطلاق وحدة الرسوميات المزدوجة الجديدة من Nvidia: Geforce GTX590. رفاق TechPowerUP و SweClockers ، شهدوا
نفيديا جيتسون TX1 ، نفيديا تنضم إلى الذكاء الاصطناعي

تنضم Nvidia إلى قطاع الذكاء الاصطناعي وتعرض لوحة Nvidia Jetson TX1 على إمكانات كبيرة داخل الروبوتات
راي نفيديا ، يقول نفيديا إنه من الجنون شراء وحدة معالجة رسومات بدونها

ذكر Jensen Huang من Nvidia أنه من الجنون شراء بطاقة رسومات جديدة تفتقر إلى دعم Ray Tracing.