نفيديا 【كل المعلومات】
جدول المحتويات:
- تاريخ نفيديا
- نفيديا غيفورسي ونفيديا باسكال ، تسيطران على الألعاب
- الذكاء الاصطناعي وهندسة فولتا
- يمر مستقبل نفيديا من خلال تورينج وأمبير
- NVIDIA G-Sync ، إنهاء مشكلات مزامنة الصور
شركة Nvidia Corporation ، والمعروفة باسم Nvidia ، هي شركة تكنولوجيا أمريكية تأسست في ولاية ديلاوير ومقرها في سانتا كلارا ، كاليفورنيا. تصمم Nvidia وحدات معالجة الرسومات لألعاب الفيديو والأسواق الاحترافية ، بالإضافة إلى نظام وحدة الرقائق (SoC) لسوق الحوسبة الآلية والمحمولة. خط إنتاجها الأساسي ، GeForce ، في منافسة مباشرة مع منتجات AMD's Radeon.
نوصي بقراءة أفضل أجهزة الكمبيوتر وأدلة المكونات:
بالإضافة إلى تصنيع وحدات معالجة الرسومات ، توفر Nvidia إمكانات معالجة متوازية في جميع أنحاء العالم للباحثين والعلماء ، مما يمكنهم من تشغيل التطبيقات عالية الأداء بكفاءة. في الآونة الأخيرة ، انتقلت إلى سوق الحوسبة المتنقلة ، حيث تنتج معالجات Tegra المحمولة لوحدات تحكم ألعاب الفيديو والأجهزة اللوحية وأنظمة الملاحة المستقلة والترفيه في السيارة. وقد أدى ذلك إلى أن تصبح Nvidia شركة تركز على أربعة أسواق منذ عام 2014 : الألعاب ، والتصور الاحترافي ، ومراكز البيانات ، والذكاء الاصطناعي والسيارات.
فهرس المحتويات
تاريخ نفيديا
تأسست Nvidia في عام 1993 من قبل Jen-Hsun Huang و Chris Malachowsky و Curtis Priem. افترض المؤسسون الثلاثة للشركة أن الاتجاه الصحيح للحوسبة سوف يمر بمعالجة تسريع الرسومات ، معتقدين أن نموذج الحوسبة هذا يمكن أن يحل المشاكل التي لا يمكن أن تحلها الحوسبة للأغراض العامة. وأشاروا أيضًا إلى أن ألعاب الفيديو هي من أكثر المشكلات صعوبة في الحساب ، ولديها أحجام مبيعات عالية بشكل لا يصدق.
من شركة ألعاب فيديو صغيرة إلى عملاق ذكاء اصطناعي
ولدت الشركة برأس مال أولي قدره 40000 دولار ، ولم يكن لها اسم في البداية ، وقام المؤسسون بتسمية جميع ملفات NV الخاصة بها ، كما هو الحال في "الإصدار التالي". تسببت الحاجة إلى دمج الشركة في قيام المؤسسين بمراجعة جميع الكلمات بهذه الحرفين ، مما أدى بهم إلى "invidia" ، وهي الكلمة اللاتينية التي تعني "الحسد".
عزز إطلاق RIVA TNT في عام 1998 سمعة Nvidia لتطوير محولات الرسومات. في أواخر عام 1999 ، أصدرت Nvidia GeForce 256 (NV10) ، والذي قدم بشكل خاص التحول والإضاءة على مستوى المستهلك (T & L) في الأجهزة ثلاثية الأبعاد. تعمل بسرعة 120 ميجاهرتز وتتميز بأربعة أسطر من وحدات البكسل ، وقد قامت بتطبيق تسريع الفيديو المتقدم وتعويض الحركة ومزج الصورة الفرعية للأجهزة. تفوقت GeForce على المنتجات الحالية بفارق كبير.
نظرًا لنجاح منتجاتها ، فازت Nvidia بعقد تطوير أجهزة الرسومات لوحدة تحكم ألعاب Xbox من Microsoft ، وحصلت على Nvidia مقدمًا بمبلغ 200 مليون دولار. ومع ذلك ، أخذ المشروع العديد من أفضل مهندسيه من المشاريع الأخرى. على المدى القصير ، لم يكن هذا مهمًا ، وتم شحن GeForce2 GTS في صيف عام 2000. في ديسمبر 2000 ، توصلت Nvidia إلى اتفاق للحصول على الأصول الفكرية لخصمها 3dfx الوحيد ، الرائد في تقنية الرسومات ثلاثية الأبعاد للمستهلك. الذي قاد المجال من منتصف التسعينات إلى عام 2000. وانتهت عملية الاستحواذ في أبريل 2002.
في يوليو 2002 ، استحوذت نفيديا على Exluna مقابل مبلغ لم يكشف عنه من المال. كانت Exluna مسؤولة عن إنشاء أدوات عرض برامج مختلفة. في وقت لاحق ، في أغسطس 2003 ، استحوذت نفيديا على MediaQ مقابل 70 مليون دولار تقريبًا. كما استحوذت على iReady ، مزود حلول TCP / IP و iSCSI عالية الأداء في 22 أبريل 2004.
كان نجاح Nvidia رائعًا جدًا في سوق ألعاب الفيديو ، حيث تم الإعلان في ديسمبر 2004 عن أنها ستساعد Sony في تصميم معالج رسومات PlayStation 3 RSX ، وهي وحدة تحكم ألعاب الفيديو من الجيل الجديد من الشركة اليابانية التي كان لديها مهمة صعبة لتكرار نجاح سلفه ، الأكثر مبيعا في التاريخ.
في ديسمبر 2006 ، تلقت نفيديا اقتباسات من وزارة العدل الأمريكية. فيما يتعلق بالانتهاكات المحتملة لمكافحة الاحتكار في صناعة بطاقات الرسومات. في ذلك الوقت أصبحت AMD منافستها العظيمة بعد شراء ATI من قبل الأخيرة. منذ ذلك الحين ، كانت AMD و Nvidia هما المصنعان الوحيدان لبطاقات رسومات ألعاب الفيديو ، ولا تنسى رقائق Intel المتكاملة.
صنفت مجلة فوربس نفيديا أفضل شركة للعام لعام 2007 ، مستشهدة بالإنجازات التي حققتها على مدى السنوات الخمس الماضية. في 5 يناير 2007 ، أعلنت Nvidia أنها أكملت الاستحواذ على PortalPlayer، Inc ، وفي فبراير 2008 ، استحوذت Nvidia على Ageia ، مطور محرك الفيزياء PhysX ووحدة معالجة الفيزياء التي تدير هذا المحرك. أعلنت Nvidia أنها تخطط لدمج تقنية PhysX في منتجات GeForce GPU المستقبلية.
واجهت Nvidia صعوبة كبيرة في يوليو 2008 ، عندما تلقت انخفاضًا في الإيرادات بنحو 200 مليون دولار تقريبًا بعد أن تم الإبلاغ عن أن بعض شرائح الهواتف المحمولة ووحدات معالجة الرسومات المحمولة التي تنتجها الشركة لديها معدلات فشل غير طبيعية بسبب عيوب التصنيع. في سبتمبر 2008 ، أصبحت نفيديا موضوع دعوى قضائية جماعية من قبل المتضررين ، مدعية أن وحدات معالجة الرسوميات المعيبة قد تم دمجها في نماذج معينة من أجهزة الكمبيوتر المحمولة المصنعة من قبل Apple و Dell و HP. انتهت المسلسلات الدرامية في سبتمبر 2010 ، عندما توصلت Nvidia إلى اتفاق بأن أصحاب أجهزة الكمبيوتر المحمولة المتأثرة سيتم تعويضهم عن تكلفة الإصلاحات أو ، في بعض الحالات ، استبدال المنتج.
في نوفمبر 2011 ، أصدرت Nvidia نظام شريحة ARG Tegra 3 للأجهزة المحمولة بعد تقديمه في البداية في المؤتمر العالمي للجوال. زعمت Nvidia أن الشريحة تضم أول وحدة معالجة مركزية متنقلة رباعية النوى. في يناير 2013 ، قدمت Nvidia Tegra 4 ، بالإضافة إلى Nvidia Shield ، وهي وحدة تحكم محمولة للألعاب تعمل بنظام Android تعمل بواسطة المعالج الجديد.
في 6 مايو 2016 ، طرحت Nvidia كروت الجرافيك GeForce GTX 1080 و 1070 ، أولها يعتمد على معمارية باسكال الصغيرة الجديدة. ادعى نفيديا أن كلا الطرازين تفوقا على نموذج تيتان X القائم على ماكسويل. تتضمن هذه البطاقات ذاكرة GDDR5X و GDDR5 على التوالي ، وتستخدم عملية تصنيع 16 نانومتر. تدعم بنية Pascal أيضًا ميزة الأجهزة الجديدة المعروفة باسم الإسقاط المتعدد المتزامن (SMP) ، والتي تم تصميمها لتحسين جودة العرض المتعدد للشاشات والواقع الافتراضي. مكنت باسكال من تصنيع أجهزة الكمبيوتر المحمولة التي تلبي معيار تصميم Nvidia Max-Q.
في مايو 2017 ، أعلنت Nvidia عن شراكة مع Toyota Motor Corp والتي ستستخدم الأخيرة بموجبها منصة الذكاء الاصطناعي سلسلة Nvidia's Drive X لمركباتها المستقلة. في يوليو 2017 ، أعلنت Nvidia وعملاق البحث الصيني Baidu، Inc. عن شراكة قوية للذكاء الاصطناعي تشمل الحوسبة السحابية والقيادة المستقلة والأجهزة الاستهلاكية وإطار عمل Baidu AI ، PaddlePaddle.
نفيديا غيفورسي ونفيديا باسكال ، تسيطران على الألعاب
GeForce هو اسم العلامة التجارية لبطاقات الرسومات القائمة على وحدات معالجة الرسومات (GPUs) التي أنشأتها Nvidia من عام 1999. حتى الآن ، عرفت سلسلة GeForce ستة عشر جيلًا منذ بدايتها. تأتي الإصدارات التي تركز على المستخدمين المحترفين لهذه البطاقات تحت اسم Quadro ، وتتضمن بعض الميزات المميزة على مستوى السائق. منافسة GeForce المباشرة هي AMD مع بطاقات Radeon الخاصة بها.
باسكال هو الاسم الرمزي لأحدث معمارية مصغرة GPU تم تطويرها بواسطة Nvidia والتي دخلت سوق ألعاب الفيديو ، كخليفة لهندسة Maxwell السابقة. تم تقديم بنية Pascal لأول مرة في أبريل 2016 مع إطلاق Tesla P100 للخوادم في 5 أبريل 2016. حاليًا ، يتم استخدام Pascal في المقام الأول في سلسلة GeForce 10 ، مع GeForce GTX 1080 و GTX تم إصدار أول بطاقات ألعاب فيديو 1070 مع هذه البنية ، في 17 مايو 2016 و 10 يونيو 2016 على التوالي. يتم تصنيع Pascal باستخدام عملية TSF 16nm FinFET ، مما يسمح لها بتقديم كفاءة وأداء طاقة فائقين مقارنةً بـ Maxwell ، الذي تم تصنيعه في 28nm FinFET.
يتم تنظيم بنية باسكال داخليًا فيما يعرف باسم المعالجات المتعددة المتدفقة ( SM) ، وهي الوحدات الوظيفية التي تتكون من 64 نواة CUDA ، والتي تنقسم بدورها إلى كتلتين من 32 نواة CUDA لكل منهما منهم مصحوبًا بمخزن تعليمات ، ومخطط سدى ، ووحدتي رسم خرائط نسيج ووحدتين إرسال. محركات الأقراص SM هذه هي مكافئة لوحدات CU الخاصة بـ AMD.
تم تصميم بنية Nvidia's Pascal لتكون الأكثر كفاءة وتقدمًا في عالم الألعاب. بذل فريق Nvidia الهندسي الكثير من الجهد في إنشاء بنية GPU قادرة على سرعات عالية جدًا للساعة ، مع الحفاظ على استهلاك ضيق للطاقة. لتحقيق ذلك ، تم اختيار تصميم دقيق للغاية ومحسّن في جميع دوائره ، مما أدى إلى قدرة Pascal على الوصول إلى تردد أعلى بنسبة 40٪ من ماكسويل ، وهو رقم أعلى بكثير مما سمحت به العملية عند 16 نانومتر دون كل التحسينات على مستوى التصميم.
تعد الذاكرة عنصرًا أساسيًا في أداء بطاقة الجرافيكس ، فقد تم الإعلان عن تقنية GDDR5 في عام 2009 ، لذا فقد أصبحت قديمة بالفعل بالنسبة لأقوى بطاقات الجرافيكس اليوم. هذا هو السبب في أن باسكال يدعم ذاكرة GDDR5X ، التي كانت أسرع واجهة ذاكرة قياسية وأكثرها تقدمًا في التاريخ وقت إطلاق بطاقات الرسومات هذه ، لتصل إلى سرعات نقل تصل إلى 10 جيجابت في الثانية أو ما يقرب من 100 بيكو ثانية بين البتات. البيانات. كما تسمح ذاكرة GDDR5X لبطاقة الجرافيكس باستهلاك طاقة أقل مقارنة بـ GDDR5 ، حيث أن جهد التشغيل 1.35 فولت ، مقارنة بـ 1.5 فولت أو أكثر التي تحتاجها شرائح GDDR5 الأسرع. هذا الانخفاض في الجهد يترجم إلى تردد تشغيل أعلى بنسبة 43٪ بنفس استهلاك الطاقة.
يأتي ابتكار باسكال هام آخر من تقنيات ضغط الذاكرة دون فقدان الأداء ، مما يقلل من الطلب على GPU. يتضمن باسكال الجيل الرابع من تقنية ضغط الألوان في دلتا. باستخدام ضغط ألوان دلتا ، تقوم وحدة معالجة الرسومات بتحليل المشاهد لحساب وحدات البكسل التي يمكن ضغط معلوماتها دون التضحية بجودة المشهد. في حين أن بنية Maxwell لم تكن قادرة على ضغط البيانات المتعلقة ببعض العناصر ، مثل الغطاء النباتي وأجزاء السيارة في لعبة Project Cars ، فإن Pascal قادرة على ضغط معظم المعلومات عن هذه العناصر ، وبالتالي تكون أكثر كفاءة من ماكسويل. ونتيجة لذلك ، فإن باسكال قادر على تقليل عدد البايتات التي يجب استخراجها من الذاكرة بشكل كبير. هذا التخفيض في البايت يُترجم إلى 20٪ إضافية من عرض النطاق الترددي الفعال ، مما يؤدي إلى زيادة 1.7 ضعف عرض النطاق الترددي باستخدام ذاكرة GDDR5X مقارنة مع GDDR5 وهندسة Maxwell.
يقدم باسكال أيضًا تحسينات مهمة فيما يتعلق بالحوسبة غير المتزامنة ، وهو أمر مهم جدًا نظرًا لأن أعباء العمل حاليًا معقدة للغاية. بفضل هذه التحسينات ، فإن هندسة Pascal أكثر كفاءة في توزيع الحمل بين جميع وحدات SM المختلفة ، مما يعني أنه لا يوجد أي نوى CUDA غير مستخدمة. هذا يسمح بتحسين GPU ليكون أكبر بكثير ، والاستفادة بشكل أفضل من جميع الموارد التي لديها.
يلخص الجدول التالي أهم ميزات جميع بطاقات GeForce المستندة إلى Pascal.
بطاقات رسومات NVIDIA GEFORCE PASCAL |
||||||
نوى CUDA | التردد (ميجاهرتز) | الذاكرة | واجهة الذاكرة | عرض نطاق الذاكرة (جيجا بايت / ثانية) | TDP (W) | |
NVIDIA GeForce GT1030 | 384 | 1468 | 2 جيجا بايت GDDR5 | 64 بت | 48 | 30 |
NVIDIA GeForce GTX1050 | 640 | 1455 | 2 جيجا بايت GDDR5 | 128 بت | 112 | 75 |
NVIDIA GeForce GTX1050Ti | 768 | 1392 | 4 جيجا بايت GDDR5 | 128 بت | 112 | 75 |
NVIDIA GeForce GTX1060 3 جيجابايت | 1152 | 1506/1708 | 3 جيجابايت GDDR5 | 192 بت | 192 | 120 |
NVIDIA GeForce GTX1060 6 جيجابايت | 1280 | 1506/1708 | 6 جيجا بايت GDDR5 | 192 بت | 192 | 120 |
NVIDIA GeForce GTX1070 | 1920 | 1506/1683 | 8 جيجابايت GDDR5 | 256 بت | 256 | 150 |
NVIDIA GeForce GTX1070Ti | 2432 | 1607/1683 | 8 جيجابايت GDDR5 | 256 بت | 256 | 180 |
NVIDIA GeForce GTX1080 | 2560 | 1607/1733 | 8 جيجا بايت GDDR5X | 256 بت | 320 | 180 |
NVIDIA GeForce GTX1080 Ti | 3584 | 1480/1582 | 11 جيجا بايت GDDR5X | 352 بت | 484 | 250 |
NVIDIA GeForce GTX Titan Xp | 3840 | 1582 | 12 جيجا بايت GDDR5X | 384 بت | 547 | 250 |
الذكاء الاصطناعي وهندسة فولتا
تُستخدم وحدات معالجة الرسومات من Nvidia على نطاق واسع في مجالات التعلم العميق والذكاء الاصطناعي والتحليل المتسارع لكميات كبيرة من البيانات. طورت الشركة تعلمًا عميقًا استنادًا إلى تقنية GPU ، من أجل استخدام الذكاء الاصطناعي لمعالجة مشاكل مثل اكتشاف السرطان والتنبؤ بالطقس ومركبات القيادة الذاتية ، مثل Tesla الشهيرة.
هدف Nvidia هو مساعدة الشبكات على تعلم "التفكير ". تعمل GPUs من Nvidia بشكل جيد بشكل استثنائي لمهام التعلم العميق لأنها مصممة للحوسبة المتوازية ، وتعمل بشكل جيد للتعامل مع عمليات المتجه والمصفوفة التي تسود في التعلم العميق. يتم استخدام وحدات معالجة الرسومات الخاصة بالشركة من قبل الباحثين والمختبرات وشركات التكنولوجيا والمؤسسات التجارية. في عام 2009 ، شاركت نفيديا في ما كان يسمى الانفجار الكبير للتعلم العميق ، حيث تم دمج الشبكات العصبية للتعلم العميق مع وحدات معالجة الرسومات الخاصة بالشركة. في نفس العام ، استخدم Google Brain GPUs Nvidia لإنشاء شبكات عصبية عميقة قادرة على التعلم الآلي ، حيث قرر أندرو Ng أنه يمكنهم زيادة سرعة أنظمة التعلم العميق بنسبة 100 مرة.
في أبريل 2016 ، قدمت Nvidia الكمبيوتر العملاق DGX-1 المعتمد على مجموعة GPU-8 لتعزيز قدرة المستخدمين على استخدام التعلم العميق من خلال الجمع بين وحدات معالجة الرسومات والبرامج المصممة خصيصًا. طورت Nvidia أيضًا الأجهزة الافتراضية Nvidia Tesla K80 و P100 المستندة إلى GPU ، والمتوفرة من خلال Google Cloud ، والتي قامت Google بتثبيتها في نوفمبر 2016. وأضافت Microsoft خوادم بناءً على تقنية GPU Nvidia في معاينة لسلسلة N الخاصة بها ، بناء على بطاقة تسلا K80. دخلت Nvidia أيضًا في شراكة مع IBM لإنشاء مجموعة برامج تزيد من قدرات الذكاء الاصطناعي لوحدات معالجة الرسومات الخاصة بها. في عام 2017 ، تم أيضًا تقديم وحدات معالجة الرسوميات الخاصة بـ Nvidia عبر الإنترنت في مركز RIKEN لمشروع الذكاء المتقدم لفوجيتسو.
في مايو 2018 ، أدرك الباحثون في قسم الذكاء الاصطناعي في Nvidi a إمكانية أن يتعلم الروبوت القيام بعمل ما عن طريق ملاحظة الشخص الذي يقوم بنفس العمل. لتحقيق ذلك ، أنشأوا نظامًا ، بعد مراجعة واختبار موجز ، يمكن استخدامه الآن للتحكم في الجيل التالي من الروبوتات العالمية.
Volta هو الاسم الرمزي للمعمارية الدقيقة الأكثر تقدمًا GPU التي طورتها Nvidia ، وهي العمارة التي خلفت Pascal وتم الإعلان عنها كجزء من طموح خارطة الطريق في مارس 2013. تم تسمية الهندسة المعمارية بعد Alessandro Volta الفيزيائي والكيميائي والمخترع للبطارية الكهربائية. لم تصل بنية Volta إلى قطاع الألعاب ، على الرغم من أنها فعلت ذلك مع بطاقة الرسومات Nvidia Titan V ، التي تركز على قطاع المستهلك والتي يمكن استخدامها أيضًا في معدات الألعاب.
بطاقة Nvidia Titan V هي بطاقة رسومات أساسية GV100 وثلاثة مكدسات ذاكرة HBM2 ، كل ذلك في حزمة واحدة. تحتوي البطاقة على إجمالي 12 جيجا بايت من ذاكرة HBM2 التي تعمل من خلال واجهة ذاكرة 3072 بت. تحتوي وحدة معالجة الجرافيكس الخاصة به على أكثر من 21 مليون ترانزستور و 5،120 نوى CUDA و 640 نوى Tensor لتقديم 110 أداء TeraFLOPS في التعلم العميق. ترددات التشغيل هي 1200 ميجاهرتز قاعدة و 1455 ميجاهرتز في وضع توربو ، بينما تعمل الذاكرة عند 850 ميجاهرتز ، مما يوفر عرض نطاق ترددي يبلغ 652.8 جيجابايت / ثانية. تم الإعلان مؤخرًا عن إصدار إصدار الرئيس التنفيذي يزيد الذاكرة حتى 32 جيجابايت.
أول بطاقة رسومية تم تصنيعها بواسطة Nvidia مع بنية Volta كانت Tesla V100 ، والتي تعد جزءًا من نظام Nvidia DGX-1. تستخدم Tesla V100 نواة GV100 التي تم إصدارها في 21 يونيو 2017. تم تصميم وحدة معالجة الرسومات Volta GV100 في عملية تصنيع Finnet 12 نانومتر ، مع ذاكرة HBM2 بسعة 32 جيجابايت قادرة على توفير ما يصل إلى 900 جيجابايت / ثانية من النطاق الترددي.
كما يجلب Volta إلى الحياة أحدث Nvidia Tegra SoC ، المسمى Xavier ، والذي تم الإعلان عنه في 28 سبتمبر 2016. يحتوي Xavier على 7 مليار ترانزستور و 8 نوى ARMv8 مخصصة ، إلى جانب وحدة معالجة الرسوميات Volta مع 512 نواة CUDA و TPU من مفتوح المصدر (وحدة معالجة Tensor) تسمى DLA (Deep Learning Accelerator). يمكن لـ Xavier ترميز الفيديو وفك ترميزه بدقة 8K Ultra HD (7680 × 4320 بكسل) في الوقت الفعلي ، وكلها مع TDP من 20-30 وات وحجم يموت يقدر بنحو 300 مم 2 بفضل عملية التصنيع 12. نانومتر FinFET.
تتميز هندسة فولتا بكونها أول من يضم نواة Tensor Core ، المصممة خصيصًا لتقديم أداء فائق في مهام التعلم العميق مقارنة بنوى CUDA العادية. Tensor Core عبارة عن وحدة تضرب مصفوفتين FP16 4 × 4 ثم تضيف مصفوفة FP16 أو FP32 ثالثة إلى النتيجة ، باستخدام عمليات الجمع والضرب المدمجة ، والحصول على نتيجة FP32 التي يمكن تخفيضها بشكل اختياري إلى نتيجة FP16. تهدف نوى الموتر إلى تسريع تدريب الشبكة العصبية.
يبرز Volta أيضًا بما في ذلك واجهة NVLink الخاصة المتقدمة ، وهو بروتوكول اتصال قائم على الأسلاك لاتصالات أشباه الموصلات قصيرة المدى التي طورتها Nvidia ، والتي يمكن استخدامها لنقل رمز البيانات والتحكم في أنظمة المعالج بناءً على وحدة المعالجة المركزية ووحدة معالجة الرسومات وتلك القائمة على وحدة معالجة الرسومات فقط. يحدد NVLink اتصالاً من نقطة إلى نقطة بمعدلات بيانات 20 و 25 جيجابت / ثانية لكل مسار بيانات ولكل عنوان في نسخته الأولى والثانية. يبلغ إجمالي معدلات البيانات في أنظمة العالم الحقيقي 160 و 300 غيغابايت / ثانية للمجموع الكلي لتدفقات بيانات الإدخال والإخراج. تم تقديم منتجات NVLink حتى الآن للتركيز على مساحة التطبيق عالية الأداء. تم الإعلان عن NVLINK لأول مرة في مارس 2014 ويستخدم اتصال إشارة خاص عالي السرعة تم تطويره وتطويره بواسطة Nvidia.
يلخص الجدول التالي أهم ميزات البطاقات المستندة إلى Volta:
بطاقات رسومات NVIDIA VOLTA |
||||||||
نوى CUDA | موتر الأساسية | التردد (ميجاهرتز) | الذاكرة | واجهة الذاكرة | عرض نطاق الذاكرة (جيجا بايت / ثانية) | TDP (W) | ||
تسلا V100 | 5120 | 640 | 1465 | 32 جيجابايت HBM2 | 4096 بت | 900 | 250 | |
GeForce Titan V | 5120 | 640 | 1200/1455 | 12 جيجا بايت HBM2 | 3،072 بت | 652 | 250 | |
إصدار GeForce Titan V CEO | 5120 | 640 | 1200/1455 | 32 جيجابايت HBM2 | 4096 بت | 900 | 250 |
يمر مستقبل نفيديا من خلال تورينج وأمبير
سيكون هيكلان Nvidia المستقبليين هما Turing و Ampere وفقًا لجميع الشائعات التي ظهرت حتى الآن ، فمن المحتمل أنه عندما تقرأ هذا المنشور ، تم الإعلان عن أحدهما رسميًا بالفعل. في الوقت الحالي ، لا يُعرف شيء مؤكد عن هذين البنائين ، على الرغم من أنه قيل أن تورينج سيكون نسخة مبسطة من Volta لسوق الألعاب ، في الواقع من المتوقع أن تصل بنفس عملية التصنيع عند 12 نانومتر.
يبدو Ampere مثل العمارة اللاحقة لـ Turing ، على الرغم من أنها يمكن أن تكون أيضًا خليفة Volta لقطاع الذكاء الاصطناعي. لا يوجد شيء معروف على الإطلاق حول هذا ، على الرغم من أنه يبدو من المنطقي أن نتوقع وصوله المصنعة في 7 نانومتر. تشير الشائعات إلى أن Nvidia ستعلن عن بطاقات GeForce الجديدة في Gamecom في الشهر التالي من شهر أغسطس ، وعندها فقط سنترك الشكوك حول ما سيكون عليه Turing أو Ampere ، إذا ظهرت بالفعل.
NVIDIA G-Sync ، إنهاء مشكلات مزامنة الصور
G-Sync هي تقنية مزامنة تكيفية خاصة تم تطويرها بواسطة Nvidia ، والهدف الأساسي منها هو القضاء على تمزق الشاشة والحاجة إلى بدائل في شكل برامج مثل Vsync. تقضي G-Sync على تمزق الشاشة من خلال إجبارها على التكيف مع معدل إطارات جهاز الإخراج ، وبطاقة الرسومات ، بدلاً من تكييف جهاز الإخراج مع الشاشة ، مما يؤدي إلى تمزق الصورة الشاشة.
لكي تكون الشاشة متوافقة مع G-Sync ، يجب أن تحتوي على وحدة أجهزة باعتها Nvidia. أصدرت AMD (الأجهزة الدقيقة المتقدمة) تقنية مشابهة لشاشات العرض ، تسمى FreeSync ، والتي لها نفس وظيفة G-Sync ولكنها لا تتطلب أي جهاز معين.
أنشأت Nvidia وظيفة خاصة لتجنب احتمال أن يكون الإطار الجديد جاهزًا أثناء رسم نسخة مكررة على الشاشة ، وهو أمر يمكن أن يؤدي إلى تأخير و / أو تلعثم ، وتتوقع الوحدة التحديث وتنتظر اكتمال الإطار التالي. يصبح تحميل Pixel الزائد أيضًا مضللاً في سيناريو تحديث غير ثابت ، وتتنبأ الحلول بموعد التحديث التالي ، وبالتالي يجب تنفيذ قيمة زيادة السرعة وتعديلها لكل لوحة لتجنب الظلال.
تعتمد الوحدة على عائلة Altera Arria V GX FPGA مع عناصر منطقية 156K و 396 كتلة DSP و 67 قناة LVDS. يتم إنتاجه في عملية TSMC 28LP ويتم دمجه مع ثلاث شرائح لإجمالي 768 ميجابايت من ذاكرة DDR3L DRAM ، لتحقيق عرض نطاق ترددي معين. يتميز FPGA المستخدم أيضًا بواجهة LVDS للتحكم في لوحة الشاشة. الغرض من هذه الوحدة هو استبدال المتسلقين المشتركين والاندماج بسهولة من قبل الشركات المصنعة للشاشات ، الذين يحتاجون فقط لرعاية لوحة دائرة إمداد الطاقة ووصلات الإدخال.
واجهت G-Sync بعض الانتقادات بسبب طبيعتها الخاصة ، وحقيقة أنه لا يزال يتم الترويج لها عند وجود بدائل مجانية ، مثل معيار VESA Adaptive-Sync ، وهي ميزة اختيارية لـ DisplayPort 1.2a. في حين أن FreeSync من AMD يعتمد على DisplayPort 1.2a ، تتطلب G-Sync وحدة Nvidia مصنوعة بدلاً من المتسلق المعتاد على الشاشة لبطاقات الرسومات Nvidia GeForce للعمل بشكل صحيح ، كونها متوافقة مع Kepler و Maxwell و Pascal و فولتا.
تم اتخاذ الخطوة التالية باستخدام تقنية G-Sync HDR ، والتي كما يوحي اسمها ، تضيف قدرات HDR لتحسين جودة صورة الشاشة بشكل كبير. لجعل هذا ممكنًا ، كان لا بد من تحقيق قفزة كبيرة في الأجهزة. يستخدم هذا الإصدار الجديد من G-Sync HDR معالج Intel Altera Arria 10 GX 480 FPGA ، وهو معالج متطور للغاية وقابل للبرمجة للغاية يمكن ترميزه لمجموعة واسعة من التطبيقات ، مصحوبة بذاكرة DDR4 2400MHz 3 جيجا بايت المصنعة بواسطة Micron. هذا يجعل سعر هذه المراقبين أكثر تكلفة.
هنا ينتهي منشورنا على كل ما عليك معرفته عن Nvidia. تذكر أنه يمكنك مشاركتها على الشبكات الاجتماعية بحيث تصل إلى المزيد من المستخدمين. يمكنك أيضًا ترك تعليق إذا كان لديك أي اقتراح أو شيء لإضافته.
نفيديا جيتسون TX1 ، نفيديا تنضم إلى الذكاء الاصطناعي
تنضم Nvidia إلى قطاع الذكاء الاصطناعي وتعرض لوحة Nvidia Jetson TX1 على إمكانات كبيرة داخل الروبوتات
نفيديا RTX 【جميع المعلومات】
لدينا بالفعل بطاقات رسومات NVIDIA RTX الجديدة. من الطراز الرائد: NVIDIA RTX 2080 Ti ، إلى النموذج لمعظم اللاعبين بدقة 4K:
▷ نفيديا كوادرو 【كل المعلومات】؟
جميع المعلومات حول بطاقات الرسومات الاحترافية من Nvidia Quadro: الخصائص والتصميم والأداء والمزايا والعيوب ✅