الحاسوب الفائق (بالإنجليزية: Supercomputer) أو الحاسوب الخارق، أو الحاسوب العملاق هو حاسوب ذو إمكانيات هائلة جداً يستخدم لمعالجة كم هائل جداً من البيانات وله القدرة على تخزين كم هائل جداً من البياناتوالمعلوماتوالبرامج وهو لا يصلح للاستخدام الشخصي أو على مستوى مؤسسة محدودة إنما يستخدم على نطاق دولي حيث يمكنه ربط شبكة حاسبات آلية كبيرة جداً على نطاق واسع.
لقد تم استخدام مصطلح الحوسبة الفائقة "Super Computing" لأول مرة في New York World عام 1929 للإشارة إلى أجهزة تنظيم الجداول العملاقة التي قامت IBM بصناعتها لجامعة كولومبيا.
والجدير بالذكر أن أجهزة الحاسوب العملاقة قدمت في الستينات، وصممت في البداية من قبل «سيمور كراي» في Control Data Corporation، وبعد ذلك في Cray Research. في حين أن أجهزة الحاسوب العملاقة التي صممت في السبعينات كانت تستخدم عدد قليل من المعالجات فقط، إلا أنه في التسعينات، بدأت الآلات التي تحتوي على آلاف المعالجات في الظهور، وبحلول نهاية القرن العشرين، أصبحت أجهزة الحاسوب العملاقة المتوازية التي تمتلك عشرات الآلاف من المعالجات هي المعيار الأساسي لهذه الأجهزة.[2][3]
فالأنظمة ذات العدد الهائل من المعالجات، عادة ما تسلك أحد المسارين: النهج الأول، على سبيل المثال، في الحوسبة الشبكية تكون قوة معالجة عدد كبير من الحواسيب في المجالات الإدارية الموزعة والمتنوعة تنتهز الفرصة لاستخدامها كلما كان جهاز الحاسوب متاح. وفي النهج الآخر، يستخدم عدد كبير من المعالجات على مقربة من بعضها البعض، على سبيل المثال، في الحوسبة العنقودية. إن استخدام معالجات متعددة الأنوية جنباً إلى جنب مع المعالجات المركزية هو اتجاه ناشي.[4][5] واعتباراً من نوفمبر 2012، أصبح حاسب Cray Titan العملاق هو أسرع حاسوب في العالم.
وتلعب أجهزة الحاسوب العملاقة دوراً هاماً في مجال العلوم الحاسوبية، كما أنها تستخدم من أجل مجموعة واسعة من المهام المكثفة حسابياً في مختلف المجالات، بما فيها ميكانيكا الكم، التنبؤ بالطقس، أبحاث المناخ، التنقيب عن النفط والغاز، النمذجة الجزيئية (حوسبة تركيب وخواص المركبات الكيميائية، الجزيئات البيولوجية، البوليمرات والبلورات)، المحاكاة الفيزيائية (مثل محاكاة الطائرات في أنفاق الرياح، محاكاة تفجير الأسلحة النووية وأبحاث الاندماج النووي).
التاريخ
يرجع تاريخ الحوسبة العملاقة إلى الستينات، عندما صممت سلسلة من الحواسيب في Control Data Corporation بواسطة «سيمور كراي» بهدف استخدام التصاميم المبتكرة والتوازي لتحقيق أداء هائل في الذروة الحسابية.[6] هذا وقد أُطلق CDC 6600 عام 1964، والذي يعتبر عمومًا هو أول حاسوب عملاق.[7][8]
ومن ناحية أخرى، فقد ترك «كراي» مركز CDC عام 1972 ليؤسس شركته الخاصة.[9] وبعد أربع سنوات من مغادرته CDC، قام «كراي» بإطلاق (80 MHz Cray 1) عام 1976، والذي أصبح واحد من أكثر أجهزة الحاسوب العملاقة نجاحاً في التاريخ.[10][11] كما أصدر (Cray-2) عام 1985، والذي كان عبارة عن حاسوب ذي 8 معالجات ذات تبريد سائل تضخ مادة Fluorinert من خلاله أثناء عمله. وكان يعمل بسرعة 1.9 جيجا فلوب، مما جعله الأسرع في العالم حتي 1990.[12]
في حين أن أجهزة الحاسوب العملاقة التي طرحت في الثمانينات لم تستخدم سوى عددا قليلا فقط من المعالجات، إلا أنه في التسعينات، بدأت الأجهزة التي تمتلك آلاف المعالجات في الظهور في كل من الولايات المتحدة واليابان، محققة أرقاماً قياسية جديدة في الأداء الحسابي. حيث استخدم الحاسوب العملاق Numerical Wind Tunnel التابع لشركة Fujitsu، 166 معالج موجه للحصول على المركز الأول في عام 1994 مع سرعة ذروة وصلت إلى 1.7 جيجا فلوب لكل معالج.[13][14] أما Hitachi SR2201، فقد حصل على أعلى مستويات الأداء بـ 600 جيجا فلوب عام 1996 عن طريق استخدام 2048 معالج متصل عن طريق شبكة عارضة سريعة ثلاثية الأبعاد.[15][16][17] في حين أن Intel Paragon يمكن أن يكون قد امتلك من 1000إلى 4000 معالج Intel i860 في تشكيلات مختلفة، وقد تم تصنيفه على أنه الأسرع في العالم عام 1993. وقد كان Paragon عبارة عن جهاز (MIMD) يقوم بتوصيل المعالجات عن طريق شبكة عالية السرعة ذات أبعاد ثنائية، والتي تسمح للمعالجات بتنفيذ العمليات في عقد منفصلة، وتتواصل عن طريق واجهة تمرير الرسائل[18] (Message Passing Interface).
المكونات والمعمارية
لقد اتخذت مناهج معمارية الحواسيب العملاقة منعطفات درامية منذ أن قدم أول نظام في الستينات. فمعمارية الحواسيب العملاقة الأولي والتي كان رائدها «سيمور كراي» اعتمدت على التصاميم المبتكرة والتوازي المحلي لتحقيق أداء حسابي متفوق.[6]
وبينما استخدمت الحواسيب العملاقة في السبعينات عدد قليل من المعالجات، إلا أنه في التسعينات، بدأت الأجهزة التي تستخدم آلاف المعالجات في الظهور بحلول نهاية القرن العشرين. ومن هذا المنطلق، أصبحت أجهزة الحواسيب العملاقة المتوازية التي تمتلك عشرات الآلاف من المعالجات هي المعيار الأساسي لهذه الأجهزة. ويمكن لأجهزة الحواسيب العملاقة في القرن 21 أن تستخدم أكثر من 100.000 معالج (بعضها وحدات رسم) متصلة بواسطة اتصالات سريعة.[2][3] طوال العقود الماضية، ظلت إدارة كثافة الحرارة قضية رئيسية بالنسبة لمعظم أجهزة الحاسوب العملاقة المركزية.[19][20][21] حيث أن كمية الحرارة الكبيرة المتولدة من النظام ربما يكون لها آثار أخرى أيضاً، على سبيل المثال، تخفيض العمر الافتراضي لمكونات النظام الأخرى.[22] ولذلك، فقد نشأت توجهات متنوعة لإدارة الحرارة، بدءاً من ضخ Fluorinert خلال النظام، وصولاً إلى نظام التبريد الهجين عن طريق الهواء والسوائل أو تبريد الهواء عن طريق درجة حرارة تكييف الهواء العادي.[12][23]
إن الأنظمة ذات العدد الهائل من المعالجات، عادة ما تسلك أحد المسارين: النهج الأول، المعروف بالحوسبة الشبكية حيث تكون قوة المعالجة في العدد الكبير من الحواسيب متنوعة في مجالات الإدارة والتوزيع وتنتهز الفرصة لاستخدامها كلما كان أي جهاز حاسوب متاحا. وفي النهج الآخر، يتم استخدام عدد كبير من المعالجات على مقربة من بعضها البعض، على سبيل المثال، في الحوسبة العنقودية. وفي مثل هذا النظام المركزي المتوازي الضخم تصبح سرعة ومرونة الربط مهمة جداً، وتستخدم الحواسيب العملاقة الحديثة مناهج مختلفة تتنوع بين أنظمة Infiniband وصولاً إلى الرقاقات ثلاثية الأبعاد.[24][25] ويعتبر استخدام المعالجات متعددة الأنوية جنباً إلى جنب مع المعالجات المركزية هو أحد الاتجاهات الناشئة حديثاً كما هو الحال في نظام Cyclops64.[4][5] وحيث أن سعر/أداء معالجات الرسومات المخصصة للأغراض العامة (GPGPUs) قد تحسن، فقد بدأت عدد من أجهزة الحاسوب العملاقة ذات سرعة " petaflop" مثل Tianhe-I و Nebulae بالاعتماد عليها.[26] ومع ذلك، فإن الأنظمة الأخرى مثل " K computer" استمرت في استخدام المعالجات التقليدية مثل SPARC وكان الاستعمال العام لمعالجات وحدات معالجة الرسومات في تطبيقات الحوسبة عالية الأداء محل نقاش دائم.[27] وعلى أية حال، فإن وحدات معالجة الرسومات ""GPU تكتسب شعبية لا بأس بها، وفي عام 2012 حوّل الحاسب العملاق Jaguarإلى Titan عن طريق استبدال وحدات المعالجة المركزية "CPU" بوحدات معالجة رسومات "GPU".[28][29][30] وقد صممت عدة أنظمة «الأغراض الخاصة»، المكرسة لمشكلة واحدة. ويسمح هذا باستخدام رقائق FPGA المبرمجة خصيصاً أو حتي رقائق VLSI التقليدية، والتي توفر معدلات أسعار/أداء أفضل عن طريق التضحية بالعمومية. وتتضمن الأمثلة الخاصة بالحواسيب العملاقة المتخصصة [31] Belle، [32] Deep Blue و [33] Hydra من أجل لعب الشطرنج، Gravity Pipe[34] من أجل الفيزياء الفلكية، MDGRAPE-3 من أجل حساب بنية البروتين الجزيئية[35] و Deep Crack[36] من أجل كسر شفرات DES.
استخدام الطاقة وإدارة الحرارة
الحاسوب العملاق التقليدي يستهلك كميات كبيرة من الطاقة الكهربائية، ويحول الغالبية العظمي منها تقريباً إلى حرارة والتي تتطلب عملية التبريد. على سبيل المثال، Tianhe-1A يستهلك 4.04 ميجا وات من الكهرباء.[37] ويمكن أن تكون تكلفة تشغيل وتبريد النظام كبيرة جداً، على سبيل المثال، 4 ميجا وات * 0.10 دولار لكل كيلو وات تصبح النتيجة الإجمالية 400 دولار في الساعة أو حوالي 3.5 مليون دولار في السنة.
إن إدارة الحرارة تعتبر قضية رئيسية في الأجهزة الإلكترونية المعقدة، وتؤثر على أنظمة الحاسوب القوية بعدد من الطرق المختلفة.[38] إن تصميم الطاقة الحرارية وطاقة وحدة المعالجة المركزية المستهلكة هي قضايا تتجاوز تلك التقنيات التبريدية الخاصة بالحواسيب التقليدية. وجوائز الحوسبة العملاقة الخاصة بالحوسبة الخضراء تعكس هذه القضية.[39][40][41] إن تجميع آلاف المعالجات مع بعضها البعض يولد بالتأكيد كميات ضخمة من الكثافة الحرارية التي تحتاج إلى التعامل معها. لقد كان Cray 2 يعمل بنظام تبريد سائل، واستخدم Fluorinert «شلال تبريد» والذي يتم ضخه من خلال الوحدات تحت الضغط.[12] ومع ذلك، فإن نهج التبريد بالسائل المغمور لم يكن عملي للأنظمة متعددة المقصورات والتي تعتمد على المعالجات الجاهزة للاستخدام، وفي نظام System X طوّر نظام تبريد خاص بالاشتراك مع شركة Liebert والذي دمج بين تكييف الهواء مع التبريد السائل.[23]
أما في نظام Blue Gene تعمدت IBM استخدام المعالجات منخفضة الطاقة للتعامل مع كثافة الحرارة.[42] ومن ناحية أخرى، فإن IBM Power 775 الذي أطلق عام 2011، قد قام بتجميع العناصر التي تحتاج إلى مياه تبريد بشكل وثيق.[43] ومن الناحية الأخرى، فقد استخدم IBM Aquasar system تبريد المياه الساخنة لتحقيق الكفاءة في استخدام الطاقة، حيث كان يتم استخدام المياه لتدفئة المباني كذلك.[44][45] وتقاس كفاءة استخدام الطاقة في أنظمة الحاسوب عمومًا من حيث «فلوب لكل وات».[46][47] وفي 2008، عمل نظام Roadrunner التابع لشركة IBM بقوة 376 [48][49] MFLOPS/Watt. وفي نوفمبر 2010، وصل Blue Gene/Qإلى 1684 MFLOPS/Watt. أما في يونيو 2011، فإن أعلى مركزين في قائمة Green 500 قد أحتلت من قبل ماكينات Blue Gene في نيويورك (واحد منهم حقق 2097 MFLOPS/W) مع مُركب DEGIMA في ناغازاكي والذي حل ثالثاً مع 1375 MFLOPS/W.[50]
إدارة البرمجيات والنظام
نظام التشغيل
منذ نهاية القرن العشرين، خضعت أنظمة الحواسيب العملاقة لعدد من التحولات الكبري، نظرا لما طرأ من تغييرات في معمارية وتكوين هذه الأجهزة.[51] فبينما كانت الأنظمة الأولي مصممة خصيصاً لكل حاسوب عملاق [3] لإكسابه السرعة، كان يجب على الاتجاه أن يبتعد عن أنظمة التشغيل المحلية والاتجاه إلى تطويع برامج عامة مثل اللينكس.[52]
ومعرفة أن هذه الحواسيب العملاقة الحديثة المتوازية تقوم بفصل العمليات الحسابية عن الخدمات الأخرى عن طريق استخدام أنواع متعددة من العقد، فهي عادة ما تعمل بأنظمة تشغيل مختلفة على العقد المختلفة، على سبيل المثال – استخدام نواة صغيرة وخفيفة الوزن وذات كفاءة مثل CNK أو CNL على عُقد الحوسبة، ولكن يستخدم نظام أكبر مثل أحد مشتقات اللينكس على المخدم وعُقد الدخل والخرج.[53][54][55]
بينما في نظام الحاسوب متعدد المستخدمين التقليدي تكون جدولة الوظائف هي في الواقع مشكلة المهام للمعالجة والمصادر المحيطة، ولكن في النظام الموازي على نطاق واسع، يحتاج نظام إدارة الوظائف إلى إدارة توزيع كلا من الموارد الحاسوبية والاتصالات، وكذلك التعامل بأمان مع فشل الأجهزة الذي لا مفر منه عندما يكون هناك عشرات الآلاف من المعالجات موجودة.[56]
ورغم أن معظم الحواسيب العملاقة الحديثة تستخدم نظام التشغيل لينكس، إلا أن كل مُنتج قد وضع تغييراته الخاصة على النظام الذي يستخدمه، ولا يوجد هناك معيار ثابت للصناعة، ويرجع ذلك بشكل من الأشكال إلى حقيقة الاختلافات الموجودة في مكونات الأجهزة والتي تتطلب تغييرات لملائمة نظام التشغيل مع كل تصميم.[51][57]
أدوات البرمجيات وتمرير الرسائل
إن الأبنية الموازية للحواسيب العملاقة غالباً ما تحتاج لاستخدام تقنيات برمجة خاصة لاستغلال سرعتهم الفائقة. وتشمل أدوات البرمجيات الخاصة بالمعالجة الموزعة واجهات API تقليدية مثل MPI و PVM، VTL، وحلول البرمجيات القائمة على البرمجيات مفتوحة المصدر من مثل Beowulf. في السيناريوهات الأكثر شيوعاً، تستخدم البيئات مثل PVM و MPI الخاصة بالعناقيد المتصلة بحرية و OpenMP لإحكام استخدام ذاكرة آلات المشتركة. ويتطلب بذل جهد كبير من أجل تحسين خوارزمية لخصائص الربط الذي سيعمل عليها الجهاز، والهدف منذ ذلك هو منع أي وحدة من وحدات المعالجة المركزية من إضاعة الوقت في انتظار بيانات من العقد الأخرى. وتمتلك وحدات معالجة الرسومات العامة المئات من أنوية المعالجة ويتم برمجتها باستخدام نماذج البرمجة مثل CUDA.
الحوسبة العملاقة الموزعة
نهج الانتهازية (المناهج النفعية)
إن الحوسبة العملاقة الانتهازية هو شكل من أشكال شبكات الحوسبة الشبكية والتي بموجبها يقوم «حاسوب ظاهري عملاق» ذو آلات حوسبة عديدة متباعدة بتنفيذ مهام حوسبة كبيرة جداً. وقد تم تطبيق الحوسبة الشبكية على عدد من المشاكل الموازية الحرجة على نطاق واسع والتي تتطلب مقاييس أداء الحوسبة العملاقة. ومع ذلك، فإن مناهج الشبكة الأساسية والحوسبة السحابية التي تعتمد على الحوسبة التلقائية لا يمكن أن تعالج مهمات الحوسبة العملاقة التقليدية مثل المحاكاة الديناميكية للسوائل. إن أسرع نظام حوسبة شبكية هو مشروع الحوسبة الموزعة Folding@home. ويذكر أن Folding@home كانت تبلغ سرعته 8.1 بيتافلوب من قوة معالجة x86 وذلك في مارس 2012. من بين هذه السرعة هناك 5.8 بيتافلوب مساهمة من العملاء الذين يعملون على وحدات معالجة الرسومات المتنوعة، و 1.7 بيتافلوب تأتي من أنظمة البلاي ستيشن 3، والبقية تأتي من أنظمة وحدات المعالجة المركزية المختلفة.[59] وتستضيف منصة BOINC عدداً من مشاريع الحوسبة الموزعة. واعتباراً من مايو 2011، سجلت BOINC قوة معالجة بلغت أكثر من 5.5 بيتافلوب من خلال أكثر من 480.000 حاسوب نشط على الشبكة.[60] أما المشروع الأكثر نشاطاً (يقاس بواسطة قوة الحوسبة) MilkyWay@home، فقد سجل قوة معالجة أكثر من 700 تيرافلوب من خلال أكثر من 33.000 حاسوب نشط.[61] واعتباراً من مايو 2011م، قام Mersenne Prime التابع لمؤسسة GIMPS بتحقيق حوالي 60 تيرافلوب من خلال أكثر من 25.000 جهاز حاسوب مسجل.[62] ويقوم Internet PrimeNet Server بدعم نهج الحوسبة الشبكية الخاص بـ GIMPS، والذي يعتبر واحد من أقدم وأنجح مشاريع الحوسبة الشبكية منذ عام 1997. وفي2012م، صنع «سيمون كوكس» حاسوب عملاق يتكون من 64 جهاز Raspberry Pi. وقد أُطلق على الجهاز اسم Iridis-Pi. وقد بلغت تكلفة النظام بأكمله أقل من 2.500 جنيه استرليني (باستثناء المفاتيح) وبمجموع كلي من الذاكرة بلغ 1 تيرا بايت (بطاقات ذاكرة SD بسعة 16 جيجا بايت لكل جهاز Raspberry Pi).[63]
المناهج شبه الانتهازية (المناهج النفعية ظاهريا)
إن الحوسبة العملاقة الشبه انتهازية هي شكل من أشكال الحوسبة الموزعة والتي يقوم بموجبها «حاسوب ظاهري عملاق» ذو عدد كبير من الحواسيب صاحبة الشبكات المشتتة جغرافيا بأداء مهام حوسبة تتطلب قوة معالجة ضخمة.[64] وتهدف الحوسبة العملاقة الشبه انتهازية إلى توفير جودة أعلى للخدمة من الحوسبة الشبكية الانتهازية عن طريق تحقيق مزيد من السيطرة على توزيع المهام على المصادر المختلفة واستخدام تبادل المعلومات حول توافر وموثوقية الأنظمة الفردية داخل شبكة الحوسبة العملاقة. ومع ذلك، ينبغي تحقيق توزيع شبه الانتهازية الخاصة بطلب برامج الحوسبة المتوازية في الشبكات من خلال تنفيذ اتفاقيات توزيع الشبكات بحكمة، والأنظمة الفرعية المشاركة في التوزيع، وآليات توزيع الاتصالات المتعلقة بالطوبولوجيا، ومكتبات تمرير رسائل الخطأ والبيانات سابقة التكييف.[64]
قياس الأداء
القدرة مقابل السعة
تهدف الحواسيب العملاقة عموماً لتحقيق القدرة القصوى في قدرات الحوسبة بدلاً من سعة الحوسبة. وعادة ما يُعتقد أن قدرة الحوسبة تستخدم قوة الحوسبة القصوى لحل مشكلة كبيرة واحدة في أقصر وقت ممكن. وغالباً ما يكون نظام القدرة الحوسبية قادر على حل مشكلة ذات حجم أو تعقيد لا يمكن لأجهزة الحاسوب الأخرى حلها، على سبيل المثال تطبيق محاكاة معقدة جداً للطقس.[65] وفي المقابل، يُعتقد عادة أن سعة الحوسبة تستخدم قوة حوسبة ذات كفاءة غير مكلفة لحل عدد صغير من المشاكل الكبيرة نوعاً أو عدد كبير من المشاكل الصغيرة، على سبيل المثال، طلبات دخول العديد من المستخدمين لقاعدة بيانات أو موقع ويب. إن المعماريات التي تصلح لدعم العديد من المستخدمين من أجل المهام اليومية ربما يكون لديها الكثير من القدرات ولكنها لا تعتبر عادة حواسيب عملاقة، نظراً لأنها لا تستطيع حل مشكلة معقدة واحدة.[65]
مقاييس الأداء
عمومًا، تقاس سرعة الحواسيب العملاقة وتقييمها عن طريق "FLOPS" (عمليات النقطة العائمة في الثانية) وليس من حيث MIPS أي (التعليمات في الثانية الواحدة)، كما هو الحال مع أجهزة الحاسوب المخصصة للأغراض العامة.[66] هذه القياسات عادة ما تُستخدم مع بادئة SI (سوابق النظام الدولي للوحدات) مثل تيرا-، جنباً إلى جنب مع الاختزال «تيرا فلوب» (1012 فلوب، تعني تيرا فلوب)، أو بيتا-، جنباً إلى جنب مع الاختزال «بيتا فلوب» (1015 فلوب، تعني بيتا فلوب). أما الحواسيب العملاقة بسرعة "Petascale" فيمكنها العمل بسرعة واحد كوادريليون (1015) (1000 تريليون) فلوب. ويعتبر Exascale هو أداء حوسبي في نطاق exaflops. وإكسافلوب هو واحد كوينتليون (1018) فلوب (مليون تيرا فلوب).
لا يمكن لرقم واحد أن يعكس الأداء الكلي لنظام الحاسوب، ومع ذلك، فإن هدف مؤشر Linpack هو تقريب مدى سرعة الحاسوب في حل المشاكل العددية، كما أنه يستخدم على نطاق واسع في الصناعة.[67] إن وحدة القياس FLOPS إما يتم نقلها بناءً على أداء النقطة العائمة النظري للمعالج (مشتق من مواصفات معالج الشركة المُصنعة ويتم إظهاره على شكل "Rpeak" في قوائم أفضل 500) والذي عادة ما يكون غير قابل للتحقيق عند تشغيل أحمال العمل الحقيقية، أو الإنتاجية القابلة للتحقيق، والمشتقة من معايير LINPACK ويتم عرضها كـ "Rmax" في قائمة أفضل 500. ويقوم مقياس LINPACK عادة بأداء تحليل LU لمصفوفة كبيرة. ويقوم أداء LINPACK بإعطاء بعض المؤشرات لأداء بعض المشاكل الحقيقية، ولكن لا يطابق بالضرورة متطلبات المعالجة لعديد من أحمال التشغيل الخاصة بالحواسيب العملاقة الأخرى، والتي على سبيل المثال قد تتطلب المزيد من مساحة الباندويث للذاكرة، أو قد تتطلب أداء أفضل للحوسبة، أو ربما تحتاج نظام I/O عالي الأداء لتحقيق مستويات عالية من الأداء.[67]
قائمة أفضل 500 (TOP500)
منذ عام 1993، صنفت أسرع الحواسيب العملاقة في قائمة TOP500 وفقاً لنتائجها في معايير LINPACK. القائمة لا تعتبر منحازة أو نهائية، ولكنها تعتبر تعريفا حاليا ذا مرجعية «لأسرع» حواسيب عملاقة متاحة في أي وقت من الأوقات. هذه هي القائمة الحالية لأجهزة الحاسوب التي ظهرت في أعلى قائمة [68] TOP500، وقد حصل "Peak speed" على تقييم "Rmax". وللمزيد من البيانات التاريخية انظر تاريخ الحوسبة العملاقة.
وقد استخدم حاسوب IBM Blue Gene/P في محاكاة عدد من الخلايا العصبية الاصطناعية بما يعادل حوالي 1% من القشرة الدماغية للإنسان، والتي تحتوي على 1.6 مليار خلية عصبية مع ما يقرب من 9 تريليون اتصال. وقد نجح نفس فريق البحث أيضاً في استخدام الحاسوب العملاق في محاكاة عدد من الخلايا العصبية الاصطناعية التي تعادل مجمل دماغ فأر.[77] ويعتمد التنبؤ بالأحوال الجوية في العصر الحديث أيضاً على أجهزة الحاسوب العملاقة. وتستخدم الإدارة الوطنية للمحيطات والغلاف الجوي أجهزة حاسوب عملاقة لسحق مئات الملايين من الملاحظات للمساعدة في جعل عملية التنبؤ بالطقس أكثر دقة.[78]
اتجاهات البحث والتطوير
في 7 نوفمبر 2011، أعلنت شركة Fujitsu عن نظام متابعة بسرعة 32.2 بيتا فلوب خاص بجهاز K computer، والذي يُدعي PRIMEHPC FX10. وسوف يستخدم نفس أبعاد ربط الحيد السداسية ومعالج SPARC واحد فقط لكل عقدة.[79] وأعلنت الحكومة الصينية في 31 أكتوبر 2012، أنها تبني حاسوب عملاق بسرعة 100 بيتا فلوب يُدعي Tianhe-2، والمقرر الانتهاء منه عام 2015. وبالنظر إلى سرعة التقدم الحالية، يتوقع خبراء الصناعة أن الحواسيب العملاقة سوف تصل إلى 1 إكسا فلوب (1018) (واحد كوينتليون فلوب) بحلول 2018. وبالتزامن مع الإعلان عن حاسبهم العملاق، صرحت الصين أيضاً بوجود مخططات لديها للحصول على حاسوب عملاق بسرعة 1 إكسا فلوب بحلول 2018.[80] وباستخدام معمارية Intel MIC متعددة الأنوية، والتي تعتبر بمثابة رد إنتل على أنظمة وحدات معالجة الرسومات، تخطط SGI لتحقيق 500 ضعف زيادة في الأداء بحلول 2018، وذلك من أجل تحقيق 1 إكسا فلوب. كما أصبحت عينات رقائق MIC مع 32 نوي والتي تدمج بين وحدات معالجة الناقلات مع وحدة المعالجة المركزية القياسية متوفرة الآن.[81] وقد ذكرت الحكومة الهندية أيضاً عن طموحاتها في امتلاك حاسوب عملاق من فئة إكسا فلوب، والذي يأملون في الانتهاء منه في عام 2017.[82] وأشار «إريك ديبندياكتس» من مختبرات سانديا الوطنية في نظريته أن حاسوب zettaflop (1021) (واحد سكستليون فلوب) مطلوب من أجل تحقيق نمذجة كاملة للطقس، والتي يمكن أن تغطي أسبوعين كاملين بدقة.[83] ومثل هذا النظام ربما يتم بناؤه بحلول 2030.[84]
^ ابجHill، Mark Donald؛ Jouppi، Norman Paul؛ Sohi، Gurindar (1999). Readings in computer architecture. ص. 40–49. ISBN:1-55860-539-8.
^ ابPerformance Modelling and Optimization of Memory Access on Cellular Computer Architecture Cyclops64 K Barner, GR Gao, Z Hu, Lecture Notes in Computer Science, 2005, Volume 3779, Network and Parallel Computing, Pages 132-143
^ ابAnalysis and performance results of computing betweenness centrality on IBM Cyclops64 by Guangming Tan, Vugranam C. Sreedhar and Guang R. Gao The Journal of Supercomputing Volume 56, Number 1, 1–24 September 2011
^ ابHardware software co-design of a multimedia SOC platform by Sao-Jie Chen, Guang-Huei Lin, Pao-Ann Hsiung, Yu-Hen Hu 2009 ISBN pages 70-72
^N. Hirose and M. Fukuda (1997). "Numerical Wind Tunnel (NWT) and CFD Research at National Aerospace Laboratory". Proceedings of HPC-Asia '97. IEEE Computer Society. DOI:10.1109/HPC.1997.592130.
^H. Fujii, Y. Yasuda, H. Akashi, Y. Inagami, M. Koga, O. Ishihara, M. Kashiyama, H. Wada, T. Sumimoto, Architecture and performance of the Hitachi SR2201 massively parallel processor system, Proceedings of 11th International Parallel Processing Symposium, April 1997, Pages 233-241.
^Y. Iwasaki, The CP-PACS project, Nuclear Physics B - Proceedings Supplements, Volume 60, Issues 1-2, January 1998, Pages 246-254.
^A.J. van der Steen, Overview of recent supercomputers, Publication of the NCF, Stichting Nationale Computer Faciliteiten, the Netherlands, January 1997.
^Scalable input/output: achieving system balance by Daniel A. Reed 2003 ISBN 978-0-262-68142-1 page 182
^C. Donninger, U. Lorenz. The Chess Monster Hydra. Proc. of 14th International Conference on Field-Programmable Logic and Applications (FPL), 2004, Antwerp – Belgium, LNCS 3203, pp. 927 – 932 نسخة محفوظة 27 أبريل 2020 على موقع واي باك مشين. [وصلة مكسورة]
^J Makino and M. Taiji, Scientific Simulations with Special Purpose Computers: The GRAPE Systems, Wiley. 1998.
^"Green 500 list". Green500.org. مؤرشف من الأصل في 2012-03-26. اطلع عليه بتاريخ 2012-06-09.
^ ابEncyclopedia of Parallel Computing by David Padua 2011 ISBN 0-387-09765-1 pages 426–429
^Knowing machines: essays on technical change by Donald MacKenzie 1998 ISBN 0-262-63188-1 page 149-151
^Euro-Par 2004 Parallel Processing: 10th International Euro-Par Conference 2004, by Marco Danelutto, Marco Vanneschi and Domenico Laforenza, ISBN 3-540-22924-8, page 835
^Euro-Par 2006 Parallel Processing: 12th International Euro-Par Conference, 2006, by Wolfgang E. Nagel, Wolfgang V. Walter and Wolfgang Lehner ISBN 3-540-37783-2 page
^An Evaluation of the Oak Ridge National Laboratory Cray XT3 by Sadaf R. Alam etal International Journal of High Performance Computing Applications February 2008 vol. 22 no. 1 52–80
^Open Job Management Architecture for the Blue Gene/L Supercomputer by Yariv Aridor et al. in Job scheduling strategies for parallel processing by Dror G. Feitelson 2005 ISBN 978-3-540-31024-2 pages 95–101
^"BOINCstats: MilkyWay@home". BOINC. مؤرشف من الأصل في 2012-05-04. اطلع عليه بتاريخ 2011-05-28Note this link will give current statistics, not those on the date last accessed {{استشهاد بدورية محكمة}}: الاستشهاد بدورية محكمة يطلب |دورية محكمة= (مساعدة)صيانة الاستشهاد: postscript (link)
^ ابThe Potential Impact of High-End Capability Computing on Four Illustrative Fields of Science and Engineering by Committee on the Potential Impact of High-End Computing on Illustrative Fields of Science and Engineering and National Research Council (28 October 2008) ISBN 0-309-12485-9 page 9
^ ابDongarra، Jack J.؛ Luszczek، Piotr؛ Petitet، Antoine (2003)، "The LINPACK Benchmark: past, present and future"(PDF)، Concurrency and Computation: Practice and Experience، John Wiley & Sons, Ltd.، ص. 803–820، مؤرشف من الأصل(PDF) في 2019-01-20
^Joshi، Rajani R. (9 يونيو 1998). "A new heuristic algorithm for probabilistic optimization". Department of Mathematics and School of Biomedical Engineering, Indian Institute of Technology Powai, Bombay, India. مؤرشف من الأصل(Subscription required) في 2009-04-22. اطلع عليه بتاريخ 2008-07-01.