Bugün öğrendim ki: dünyanın en hızlı 500 süper bilgisayarının hepsi Linux'ta çalışıyor
Süper bilgisayar türü
Diğer kullanımlar için, Süper Bilgisayar (anlam ayrımı) sayfasına bakın.
Bir süper bilgisayar, genel amaçlı bir bilgisayara kıyasla yüksek performansa sahip bir bilgisayar türüdür. Bir süper bilgisayarın performansı genellikle saniye başına kayan noktalı işlem sayısı (FLOPS) ile ölçülür, saniye başına milyon talimat sayısı (MIPS) yerine. 2022 yılından beri, 1018 FLOPS'un üzerinde işlem yapabilen, sözde eksaskala süper bilgisayarlar mevcuttur. [3] Karşılaştırma için, masaüstü bilgisayarların performansı yüzlerce gigaFLOPS (1011) ile onlarca teraFLOPS (1013) arasında değişmektedir. [4] [5] Kasım 2017'den beri, dünyanın en hızlı 500 süper bilgisayarının tamamı Linux tabanlı işletim sistemlerinde çalışmaktadır. [6] Amerika Birleşik Devletleri, Avrupa Birliği, Tayvan, Japonya ve Çin'de daha hızlı, daha güçlü ve teknolojik açıdan üstün eksaskala süper bilgisayarlar oluşturmak için ek araştırmalar yapılmaktadır. [7]
Süper bilgisayarlar hesaplamalı bilim alanında önemli bir rol oynar ve kuantum mekaniği, hava durumu tahmini, iklim araştırmaları, petrol ve gaz araştırmaları, moleküler modelleme (kimyasal bileşiklerin, biyolojik makromoleküllerin, polimerlerin ve kristallerin yapıları ve özellikleri hesaplanır), ve fiziksel simülasyonlar (evrenin ilk anlarının, uçak ve uzay araçlarının aerodinamiği, nükleer silahların patlaması ve nükleer füzyonun simülasyonları) gibi çeşitli alanlarda sayısallaştırma yoğunluğu gerektiren geniş bir dizi görev için kullanılır. Şifre çözme alanında da temel bir rol oynamışlardır. [8]
Süper bilgisayarlar 1960'larda tanıtıldı ve birkaç on yıl boyunca en hızlısı Seymour Cray tarafından Control Data Corporation (CDC), Cray Research ve daha sonra onun adını veya monogramını taşıyan şirketler tarafından yapıldı. İlk makineler, daha genel amaçlı çağdaşlarından daha hızlı çalışan, yüksek derecede ayarlanmış geleneksel tasarımlardı. On yıl boyunca, paralellik artan miktarlarda eklendi, tipik olarak bir ila dört işlemci vardı. 1970'lerde, büyük veri dizileri üzerinde çalışan vektör işlemcileri hakim olmaya başladı. Bunun dikkate değer bir örneği, 1976'daki çok başarılı Cray-1'dir. Vektör bilgisayarlar 1990'lara kadar baskın tasarım olmaya devam etti. O zamandan günümüze kadar, on binlerce hazır işlemcinin bulunduğu büyük ölçekli paralel süper bilgisayarlar norm haline geldi. [9] [10]
ABD, süper bilgisayar alanında uzun zamandır lider konumdadır, ilk olarak Cray'in neredeyse kesintisiz alan hakimiyeti ve daha sonra çeşitli teknoloji şirketleri aracılığıyla. Japonya, 1980'ler ve 1990'larda bu alanda büyük adımlar atarken, Çin bu alanda giderek daha aktif hale geldi. Kasım 2024 itibariyle Lawrence Livermore Ulusal Laboratuvarı'nın El Capitan, dünyanın en hızlı süper bilgisayarıdır. [11] ABD'nin ilk 10 arasında beş tanesi bulunmaktadır; Japonya, Finlandiya, İsviçre, İtalya ve İspanya'nın her birinde bir tane vardır. [12] Haziran 2018'de, TOP500 listesindeki tüm birleşik süper bilgisayarlar 1 exaFLOPS işaretini geçti. [13]
Tarih
[düzenle]
Ana madde: Süper bilgisayarın tarihi
1960'ta UNIVAC, ABD Donanması Araştırma ve Geliştirme Merkezi için bugün ilk süper bilgisayarlar arasında kabul edilen Livermore Atomik Araştırma Bilgisayarını (LARC) inşa etti. Hala yeni ortaya çıkan disk sürücü teknolojisi yerine yüksek hızlı davlumbaz belleği kullanıyordu. [14] Ayrıca, ilk süper bilgisayarlar arasında IBM 7030 Stretch de bulunmaktadır. IBM 7030, o sırada mevcut herhangi bir bilgisayardan 100 kat daha hızlı bir bilgisayar isteyen Los Alamos Ulusal Laboratuvarı için IBM tarafından yapıldı. IBM 7030, transistörler, manyetik çekirdek belleği, boru hatlı talimatlar, bir bellek denetleyicisi aracılığıyla önceden alınmış veriler ve öncü rastgele erişimli disk sürücüleri içeriyordu. IBM 7030, 1961'de tamamlandı ve performansta yüz katlık bir artışa ulaşmayı başaramamış olsa da, Los Alamos Ulusal Laboratuvarı tarafından satın alındı. İngiltere ve Fransa'daki müşteriler de bilgisayarı satın aldı ve şifre çözme için oluşturulan IBM 7950 Harvest süper bilgisayarının temelini oluşturdu. [15]
1960'ların başlarındaki üçüncü öncü süper bilgisayar projesi, Tom Kilburn'ın önderliğindeki bir ekip tarafından kurulan Manchester Üniversitesi'ndeki Atlas projesiydi. Atlas'ı 48 bitlik bir milyon kelimeye kadar bellek alanı olacak şekilde tasarladı, ancak bu kadar kapasiteli manyetik depolama erişilebilir değildi, Atlas'ın gerçek çekirdek belleği yalnızca 16.000 kelimeydi, davlumbaz ise ek 96.000 kelime için bellek sağlıyordu. Atlas Denetleyici, manyetik çekirdek ve davlumbaz arasında veri sayfaları biçiminde veri alışverişi yaptı. Atlas işletim sistemi, birden fazla programın herhangi bir zamanda süper bilgisayarda çalıştırılabilmesi için süper bilgisayara zaman paylaşımı da getirdi. [16] Atlas, Ferranti ve Manchester Üniversitesi işbirliğiyle gerçekleştirildi ve talimat başına yaklaşık bir milyon talimat ile işlem hızlarına yaklaşıyordu. [17]
Seymour Cray tarafından tasarlanan CDC 6600, 1964'te tamamlandı ve germanyumdan silikona transistör geçişini işaretledi. Silikon transistörler daha hızlı çalışabilirdi ve aşırı ısınma problemi, süper bilgisayar tasarımına soğutma getirmek suretiyle çözüldü. [18] Bu nedenle, CDC6600 dünyanın en hızlı bilgisayarına dönüştü. 6600, çağdaş tüm diğer bilgisayarlardan yaklaşık 10 kat daha hızlı olduğu için, süper bilgisayar olarak adlandırıldı ve her biri 8 milyon dolara satılan yüzlerce bilgisayarın satıldığı süper bilgisayar pazarını tanımladı. [19] [20] [21] [22]
Cray, 1972'de CDC'den ayrılıp kendi şirketini kurdu, Cray Research. [20] CDC'den ayrıldıktan dört yıl sonra, Cray, tarihteki en başarılı süper bilgisayarlardan biri olan 80 MHz Cray-1'i 1976'da üretti. Cray-2, 1985'te piyasaya sürüldü. Sekiz merkezi işlem birimine (CPU) sahipti, sıvı soğutmalıydı ve elektronik soğutma sıvısı Fluorinert, süper bilgisayar mimarisi boyunca pompalandı. 1.9 gigaFLOPS'a ulaşarak, bunu gigaflop bariyerini aşan ilk süper bilgisayar yaptı. [25]
Büyük ölçekli paralel tasarımlar
[düzenle]
Ana maddeler: Süper bilgisayar mimarisi ve Paralel bilgisayar donanımı
1970'lerde Cray-1'in performansını ciddi anlamda tehdit eden tek bilgisayar, ILLIAC IV'tü. Bu makine, birçok işlemcinin tek bir büyük problemin farklı kısımlarını çözmek için birlikte çalıştığı gerçek büyük ölçekli paralel bir bilgisayarın ilk gerçekleştirilen örneğiydi. En hızlı şekilde tek bir veri akışını çalıştırmak üzere tasarlanmış vektör sistemlerinin aksine, bu kavramda bilgisayar, verinin ayrı parçalarını tamamen farklı işlemcilere besler ve ardından sonuçları birleştirir. ILLIAC'ın tasarımı, 1966'da 256 işlemciyle tamamlandı ve 1970'lerin Cray-1'inin 250 MFLOPS'luk tepe hızına kıyasla 1 GFLOPS'a kadar hız sunuyordu. Ancak geliştirme sorunları nedeniyle sadece 64 işlemci üretildi ve sistem, Cray'den çok daha büyük ve karmaşık olmasına rağmen asla 200 MFLOPS'tan daha hızlı çalışamadı. Başka bir sorun da sistem için yazılım yazmanın zor olması ve üst performans elde etmenin ciddi çaba gerektiriyordu.
Ancak ILLIAC IV'ün kısmi başarısı, süper bilgisayarın geleceği için yol gösteren bir işaret olarak yaygın olarak kabul edildi. Cray, bu konuda ünlü olarak "Bir tarlayı sürerseniz, hangisini kullanmak istersiniz? İki güçlü öküz mü yoksa 1024 tavuk mu?" diye sordu. Ancak 1980'lerin başlarında, özellikle MIT'deki araştırmalardan gelişen Connection Machine (CM) olmak üzere, binlerce işlemcili paralel tasarımlar üzerinde çalışan çeşitli ekipler vardı. CM-1, veri paylaşımı için bir ağa bağlı, basitleştirilmiş özel mikroişlemcilerden en fazla 65.536'sını kullandı. Birkaç güncellenmiş sürümden sonra, CM-5 süper bilgisayarı, saniyede birçok milyar aritmetik işlem yapabilen büyük ölçekli paralel işlem bilgisayarları.
1982'de Osaka Üniversitesi'nin LINKS-1 Bilgisayar Grafik Sistemi, 514 mikroişlemcili, 257 Zilog Z8001 kontrol işlemcisi ve 257 iAPX 86/20 kayan noktalı işlemcisi dahil olmak üzere büyük ölçekli paralel işlem mimarisi kullandı. Esas olarak gerçekçi 3B bilgisayar grafikleri oluşturmak için kullanıldı. Fujitsu'nun 1992 tarihli VPP500, daha yüksek hızlara ulaşmak için işlemcilerinde genellikle mikrodalga uygulamaları için ayrılmış zehirli bir madde olan GaAs kullandı. Fujitsu'nun Sayısal Rüzgar Tüneli süper bilgisayarı, işlemci başına 1.7 gigaFLOPS (GFLOPS) tepe hızı ile 1994'te en üst sıraya yükselmek için 166 vektör işlemci kullandı. Hitachi SR2201, 1996'da 2048 işlemciyi hızlı üç boyutlu bir çaprazlama ağı aracılığıyla bağlayarak 600 GFLOPS tepe performansı elde etti. Çeşitli yapılandırmalarda 1000 ila 4000 Intel i860 işlemciye sahip olabilen Intel Paragon, 1993'te dünyanın en hızlısı olarak sıralandı. Paragon, işlemlerin ayrı düğümlerde çalışabileceği ve Mesaj Gönderme Arabirimi aracılığıyla iletişim kurabileceği yüksek hızlı iki boyutlu bir ağ aracılığıyla işlemcileri birbirine bağlayan bir MIMD makinesiydi.
Yazılım geliştirme bir sorun olmaya devam etti, ancak CM serisi bu konuda önemli ölçüde araştırma yaptı. Özelleştirilmiş donanım kullanan benzer tasarımlar, Evans & Sutherland ES-1, MasPar, nCUBE, Intel iPSC ve Goodyear MPP dahil olmak üzere birçok şirket tarafından yapıldı. Ancak 1990'ların ortalarına gelindiğinde, genel amaçlı CPU performansı o kadar gelişti ki, süper bilgisayar, özel çipler kullanmak yerine, bunları bireysel işlem birimleri olarak kullanarak oluşturulabilirdi. 21. yüzyılın başlarında, on binlerce ticari CPU içeren tasarımlar norm haline geldi ve daha sonraki makineler karışıma grafik birimleri ekledi. [9] [10]
1998'de David Bader, ticari parçalar kullanan ilk Linux süper bilgisayarını geliştirdi. New Mexico Üniversitesi'nde iken, tüketici malı hazır parçalar ve yüksek hızlı düşük gecikmeli bir bağlantı ağı kullanarak Linux altında çalışan bir süper bilgisayar kurmayı hedefledi. Prototip, değiştirilmiş bir Linux çekirdeği çalıştıran sekiz çift 333 MHz Intel Pentium II bilgisayardan oluşan Alta Technologies "AltaCluster" kullandı. Bader, gerekli bileşenler için Linux desteği sağlamak ve National Computational Science Alliance (NCSA) üyelerinden gelen kodları, hiçbiri daha önce Linux'ta çalıştırılmamış olduğundan, uyumluluk sağlamak için önemli ölçüde yazılımı taşıdı. Başarılı prototip tasarımını kullanarak, Ulusal Bilim Vakfı'nın Ulusal Teknoloji Ağı aracılığıyla ulusal bilim ve mühendislik topluluğu tarafından açık kullanım için ilk Linux süper bilgisayarı olan "RoadRunner"ın geliştirilmesini yönetti. RoadRunner, Nisan 1999'da üretime girdi. O dönemde dünyanın en hızlı 100 süper bilgisayarından biri olarak kabul edildi. [37] [38] Bader'in prototipinin ve RoadRunner'ın geliştirilmesinden önce, Beowulf gibi tüketici sınıfı parçalar kullanan Linux tabanlı kümeler olsa da, "gerçek" süper bilgisayarlar olarak kabul edilmek için ölçeklenebilirlik, bant genişliği ve paralel işlem yeteneklerinden yoksundular. [37]
Çok sayıda işlemciye sahip sistemler genellikle iki yoldan birini izler. Ağ hesaplama yaklaşımında, dağıtılmış, çeşitli yönetim alanları olarak organize edilmiş birçok bilgisayarın işlem gücü, bir bilgisayar kullanılabilir olduğunda fırsatçı bir şekilde kullanılır. Başka bir yaklaşımda, birçok işlemci birbirine yakın, örneğin bir bilgisayar kümesinde kullanılır. Bu merkezi büyük ölçekli paralel sistemde, bağlantı hızının ve esnekliğinin çok önemli olduğu ortaya çıktı ve modern süper bilgisayarlar, gelişmiş Infiniband sistemlerinden üç boyutlu torus bağlantılarına kadar çeşitli yaklaşımları kullandı. [40] [41] Çok çekirdekli işlemcilerle birlikte merkeziyetçiliğin kullanımı, örneğin Cyclops64 sisteminde olduğu gibi, ortaya çıkan bir yöndür. [42] [43]
Genel amaçlı grafik işlem birimlerinin (GPGPUs) fiyatı, performansı ve enerji verimliliği artarken, Tianhe-I ve Nebulae gibi bir dizi petaFLOPS süper bilgisayarı bunlara güvenmeye başladı. Ancak K bilgisayarı gibi diğer sistemler, SPARC tabanlı tasarımlar gibi geleneksel işlemcileri kullanmaya devam etti ve GPGPUs'un genel amaçlı yüksek performanslı bilgisayar uygulamaları için genel uygulanabilirliği tartışıldı, çünkü bir GPGPU belirli ölçütlerde iyi puan alması için ayarlanabilirken, günlük algoritmalar için genel uygulanabilirliği sınırlı olabilir, uygulamaya göre ayarlanmadıkça. [45] Ancak, GPU'lar yükselişte ve 2012'de Jaguar süper bilgisayarı, CPU'lara GPU'lar eklenerek Titan'a dönüştürüldü. [46] [47] [48]
Yüksek performanslı bilgisayarların yaklaşık üç yıl sonra bir yükseltme gerektirdiği tahmin ediliyor. [49] Gyoukou süper bilgisayarı, hem büyük ölçekli paralel bir tasarım hem de sıvı daldırma soğutması kullanan benzersiz bir süper bilgisatır.
Özel amaçlı süper bilgisayarlar
[düzenle]
Bir dizi özel amaçlı sistem, tek bir probleme adanmış olarak tasarlandı. Bu, özel olarak programlanmış FPGA çiplerinin veya hatta özel ASIC'lerin kullanımına izin vererek, genelliği feda ederek daha iyi fiyat / performans oranları elde etmeyi sağlar. Özel amaçlı süper bilgisayarlara örnek olarak, satranç oynamak için Belle, Deep Blue ve Hydra; astrofizik için Gravity Pipe; protein yapısı tahmini ve moleküler dinamikler için MDGRAPE-3; ve DES şifresini kırmak için Deep Crack verilebilir.
Enerji kullanımı ve ısı yönetimi
[düzenle]
Ayrıca bakınız: Bilgisayar soğutma ve Green500
On yıllar boyunca, çoğu merkezi süper bilgisayar için ısı yoğunluğunun yönetimi önemli bir konu olmaya devam etti. [58] [59] [60] Sistem tarafından üretilen büyük miktarda ısı, örneğin diğer sistem bileşenlerinin ömrünü kısaltmak gibi başka etkilere de sahip olabilir. Isı yönetimi için çeşitli yaklaşımlar mevcuttur, sistem boyunca Fluorinert pompalanmasından hibrit sıvı-hava soğutma sistemlerine veya normal klima sıcaklıklarında hava soğutmasına kadar. Tipik bir süper bilgisayar, neredeyse tamamı ısıya dönüştürülen büyük miktarda elektrik gücü tüketir ve soğutma gerektirir. Örneğin, Tianhe-1A, 4,04 megawatt (MW) elektrik tüketir. [64] Sistemin çalıştırılması ve soğutulması için maliyet önemli olabilir, örneğin saatte 4 MW'lık bir sistemin maliyeti 0,10 $/kWh ile 400 $ olur veya yılda yaklaşık 3,5 milyon $ olur.
Isı yönetimi karmaşık elektronik cihazlarda büyük bir sorundur ve güçlü bilgisayar sistemlerini çeşitli şekillerde etkiler. Süper bilgisayarlarda termal tasarım gücü ve CPU güç tüketimi sorunları, geleneksel bilgisayar soğutma teknolojilerinden daha fazladır. Yeşil bilgisayarlar için süper bilgisayar ödülleri de bu sorunu yansıtmaktadır. [66] [67] [68]
Binlerce işlemcinin bir arada paketlenmesi kaçınılmaz olarak yönetilmesi gereken önemli miktarda ısı yoğunluğu oluşturur. Cray-2 sıvı soğutmalıydı ve modüllerin üzerine basınç uygulayarak Fluorinert "soğutma şelalesi" kullandı. [62] Ancak, hazır işlemcilere dayalı çok kabinli sistemler için batık sıvı soğutma yöntemi pratik değildi ve Sistem X'te, hava koşullandırma ile sıvı soğutmayı birleştiren özel bir soğutma sistemi Liebert şirketi ile işbirliği içinde geliştirildi. [63]
Blue Gene sisteminde, IBM kasıtlı olarak ısı yoğunluğu ile ilgilenmek için düşük güç kullanan işlemciler kullandı. 2011'de piyasaya sürülen IBM Power 775, su soğutması gerektiren sıkıca paketlenmiş elemanlara sahiptir. IBM Aquasar sistemi, enerji verimliliğini sağlamak için sıcak su soğutması kullanır ve su, binaları ısıtmak için de kullanılır. [71] [72]
Bilgisayar sistemlerinin enerji verimliliği genellikle "vat başına FLOPS" cinsinden ölçülür. 2008'de IBM tarafından işletilen Roadrunner, 376 MFLOPS/W hızında çalışıyordu. [73] [74] Kasım 2010'da Blue Gene/Q, 1.684 MFLOPS/W'ye ulaştı [75] [76] ve Haziran 2011'de Green 500 listesinin ilk iki sırası, birinin 2097 MFLOPS/W'ye ulaştığı New York'taki Blue Gene makineleri tarafından işgal edildi ve Nagasaki'deki DEGIMA kümesi 1375 MFLOPS/W ile üçüncü sırada yer aldı. [77]
Bakır teller, süper bilgisayara, zorlanmış hava veya dolaşan soğutucuların atık ısının gidermesini sağlayabilecek güç yoğunlukları ile enerji aktarabilir. [78] Soğutma sistemlerinin atık ısının giderme yeteneği bir sınırlayıcı faktördür. [79] [80] 2015 itibariyle, birçok mevcut süper bilgisayarda makinedeki gerçek tepe talebinden daha fazla altyapı kapasitesi bulunmaktadır - tasarımcılar genellikle, süper bilgisayarın teorik tepe elektrik gücünden fazlasını ele alacak şekilde güç ve soğutma altyapısını muhafazakar bir şekilde tasarlar. Gelecekteki süper bilgisayarlar için tasarımlar güç sınırlamasında. Süper bilgisayarın tamamı, güç ve soğutma altyapısının ele alabileceği termal tasarım gücü, elektronik donanımın teorik tepe gücünden biraz daha fazla, ancak teorik tepe gücünden daha azdır. [81]