Home - qdidactic.com
Didactica si proiecte didacticeBani si dezvoltarea cariereiStiinta  si proiecte tehniceIstorie si biografiiSanatate si medicinaDezvoltare personala
referate stiintaSa fii al doilea inseamna sa fii primul care pierde - Ayrton Senna





Aeronautica Comunicatii Drept Informatica Nutritie Sociologie
Tehnica mecanica


Informatica


Qdidactic » stiinta & tehnica » informatica
Evolutie in lumea infomatiei, de la masini de calcul la supercomputere



Evolutie in lumea infomatiei, de la masini de calcul la supercomputere


Evolutie in lumea infomatiei, De la masini de calcul la supercomputere



In decurs de peste un secol, observam dezvoltarea surprinzatoare a masinilor de calcul de la o simpla idee transformata in ceea ce vedem astazi - V.I.P.-urile lumii informatiei.

Totul a inceput in 1871 cand JC Maxwell a avutu primul ideea stabilirii unei legaturi intre notiunea de informatie si notiunile de baza ale energeticii. L. Boltzmann usureaza aceasta legatura prin aprofundarea notiunii de entropie si definirea ei ca logaritmul probabilitatii formarii unei anumite configuratii intr-o multime de alte configuratii posibile.

L. Szilard face inteleasa invazia notiunii de informatie in domeniul energeticii cand, in 1929, in cadrul celebrului paradox al "demonului lui Maxwell" demonstreaza ca o informatie de 1 bit ar trebui sa atraga o reducere a entropiei ansamblului egala cu Klog 2, in timp ce entropia sursei de unde provine aceasta informatie ar trebui sa creasca cu aceeasi cantitate sau, altfel spus, entropia se plateste cu informatie. Dar lucrarile lui L. Szilard nu gasesc ecouri pana la cel de-al II-lea razboi mondial, cand are loc un rapid avant al teoriei informatiei. D. Gabor extinde energetica cuantica in domeniul de actiune al informatiei selective, stabilindu-i discontinuitatea cea mai mica cantitate de entropie negativa (negentropie dupa cum o numea L. Brillouin) necesara obtinerii informatiei de 1bit xxxxxxxxxxx 0.7K, K fiind constanta lui Boltzmann (1.380622 ±0.000059) · 10 -23 J/K.

Lucrarile lui Szilard, Gabor precum si ale lui Mackay, R. Vallée clarifica ideea potrivit careia teoriile matematizate ale informatiei trebuie sa fie plasate la baza oricarei teorii riguroase a masurarii in stiintele fizice deoarece ele permit sa observam in mod convenabil interactiunea dintre operatiile prin care se masoara fenomenele observate si observator.

Alta teorie ce a cauzat progresul informational de astazi este teoria comunicatiilor care studieaza problemele puse de emisia, transmisia si receptia informatiilor selective. Aici si-au adus aportul J. Ville, D. Gabor si Tuller prin punerea la punct a teoriei matematice a semnalului, un mesaj fiind format dintr-o succesiune de semnale care reprezinta informatii convenabil codificate.



Problemele codificarii si decodificarii constituie obiectul a numeroase lucrari printre care semnalez teoria scandarii lui B. Mandelbrot.

Studiul transmisibilitatii unui mesaj intr-un timp dat este dominat de o teorie fundamentala a lui Cl.E.Shannon ce pune in evidenta o viteza masurabila cunoscuta ca viteza de informatie xxxxxxxx

Daca M este ansamblul a 2 mesaje M1 si M2 aceasta valoare a informatiei R are proprietatea R(M) = R(M1) +R(M2) daca (Э) N1 posibilitati pe de o parte si N2 pe de cealalta care dau N1N2 posibilitati, atunci R(N1) +R(N2) = R(N1N2)

Transmisia unui mesaj poate fi afectata de diverse deformari: dispersie, distorsiune, zgomot. Cibernetica permite studiul matematic al notiunii generalizate de zgomot. Inca din 1940, Kolmogorov si Wiener au aratat interesul de a se considera zgomotul ca un fenomen aleator.

Informatia lui Wald poate fi considerata ca o informatie cu zgomot.

"Informatia metrica" a lui Mackey corespunde aproximativ raportului intre intensitatea semnalului si a zgomotului care ii acopera semnificatia.

Redundanta o intalnim in diverse fenomene, studiul sau fiind dominat de o teorema enuntata de Shannon si demonstrata de Hincin.

Dar transmiterea unei serii informatiilor, indiferent de natura si forma seriei

Hartley, Wiene si Shannon (1949) demonstreaza ca exista un maxim posibil al cantitatii de informatii transmis in o unitate de timp, Shannon dand si o formula care exprima capacitatea unei linii de comunicatii care prezinta zgomot; rezultatul sau va fi extins de Gabor si in cazul domeniilor discontinue. Gabor inventeaza si o unitate de informatie, logon ce serveste la masurarea capacitatii canalelor de transmisie folosite.

Teoria informatiei si comunicatiilor este astazi folosita in cea mai mare parte a stiintelor, spre exemplu in psihofiziologie si numeroase domenii tehnice. Astfel s-a descoperit ca urechea umana este sensibila la 1 mil. de biti pe secunda, ochiul uman la 500 mil. biti / sec., iar creierul uman poate rationa asupra 10 biti pe secunda. Teoria lui MacKey despre senzatia de trecere a timpului este ca timpulnu este altceva decat aprecierea unei mai mari sau mai mici abundente infoamtionale. Teoria informatiei se gaseste si in inceracrile de exprimare a mecanismelor memoriei si recunoasterii formulelor.

Evolutia masinilor de calcul porneste din sec. al XVII-lea cu Schickard (1624). Pascal (1642) si Leibnitz (1672). Urmatoarea  etapa a fost gandita si aproape realizata de catre matematicianul si actuarul Charles Babbage (1792-1871) care a inteles perfect care trebuie sa fie planul unei masini complexe, capabila nu numai sa combine numerele conform uneia din cele patru operatii aritmetice, ci sa asocieze aceste operatii intr-o ordine data corespunzatoare unei formule. Datorita unei subventii, el a reusit daca nu sa construiasca, cel putin sa fabrice diferitele piese ale unei astfel de masini, care desi prezentata la Expozitia universala de la Londra (1851) nu au fost niciodata reunite. Este de mentionat ca o astfel de masina nu ar fi functionat niciodata corect datorita dificultatilor mecanice, independente de conceptia sa. In 1879, Lord Kelvin a aratat posibilitatea de a rezolva ecuatii diferentiale cu o masina, schema fiind reluata in 1923 de L. Wainwright. IN 19925 V. Bush a fabricat un prim analizator diferential, iar in 1942 i-a incorporat un program de calcul.

H.H. Aiken cu ajutorul tehnic al Companiei I.B.M. a reluat problema masinilor complexe de la punctul la care o lasase Babbage.

Intre 1937 si 1944 el construieste prima masina mecanica cu program automat, Mark. I. In acea perioada apare E.N.I.AC, masina electronica caabila sa efectueze 32.000 operatii pe secunda, conceputa de J.W. auckly si M.J. Eckert in cadrul efortului american pentru razboi, moment ce marcheaza dezvoltarea masinilor de calcul intr-un context electronic si patrunderea lor in domenii din ce in ce mai vaste datorita performantelor spectaculoae. Spre exemplu, isi gasesc utilizarea in siderurgie prin calculele interminabile sau in teleghidarea unui satelit artificial. Marile masini de calcul intra si in clinica medicala.

Numeratia binara, recomandata inca din 1938 de L. Coffignal, apare la timp pentru a simplifica operatiile ce se efectueaza in interiorul unei masini de calcul. Ea se putea realiza prin intermediul oricarui dispozitiv de comutatie, sre exemplu flip-flop un circuit electronic basculant inventat de E. Jordan in 1919.

Inregistrarea unei enorme cantitati de date n-a devenit posibila decat prin inventarea unor "memorii" din ce in ce mai vaste.

Fiecare element de memorie fiind capabil sa conserve un anumit numar de stari fizice a caror succesiune permite reprezentarea numerelor.

Lui J. von Neumann i se datoreste ideea inregistrarii nu numai a datelor numerice ale unei probleme ci si a instructiunilor care sa permita rezolvarea ei: trierea datelor operatii aritmetice sau comparatii, punerea in rezerva provizorie a unor rezultate partiale etc. In 1951 Wilkes a inventat metoda microprogramarii, iar intre 1952-1954au aparut "biblioteci" de subprograme, de programe de interpretare, de "compilatori' etc. De altfel, "registrele indecsi" ale colectivul F.O. Williams, T. Kilburu de la Universitatea din Machester, permit modificarea unor instructiuni inaintea executarii lor. Acum se punea problema "cum trebuie vorbit masinilor de calcul?" Adica introducerea instructiunilor care se facea printr-un limbaj special fiecarui tip de calculator. Limbajul Algol, produs in 1958 la Conferinta de la Zurich a fost adaptabil la toate tipurile de calculatoare cunoscute.

Un alt pas a fost trecerea de la calculul aritmetic si de la domeniul muneric la operatii asupra structurilor logice care nu ar fi putut fi realizate fara lucrarile pregatitoare ale filozofilor si matematicienilor, lucrari ca cea apartinand sec. al XIX-lea despre crearea calculului logic al lui Boole si dupa axiomatizarea progresiva a matematicii. O prima legatura a fost realizata din 1937 de C.E.Shannon, care a demonstrat ca circuitele de comutatie automata satisfac algebra logcii a lui Boole, algebra care serveste si ca baza a lucrarii "Calculateur de veritis logiques" a lui Kalin si Burchard.

In 1936 A.M. Turing a definit ceea ce se numesc "masinile Turing', ceea ce nu reprezinta aparate efectiv construite, ci modelul abstract general si general al tuturor masinilor pentru tratarea informatiei. Aceste masini au fost imaginate pentru a da un raspuns la intrebarea: "Cum trebuie definit riguros conceptul matematic corespunzator notiunii vagi de functie aritmetica, efectiv calculabila?" Turing a aratat intai ca masinile sale puteau sa apartina la tipuri diferite, dar formand o multime numarabila, astfel incat multimea lor desi infinita, sa nu formeze decat o mica parte din multimea numerelor intregi. El a mai stabilit ca este posibil realizarea unei "masini Turing"universala capabila sa ia aceleasi decizii ca si o masina Turing particulara oarecare, a carei structura si instructiuni ar putea fi totdeauna descrise cu ajutorul codului si sintaxei masinii universale.

In acelasi an 1936, Church si Kleene, Kalmar si Post au furnizat raspunsuri echivalente cu cel al lui Turing, desi au fost prezentate intr-un mod care nu scotea in evidenta posibilitatea de a aplica aceste idei la rezolvarea problemei gandirii automate, aceasta problema fiind rezolvata inca din 1934 cand Godel H. reprezentand fara indoiala culmea cea mai inalta a istoriei geometriilor neeuclidiene si a axiomatizarii matematici la care ele au condus.

Matematicienii erau indispensabili pentru a conduce masinile de calcul urias si pentru a concepe altele mai perfectionate.

In 1864 Ch. Babbage si Dr. Rogers in 1974 propun planurile unui automat care sa joace jocul ronds et croix (tic-tac-toe) punand bazele automatizarii jocurilor deductive. Primele masini construite pentru a juca acest joc, automatizat de B. Cadwell, sunt cele ale D.W.Savres (1949) si ale lui N. Elliot (1950). Alt joc automatizat este jocul lui Nim, fant-tan, a carui solutie depinde de functia lui Grungy ce este legata de teoria grafurilor. O astfel de masina este realizata in 1951 de F.O. Williams, numita masina Ferronti, programata sa castige sigur jocul  Nim cu conditia sa inceapa prima jocul.

Proma masina de calcul capabila sa trateze riguros o problema de sah se datoreste inginerului spaniol L.Torres Quevedo. Conceput in 1899 si construit in 1911, acest robot electromecanic nu cunostea decat o finala care comporta un material foarte redus dar permitea ca pornind de la orice pozitie legitima si cu conditia ca automatul sa faca prima miscare, sa termine victorios partida. Aceiasi performanta a fost transpusa pe o masina electronica de calcul de Van der Poel.

Primul servo-mecanism cunoscut este probabil "orologiul luminii" - un regulator de flaara prin metoda totul sau nimic descris de al-Jazari in 1206 urmat in evul mediu de disppzitivul baille-ble, Un dispozitiv cu feed-back al carui dispozitiv a fost analizat de Maxwell, il intalnim la James Watt (1790) in regulatorul cu bile care permite readucerea unei masini cu aburi la un regim constant cand ea tinde sa aiba abateri.

Dar abia intre cele doua razboaie, notiunea de feed-back produce interes, meritul principal fiind atribuit lui H.S. Black (1931) si H. Nyquist (1932).

Un dispozitiv feed-back este un dispozitiv insarcinat sa asigure 5 functii:


Explorarea mediului in vederea culegerii de informatii asupra rezultatelor actiunii intreprinse;

Introducerea acestor informatii in obectul considerat;

Masurarea la diverse momente a abaterilor intre obiectivele urmarite si rezultatele obtinute;

Obtinerea prin calcul (aritmetic, analogic sau logic) a mijloacelor de a corecta actiunile urmatoare pentru reducerea suficienta a abaterilor constante

Transmiterea acestor indicatii organelor obiectului; insarcinate sa-i permita sa atinga scopul propus.

Feed-back-ul destinat conducerii unui mecanism spre un scop putea fi gresit reglat sau se putea deregla in cursul functionarii sale, cand risca a corecta insuficient actiunea pe care o ghideaza, sa o determine sa-si depaseasca scopul, acest fenomen fiind constatat la masini (Nyquist, 1932). In acest caz se utilizau feed-back-uri de feed-back-uri ce permiteau ameliorarea calitatilor de adaptabilitate ale unui sistem.

In 1938 Th. Ross construieste o masina, capabila prin feed-back, sa iasa dintr-un labirint, dar care se deplasa pe sine. In 1950 broastele testoase ale lui Grey Walter, neurofiziolog, au lansat moda imitarii electromecanice a mersului. Aceste masini exploreaza mediul inconjurator, poseda tropisme pozitive si negative, sunt capabile sa aleaga intre un comportament eficace sau neeficace, sa recunoasca un individ asemanator, realizand toate acestea cu o mare simplitate a mijloacelor.

Grey Walter obtine o masina cu reflexe conditionate prin complicarea si imbunatatirea performantelor modelelor sale anterioare.

"Soricelul" lui Shannon (1952) reuseste sa iasa dintr-un labirint si sa-si aminteasca solutia.

Astfel, treptat, se va ajunge la "instalatii" capabile sa recunoasca forme si structuri. Un exemplu sunt aparatele Vocoder si Voder, inventate in 1936 si 1939 de H. Judley care recurg la teoria redundantelor.

La emisie, mesajul vorbit trece printr-o serie de filtre dispuse paralel. Lipsite de redundantele lor, variabiile esentiale ale sunetelor sunt transmise in acelasi timp in care un scurt semnal aduce formula acestor redundante. Ansamblul semnalelor transmise poate fi condensat intr-o proportie de 10 la 1. La receptie Voder-ul recombina aceste mesaje si reconstituie vocea cu individualitatea sa. Audrey este un alt aparat de acest tip capabil sa recunoasca vocea umana si sa o deosebeasca de alta voce.

In 1947 americanii W. Pitts si W. Culloh au aratat ca posibilitatea pentru o masina de a recunoaste o structura, descriind-o in termeni de informatie selectiva, se leaga de invariatia comportarii unui mecanism fata de un anumit grup de transformari. Perceptorul dr. Rosenblatt (1960) isi propune a fi in acelasi timp un aparat destinat recunoasterii structurilor sensibile, atat vizuale cat si sonore sau de alta natura.

Intrevazuta de J.B.Estomp (1916), legea jingvistica acelui mai mic efort a fost indelung studiata de G.K.Zipf (194), apoi criticata si imbunatatita de diferiti cercetatori si in special de B.Mandelbrot (1955), caruia i se datoreste si notiunea de "temperatura" informationala. Conform acestei legi, frecventele cuvintelor limbilor naturale urmeaza o formula hiperbolica, sau altfel spus, perioadele lor urmeaza o lege liniara. Datorita matematicianului rus A. Markov, care in 1913, a analizat nu numai frecventele lor ci si frecventele inlantuirilor de cuvinte dintr-un poem celebru al lui Puskin, urmat in 1948 de analiza markoviana a lui Shannon a limbii engleze la nivel al literelor.

Prin numeroase alte studii, la 7 ianuarie 1954, la New York, un ordinator I.B.M. 701, programat cu un vocabular modest de 250 de cuvinte, a tradus in limba engleza, sub directia lui dr. Dostert, cateva texte scurte in limba rusa, aceasta performanta introducand traducerea automata. O astfel de masina construita in 1962 (I.B.M.) de G.W.King traducea zilnic 60.000 cuvinte rusesti in engleza.

Intr-o nota din 1921 E. Borel pune primele baze ale jocurilor strategice. Prin jocuri strategice, trebuie intelese nu numai jocurile de rationament pur, jocurile numite "cu informatie perfecta" (ex. Jocul de sah) ci si jocurile care comporta un anumit hazard, cu conditia de a ramane un loc si pentru rationament.

Prelungind lucrarile lui Gray Walter (1951) asupra reflexelor conditionate artificiale, dr. A.M. Uttely a dat o teorie a masinilor de inductie care a servit ca punct de plecare si chiar ca model mai multor proiecte si unor realizari ale sale (1954-55) si ale lui F.H. George, G. Pask, Berr. Masina lui T. Kilburu, R.L. Grimschele si F.H. Summer (1957-1959) imbunatateste dupa un anumit numar de experiente, programele cu care a fost dotata, eliminand procedurile defectuoase si retinand pe cele reusite carora le mareste eficacitatea prin referirea la solutii obtinute in probleme simple.

Masinile pentru demonstrarea teoremelor matematice, reprezinta un amestec de deductiv cu inductiv, teoriile acestor masini fiind puse de Newell, Shaw, Simon, Minsky (1961), J. Pitrat (1962)

Masina lui H. Gelernter (IBM New York) poate gasi teorema de geometrie euclidiana. Ea se compune dintr-o masina de calcul sintactica (pentru traducerea sistemului formal), o masina de calcul diagramatica (ce contine diagrama necesara demonstratiei teoremei) si o masinade calcul euristica, ce, folosind cele 2 blocuri precedente, cauta lantul rationamentelor ce permite de la ipoteze la concluzii. Masina Logic Theorist a lui A.Newell, Shaw si Simon a fost astfel programata pentru a obtine teoreme pornind de la axiomatica lui Bertrand Russell.

Din anii 1960 si pana acum, calculatoarele au evoluat intr-atat incat puterea de calcul a primului Cray si cea a modelului Earth Simulator de la NEC difera cu cateva zeci de trilioane de operatii cu virgula mobila pe secunda. Mai exact, Cray-1, care o fost instalat la Los Alamos national Laboratory in 1976, era capabil de o performanta maxima de 160 milioane de operatii cu virgula pe secunda (160 megaflops) si dispunea de o memorie principala de 8 megabytes. Earth Simulator de la NEC, instalat la Center din Japonia in 2002poate calcula maxim 40 de trilioane de operatii cu virgula pe secunda (40 teraflops) si este echipat cu 10 terabytes de memorie principala.

TOP 500 se efectueaza de doua ori pe an, in lunile iunie si noiembrie. Ea se bazeaza pe o colectie proprie de benchmark-uri, denumita Linpack. Testul principal propus de Linpack este rezolvarea unui sistem de ecuatii liniare foarte dens. Pentru TOP 500, este utilizata o versiune Linpack care permite utilizatorului sa masoare marimea problemei si sa optimizeze software-ul astfel incat masina testata sa dea rezultatele optime. Testul nu ofera o imagine clara a performantei globale a sistemului, ci se concentreaza exclusiv asupra performantei obtinute de un sistem pentru a rezolva o problema regulata, care permite obtinerea de rezultate foarte mari. Linpack ofera o imagine foarte clara a performantei maxime ce poate fi atinsa de un sistem in cazul acestui test, fapt care, de altfel, este tocmai ceea ce ne intereseaza. Notatiile utilizate de Linpack sunt urmatoarele: Rmax este performanta maxima obtinuta pentru o problema de complexitatea Nmax, iar performanta teoretica maxima este notata Rpeak.

"Simulatorul Pamantului " de la NEC

Aflat in Japonia, instalat in laboratoarele care ii poarta numele, Earth Simulator are ca scop intelegerea si previziunea schimbarilor globale ale climei, precum si studiul placilor tectonice. In esenta, proiectul Earth Simulator are ca scop crearea unui Pamant virtual pe care sa se analizeze si sa se prevada modul in care va arata din punct de vedere climatic si tectonic lumea noastra in viitor, pe baza unei tehnologii numerice de simulare avansata. Nu are rost sa punctam aici avantajele aduse de astfel de cercetari, nici beneficiile pe care le vom avea atunci cand proiectul va fi functional intr-o proportie apropiata de 100%. Astfel se va ajunge poate intr-un viitor apropiat la ceea ce prevesteau cartile SF - controlul atmosferic.

Conform celor de la NEC, Earth Simulator poate calcula maxim 40 teraflops. El este echipat cu 5120 de procesoare fabricate de NEC. Fiecare procesor ruleaza la 500 MHz, este capabil de 8 gigaflops si dispune de 2 GB de memorie. Sistemul este echipat in total cu 10 terabytes de memorie. Earth Simulator ofera o latime de banda interna de 16GB/s. Toate componentele sunt structurate in 640 de noduri, fiecare nod dispunand de 8 procesoare si 16GB de memorie. Supercomputerul este structurat in 320 de cabinete albastre, fiecare dintre aceste incorporand doua noduri, deci 16 procesoare. Acestea sunt asezate in jurul a inca 65 de cabinete verzi, care adapostesc componentele ce asigura interconectarea nodurilor de care am vorbit mai sus. La acestea se adauga cabinetele albe, destinate matricii de discuri pentru stocare. Toate cabinetele dispun de led-uri care semnalizeaza permanent starea ansambului (functionala sau nu). Earth Simulator este izolat complet de mediul inconjurator, iar racirea lui este asigurata de un sistem care pompeaza aer rece in intreaga incinta. Supercomputerul este izolat electromagnetic si mecanic si este suspendat, pentru a preveni eventualele daune cauzate de un posibil cutremur.

ASCI White de la IBM

Desi situat doar pe locul trei in topul anexat, ASCI White este un supercomputer foarte mediatizat. ASCI sunt initialele de la Accelerated Strategic Computer Initiative, un proiect initiat de primul presedinte Bush in 1992, continuat de Clinton si sustinut in prezent de Departamentul American al Energiei. ASCI propune dezvoltarea pana in 2004 a unui supercomputer capabil sa calculzeze 100 teraflops. Sistemele de inalta performanta existente sunt utilizate pentru metinerea si siguranta stocului nuclear al SUA. ASCI White se compune din sistemele denumite White, Frost si Ice. Cel mai puternic dintre acestea este White, un sistem care incorporeaza 512 noduri, fiecare cu cate 16 procesoare IBM RS6000 SP Power3, capabile sa ruleze la 375 MHz; conform IBM, el poate oferi o performanta maxima de peste 12 teraflops. Frost este compus din 68 de noduri, iar Ice, din 28 de noduri. Sisitemul nucleu White adaposteste un total de 8192 de procesoare, iar ASCI White, sistemul total, 9728 de procesoare Power3. In ceea ce priveste sistemul de stocare, supercalculatorul incorporeaza asa numitul IMB Total Storage 7133 Serial Disk System, care poate adaposti 160TB de date. Memoria totala RAM a lui ASCI White este de 6 TB. Din punct de vedere fizic, sistemul ocupa cat doua terenuri de baschet americane si cantareste 106 tone. Din pacate, spre deosebire de Earth Simulator, ASCI White este utilizat in scopuri mai putin ortodoxe. Mai exact, el simuleaza comportamentul armelor nucleare detinute de SUA.

Cray T3E

Chiar daca cel mai puternic sistem Cary este clasat abia pe locul 39 in cel mai proaspat TOP500, nu putem sa nu amintim acest nume pentru simplul motiv ca Seymour Cray este considerat pe plan mondial drept parintele supercalculatoarelor. Cray T3E-1200 incorporeaza 1900 de procesoare si este capabil de o performanta maxima atinsa de aproximativ 1.1 teraflops (acesta este Rmax calculat de Linpack) si declarata de catre Cary de 2.2 teraflops. El a fost instalat in 2001 in incinta guvernului american. Posesorul  nu furnizeaza nici un fel de informatii referitoare la acest supercomputer. Cray T3E-1200 este insa eclipsat de CrayX1, care nu este prezent in TOP500, deoarece a foat lansat in data de 14 noiembrie 2002. In esenta, Cray X1 este un Cary T3E-1200 upgradat. Practic, este irelevant sa vorbim despre numarul de procesoare incorporat intr-un Cray, deoarece acestea sunt sisteme modulare, care permit inserarea unui numar de procesoare atat de mare cat permite bugetul cumparatorului. Procesoarele folosite de CrayT3E ruleaza la o frecventa maxima de 675MHz, fiecare unitate de procesare putand dispune de 256 sau 512 MB de memorie dedicata primara si 1200MB pentru o latime de banda secundara. Cel de-al doilea Cray T3E prezent in top pe locul 40 dispune de 1792 de procesoare, diferenta dintre acesta si Cray-ul de mai sus observandu-se doar la valoarea maxima declarata de producator, care in acest caz este de 1.9 teraflops (valoarea maxima atinsa marcata de benchmark-urile Linpack a fost tot de 1.1 teraflops). Acesta a fost instalat in 1999 la Departamentul de Aparare (Department of Defense - DoD) al SUA, care, surprinzator, dar din fericire, nu sunt chiar atat de secretosi. De pe site-ul DoD aflam, in neconcordanta cu TOP500, ca sistemul CrayT3E dispune de 1904 elemente de procesare (Processing Elements - PE), care ruleaza la frecvente de 450, 600 si 675 MHz, fiecare in parte dispunand de 256 sau 512Mb RAM. Toate sunt procesoare pe 65 de biti. Cray T3E de la DoD, supranumit "Jim", este capabil sa calculeze 1.9TB de operatii cu virgula mobila pe secunda si dispune de o capacitate de stocare de 4.5 terabytes.

Urmatorul TOP500 va fi efectuat in iunie 2003. Vom vedea atunci daca NEC va detine in continuare suprematia in lumea supercomputerelor, cu al sau Earth Simulator. Probabil ca o va detine, dar pentru ultima data. Nu de alta, dar IBM, cotat pe plan mondial ca producatorul numarul unu de supercomputere (pe principiul "nu sunt cele mai tari, dar sunt cele mai multe"), a anuntat ASCI Purple si Blue Gene/L. Conform IBM, cele doua sisteme vor fi capabile impreuna de o performanta mai mare decat cea adunata a tuturor supercomputerelor prezente in TOP500 actual. ASCI Purple va fi capabil sa calculeze peste 100 tera de operatii cu virgula mobila pe secunda. El va fi compus din sisteme IBM eServer care vor incorpora12544 de procesoare Power5 si siteme de stocare, evident, tot IBM. ASCI Purple va fi insa mic copil pe langa Blue Gene/L, care se pare ca va fi capabil de 367 teraflops si va incorpora 130000 de procesoare care vor rula pe . Linux! Blue Gene/L va putea procesa informatii la o rata de 1 terabit pe secunda, valoare echivalenta cu ceea ce transmit zece mii de sateliti folositi in prezent in meteorologie. Este greu de imaginat o asemenea putere de calcul si multi au primit cu oarecare scepticism aceasta veste. Ambele sisteme au fost comandate de US Department of Energy. Dezvoltarea lor va fi completa in cursul anului 2004.












TOP 10

Numele producatorului si al sistemului / Numarul de procesoare incorporate

Rmax/Rpeak exprimate in gigaflops

Unde si cand a fost instalat sistemul

NEC Earth Simulator/5120 procesoare


Earth Simulator Center

Japonia/2002

Hewlet-Packard ASCI Q-Alpha server SC ES 45/1.25 GHz/4096


Los Alamos National Laboratory

SUA/2002

IBM ASCI White, SP Power3 375 MHz/8192


Lawrence Livermore National Laboratory, SUA/2002

Linux NetworX MCR Linux Cluster Xeon 2.4 GHz - Quadrics/2304


Lawrence Livermore National Laboratory, SUA/2002

Hewlet-Packard Alpha Server SC ES45/1 GHz/3016


Pittsburg Supercomputing Center

SUA/2001

Hewlet-Packard Alpha Server SC ES45/1 GHz/2560


Commissariat a l'Energie Atomique (CEA), Franta/2001

HPTi Dual Xeon 2.2 GHz-Myriner2000/1536


Forecast Systems Laboratory - NOAA, SUA/2002

IBM pSeries 690 Turbo

1.3 GHz/


HPCx, Anglia/2002

IBM pSeries 690 Turbo

1.3 GHz/


NCAR (National Center for Atmospheric research) SUA/2002

IBM pSeries 690 Turbo

1.3 GHz/


Naval Oceanograph Office (NAVOCEANO), SUA/2002




Bibliografie:

CHIP, ianuarie 2003, Renee Tatou -Istoria Stiintelor Ed.





Contact |- ia legatura cu noi -| contact
Adauga document |- pune-ti documente online -| adauga-document
Termeni & conditii de utilizare |- politica de cookies si de confidentialitate -| termeni
Copyright © |- 2024 - Toate drepturile rezervate -| copyright