Cum se face un cluster de două computere. Cluster de desktop

În primul rând, decideți ce componente și resurse vor fi necesare. Aveți nevoie de un nod principal, minim de duzină de noduri identice de computere, comutator Ethernet, unitate de distribuție a energiei și rack. Determinați puterea cablajului și răcirii, precum și zona spațială pe care o veți avea nevoie. De asemenea, decideți ce adrese IP doriți să le utilizați pentru noduri, pe care le veți livra și ce tehnologii vor fi necesare pentru a crea capacități paralele de calcul (mai multe despre acest lucru mai jos).

  • Deși "fier" este scump, toate programele date în articol sunt distribuite gratuit, iar majoritatea sunt open source.
  • Dacă doriți să aflați cât de repede vă poate fi teoretic supercomputerul dvs., utilizați acest instrument:

Montați nodurile. Va trebui să colectați noduri de rețea sau să achiziționați servere pre-asamblate.

  • Alegeți cadre pentru servere cu cea mai rațională utilizare a spațiului și a energiei, precum și cu răcire eficientă.
  • Sau Puteți "recicla" o duzină de servere folosite, oarecum depășite - și lăsați greutatea lor să depășească greutatea totală a componentelor, dar veți salva o sumă decentă. Toate procesoarele, adaptoarele de rețea și plăcile de bază ar trebui să fie aceleași astfel încât computerele să funcționeze bine împreună. Desigur, nu uitați de RAM și hard disk-uri Pentru fiecare nod, precum și cel puțin o unitate optică pentru nodul principal.
  • Instalați serverele într-un raft. Începeți de la fund, astfel încât rackul să nu fie copleșit de sus. Veți avea nevoie de ajutorul unui prieten - serverele colectate pot fi foarte grele și le-au pus în celulele pe care le țin în raft sunt destul de dificile.

    Instalați comutatorul Ethernet de lângă rack. Merită să configurați imediat comutatorul: Setați dimensiunea Jumbo-cadru 9000 octeți, setați adresa IP statică pe care ați selectat-o \u200b\u200bla pasul 1 și opriți protocoalele inutile, cum ar fi SMTP.

    Instalați distribuitorul de energie (PDU sau unitatea de distribuție a energiei electrice). În funcție de sarcina maximă dă nodurile din rețea, este posibil să aveți nevoie de 220 de volți pentru un computer de înaltă performanță.

  • Când totul este instalat, treceți la configurare. Linux De fapt, este sistemul principal pentru clustere de înaltă performanță (HPC) - nu este doar perfect ca un mediu pentru computere științifică, dar încă nu trebuie să plătiți pentru instalarea sistemului pentru sute și chiar mii de noduri. Imaginați-vă cât de mult ar costa instalarea Windows. Pe toate nodurile!

    • Începeți cu instalarea ultima versiune BIOS pentru plăci de bază Și de la producător, care ar trebui să fie același pentru toate serverele.
    • Instalați distribuția preferată Linux la toate nodurile și la distribuția principală - distribuția cu interfață grafică. Sisteme populare: CentOS, OpenSuse, Linux științific, Redhat și Sles.
    • Autorul recomandă foarte mult să utilizeze distribuția clusterului Rocks. În plus față de instalarea tuturor programelor și a clusterului de instrumente, rocile implementează o metodă excelentă pentru "transferul" rapidă a unei varietăți de copii ale sistemului la servere similare utilizând Boot PXE și procedura "Kick Start" din Red Hat.
  • Setați interfața de mesagerie, managerul de resurse și alte biblioteci necesare. Dacă nu ați pus roci în pasul anterior, va trebui să instalați manual cele necesare software.Pentru a configura logica computerelor paralele.

    • Pentru a începe cu tine va avea nevoie sistem portabil Pentru a lucra cu bash, de exemplu, managerul de resurse cu cuplu, care vă permite să separați și să distribuiți sarcini pentru mai multe mașini.
    • Adăugați la cuplul mai mult MAUI Cluster Planover pentru a finaliza instalarea.
    • Apoi, trebuie să instalați interfața de mesagerie necesare pentru ca procesele individuale din fiecare cod individual să utilizeze date generale. OpenMP este cea mai ușoară opțiune.
    • Nu uitați de biblioteci matematice multiple și compilatoarele care vor "colecta" programele dvs. pentru computere distribuite. Am spus deja că ar trebui să puneți roci?
  • Conectați computerele în rețea. Nodul principal trimite sarcini pentru a calcula pe nodurile subordonate, care la rândul său trebuie să returneze rezultatul înapoi, precum și să trimită mesaje reciproce. Și cu cât se întâmplă mai repede toate acest lucru, cu atât mai bine.

    • Utilizați privat Rețeaua EthernetPentru a conecta toate nodurile în cluster.
    • Nodul principal poate lucra, de asemenea, ca NFS, PXE, DHCP, TFTP și Servere NTP. Când este conectat la Ethernet.
    • Trebuie să separați această rețea de la public pentru a vă asigura că pachetele nu se suprapun de către alții în LAN.
  • Testați un cluster. Ultimul lucru pe care trebuie să-l faceți înainte de a accesa utilizatorii la facilitățile de calculator - performanță de testare. HPL (High Performance Lynpack) Benchmark este o opțiune populară pentru măsurarea vitezei calculelor din cluster. Trebuie să compilați din sursele sursă cu cel mai înalt grad de optimizare că compilatorul dvs. permite arhitectura pe care ați ales-o.

    • Trebuie, desigur, să compilezi cu toate setări posibile Optimizările care sunt disponibile platformei pe care le-ați ales. De exemplu, atunci când utilizați CPU AMD, compilați în Open64 și nivel de optimizare -0.
    • Comparați rezultatele cu top500.org pentru a se potrivi cu clusterul cu 500 de cele mai rapide supercomputere din lume!
  • Centrul de presă

    Crearea unui cluster bazat pe Windows 2000/2003. Pas cu pas

    Clusterul este un grup de două sau mai multe servere care operează împreună pentru a asigura funcționarea fără probleme a unui set de aplicații sau servicii și percepute de client ca un singur element. Nodurile de cluster sunt combinate cu ajutorul rețelelor hardware, a resurselor partajate și software-ul serverului.

    Microsoft Windows. 2000/2003 sprijină două tehnologii de grupare: Clustere de echilibrare a încărcăturii și clustere de servere.

    În primul caz (clustere de echilibrare a încărcăturii) Serviciul de echilibrare a încărcăturii de rețea oferă proprietățile și aplicațiile la nivelul înalt de fiabilitate și scalabilitate prin combinarea până la 32 de servere la un singur grup. Solicitări din partea clienților din acest caz sunt distribuite între nodurile de cluster într-un mod transparent. Dacă clusterul nu reușește, clusterul își schimbă automat configurația și comută clientul la oricare dintre nodurile disponibile. Acest mod de configurare a clusterului este, de asemenea, numit modul activ activ atunci când o aplicație funcționează pe mai multe noduri.

    Clusterul serverului își distribuie sarcina între serverele de cluster și fiecare server își îndeplinește propria încărcătură. Dacă nodul nu reușește în cluster, aplicațiile și serviciile configurate să lucreze în cluster sunt repornite în mod transparent pe oricare dintre nodurile libere. Clusterele serverului Utilizați discuri partajate pentru a face schimb de date în interiorul clusterului și pentru a oferi acces transparent la aplicații și servicii de cluster. Acestea necesită echipament special, dar această tehnologie oferă foarte mult nivel inalt Fiabilitate, deoarece clusterul în sine nu are nici un punct de eșec. Acest mod de configurare a clusterului este, de asemenea, numit modul activ-pasiv. Aplicația din cluster funcționează pe un nod cu date partajate situate pe stocarea externă.

    Abordarea clusterului față de organizarea rețelei interne oferă următoarele avantaje:

    Un nivel ridicat de pregătire, care este, dacă apare un eșec al serviciului pe un nod al clusterului configurat la lucrare comună În cluster, software-ul cluster vă permite să reporniți această aplicație pe un alt nod. Utilizatorii în același timp vor face o întârziere pe termen scurt atunci când efectuați o anumită operație, nu observă deloc eșecul serverului. Scalabil pentru aplicațiile care rulează într-un cluster, adăugarea de servere la cluster înseamnă o creștere a capacităților: toleranța la defecțiuni, distribuția încărcăturii etc. Administratorii de control utilizând o singură interfață pot gestiona aplicațiile și serviciile pentru a stabili o reacție la eșecul nodului clusterului, distribuie sarcina dintre nodurile cluster și scoateți sarcina din noduri pentru munca profilactică.

    În acest articol voi încerca să-mi colectez experiența în crearea sistemelor de cluster baza de date Windows. Și dați mici ghid pas cu pas Prin crearea unui grup de servere cu două zone cu stocare partajată a datelor.

    Cerințe de software

    • Serverul Microsoft Windows 2000 Advanced (Datacenter) sau Microsoft Windows 2003 Server Enterprise Edition instalat pe toate serverele de cluster.
    • Serviciul DNS instalat. Voi explica puțin. Dacă construiți un cluster bazat pe două controale de domeniu, atunci este mult mai convenabil să utilizați serviciul DNS, pe care îl instalați în orice caz atunci când creați Director activ.. Dacă creați un cluster bazat pe două servere, domeniul Windows NT Membri, va trebui să utilizați fie un serviciu câștigă sau să faceți potrivirea numelor și adreselor mașinilor în fișierul gazdelor.
    • Servicii terminale pentru telecomandă servere. Nu este necesar, dar dacă există servicii terminale, este convenabil să gestionați serverele de la locul de muncă.

    Cerințe hardware

    • Hardware-ul pentru nodul de cluster este mai bun pentru a selecta, pe baza listei compatibile cu hardware hardware (HCI). Potrivit recomandărilor Microsoft hardware Trebuie să fie testate pentru compatibilitatea cu serviciile de cluster.
    • În consecință, veți avea nevoie de două servere cu două adaptoare de rețea; Adaptorul SCSI având o interfață externă pentru conectarea unei matrice de date externe.
    • Array externă având două interfață externă. Fiecare dintre nodurile de cluster este conectat la una dintre interfețe.

    Cometariu: Pentru a crea un cluster cu două zone, nu este necesar să aveți deloc două servere absolut identice. După un eșec pe primul server, veți avea puțin timp să analizați și să restaurați activitatea nodului principal. Al doilea nod va funcționa la fiabilitatea sistemului în ansamblu. Cu toate acestea, acest lucru nu înseamnă că al doilea server va sta inactiv. Ambele noduri de cluster pot face în siguranță afacerile lor, rezolvă diferite sarcini. Dar putem stabili o anumită resursă critică pentru a lucra într-un cluster prin creșterea acesteia (această resursă) toleranță la defecțiune.

    Setări de rețea Cerințe

    • Nume unic NetBIOS pentru cluster.
    • Cinci adrese IP statice unice. Două pentru adaptoare de rețea În rețeaua Cluster, două pentru adaptoare de rețea pe rețeaua comună și una pentru cluster.
    • Contul de domeniu pentru serviciul Cluster (Serviciul Cluster).
    • Toate nodurile de cluster trebuie să fie fie server de membru în domeniul sau controlerele de domeniu.
    • Fiecare server trebuie să aibă două adaptoare de rețea. Unul pentru conectarea la o rețea comună (rețea publică), a doua pentru a face schimb de date între nodurile clusterului (rețeaua privată).

    Cometariu: Pe recomandările Microsoft, serverul dvs. trebuie să aibă două adaptoare de rețea, una pentru o rețea comună, a doua pentru a face schimb de date în interiorul clusterului. Este posibil să se construiască un cluster pe o interfață - probabil da, dar nu am încercat.

    Instalarea clusterului

    Când proiectați un cluster, trebuie să înțelegeți că utilizați o rețea fizică atât pentru schimbul de cluster, cât și pentru retea localaCreșteți procentul de eșec al sistemului. Prin urmare, este extrem de de dorit să se utilizeze o subrețea alocată într-un element de rețea fizic separat pentru partajarea datelor clusterului. Și pentru rețeaua locală merită să utilizați altă subrețea. Astfel, creșteți fiabilitatea întregului sistem în ansamblu.

    În cazul construirii unui cluster cu două zone, un comutator este utilizat de o rețea comună. Două servere de cluster pot fi asociate unul cu celălalt cablu încrucișat, după cum se arată în figură.

    Instalarea unui cluster cu două zone poate fi împărțită în 5 pași

    • Instalarea și configurarea nodurilor într-un cluster.
    • Instalarea și configurarea unei resurse partajate.
    • Verificați configurația discului.
    • Configurarea primului nod de cluster.
    • Configurarea celui de-al doilea nod din cluster.

    Acest ghid pas cu pas vă va permite să evitați erorile în timpul instalării și să economisiți o mulțime de timp. Deci, să începem.

    Instalarea și configurarea nodurilor

    Pur și simplu simplificăm sarcina. Deoarece toate nodurile de cluster trebuie să fie fie membri de domenii, fie un controlor de domenii, apoi suportul de rădăcină al directorului de anunțuri (Active Directory) va face primul nod de cluster, serviciul DNS va funcționa pe acesta. Cel de-al doilea nod de cluster va fi un controler de domeniu complet.

    Instalare sistem de operare Sunt gata să renunț, crezând că nu ar trebui să aveți probleme. Dar configurația dispozitivelor de rețea doriți să clarificați.

    Setari de retea

    Înainte de a începe instalarea directorului cluster și activă, trebuie să efectuați setări de rețea. Toate setările de rețea doresc să se împartă în 4 etape. Pentru a recunoaște numele de nume, este de dorit să aveți un server DNS cu înregistrări deja existente despre serverele de cluster.

    Fiecare server are două carduri de rețea. O carte de rețea va servi la schimbul de date între nodurile de cluster, al doilea va funcționa la clienții din rețeaua noastră. În consecință, voi apela conexiunea privată a clusterului, al doilea numim conexiune publică a clusterului.

    Setările adaptoarelor de rețea pentru unul și un alt server sunt identice. În consecință, voi arăta cum să configurați un adaptor de rețea și un semn cu un semn setari de retea Toate cele 4 adaptoare de rețea pe ambele noduri de cluster. Pentru a configura un adaptor de rețea, trebuie să efectuați următorii pași:

    • Locurile mele de rețea → Proprietăți
    • Conectare privată Cluster → Proprietăți → Configurare → Avansat

      Acest articol necesită explicație. Faptul este că, conform recomandărilor Microsoft Ultimate privind toate adaptoarele de rețea ale nodurilor de cluster, trebuie instalată viteza optimă a adaptorului, așa cum se arată în figura următoare.

    • Protocolul de Internet (TCP / IP) → Proprietăți → Utilizați următorul IP: 192.168.30.1

      (Pentru cel de-al doilea nod, utilizați adresa 192.168.30.2). Introduceți masca de subrețea 255.255.255.252. Ca adresă de server DNS pentru ambele noduri, utilizați adresa 192.168.100.1.

    • În plus, pe fila Avansat → WINS, selectați NetBIOS dezactivat peste TCP / IP. Pentru adaptoare de rețea pentru adaptoare de rețea (public), acest element este redus.
    • Face același lucru cu card de retea Pentru conexiunea de cluster public LAN. Utilizați adresele date în tabel. Singura diferență în configurația a două plăci de circuite de rețea este aceea că conexiunea publică de cluster nu trebuie să oprească modul WINS - NetBIOS peste TCP / IP.

    Pentru a configura toate adaptoarele de rețea pe nodurile clusterului, utilizați următoarea tabletă:

    Nod Numele retelei adresa IP Masca. Serverul DNS.
    1 Conexiune publică a clusterului. 192.168.100.1 255.255.255.0 192.168.100.1
    1 Conexiune privată a clusterului. 192.168.30.1 255.255.255.252 192.168.100.1
    2 Conexiune publică a clusterului. 192.168.100.2 255.255.255.0 192.168.100.1
    3 Conexiune privată a clusterului. 192.168.30.2 255.255.255.252 192.168.100.1

    Instalarea Active Directory.

    Deoarece articolul meu nu urmărește scopul de a spune despre instalarea Active Directory, atunci acest element pe care îl voi omite. Tot felul de recomandări, cărți despre acest lucru sunt scrise destul de mult. Luați numele domeniuluiLa fel ca MyCompany.ru, instalați Active Directory pe primul nod, adăugați al doilea nod în domeniu ca controler de domeniu. Când faceți totul, verificați configurația serverelor, Active Directory.

    Setarea contului utilizatorului Cluster

    • Start → Programe → Instrumente administrative → Active Directory Utilizatori și computere
    • Adăugați un utilizator nou, de exemplu, ClusterService.
    • Verificați casetele pe: utilizatorul nu poate schimba parola și parola nu expiră niciodată.
    • Adăugați, de asemenea, acest utilizator la grupul Administratorilor și să-i dați jurnalul ca serviciu (drepturile sunt atribuite Securitate locală Politica I. Politica de securitate a controlerului de domenii).

    Configurarea unei matrice de date externe

    Pentru a configura o matrice de date externe într-un cluster, trebuie să vă amintiți că, înainte de a instala serviciul de cluster pe nodurile, trebuie mai întâi să configurați discurile de pe matricea externă, apoi să instalați mai întâi serviciul de cluster pe primul nod, numai pe apoi pe al doilea. În cazul încălcării comenzii de instalare, veți eșua și nu veți atinge obiectivul. Pot să-l rezolv - probabil da. Când apare o eroare, veți avea timp să remediați setările. Dar Microsoft este un lucru atât de misterios încât nu știți deloc ce vor veni greble. Este mai ușor să ai în fața ochilor tăi instrucțiuni pas cu pas Și nu uitați să apăsați butoanele. Prin pași, configurarea unei matrice externe arată astfel:

    1. Ambele servere trebuie oprite, matricea externă este activată, conectată la ambele servere.
    2. Porniți primul server. Avem acces la matricea de discuri.
    3. Verificăm că matricea de discuri externe este creată ca bază. Dacă acest lucru nu este cazul, atunci vom traduce discul utilizând opțiunea Rever la Basic Disk.
    4. Creați-o pe disc extern. Prin gestionarea calculatorului → Secțiunea de gestionare a discurilor. Cu privire la recomandările Microsoft, acesta trebuie să fie de cel puțin 50 MB. Vă recomandăm să creați o secțiune de 500 MB. sau puțin mai mult. Este destul de suficient să plasați datele clusterului. Secțiunea trebuie formatată în NTFS.
    5. Pe ambele noduri de cluster, această secțiune va fi numită de o singură literă, de exemplu, Q. În consecință, atunci când creați o partiție pe primul server, selectăm elementul Atribuiți următoarea literă de unitate - Q.
    6. Puteți posta partea rămasă a discului la dorința voastră. Desigur, este extrem de de dorit să se folosească sistemul de fișiere NTFS. De exemplu, atunci când configurați serviciile DNS, WINS Bazele de date principale de servicii vor fi transferate pe un disc comun (nu volumul sistemului Q, și al doilea pe care l-ați creat). Și pentru luarea în considerare a securității, va fi mai convenabil pentru dvs. să utilizați NTFS Toms.
    7. Închideți managementul discului și verificați accesul la secțiunea nou creată. De exemplu, puteți crea pe ea fisier text Test.txt, înregistrați și ștergeți. Dacă totul a fost bine, atunci suntem terminați cu configurația unei matrice externe pe primul nod.
    8. Acum opriți primul server. Matricea externă trebuie să fie activată. Porniți al doilea server și verificați accesul la secțiunea creată. Verificați, de asemenea, că litera numită de prima partiție este identică cu cea aleasă de noi, adică Q.

    Această configurație a matricei externe este finalizată.

    Instalarea software-ului pentru serviciul Cluster

    Configurarea primului nod de cluster

    Înainte de a începe să instalați software-ul de service Cluster, toate nodurile de cluster trebuie dezactivate, toate matricele externe trebuie să fie pornite. Să ne întoarcem la configurația primului nod. Matricea externă este activată, primul server este activat. Întregul proces de instalare are loc folosind expertul de configurare a serviciului Cluster:


    Configurarea celui de-al doilea nod de cluster

    Pentru a instala și configura cel de-al doilea nod de cluster, este necesar ca primul nod să fie pornit, toate discuri de rețea au fost incluse. Procedura de înființare a celui de-al doilea nod reamintește foarte mult cel pe care l-am descris mai sus. Cu toate acestea, există modificări minore. Pentru a face acest lucru, utilizați următoarele instrucțiuni:

    1. În caseta de dialog Creare sau Alăturați-vă o cluster, selectați Cel de-al doilea sau următorul nod din cluster Și faceți clic pe Următorul.
    2. Introduceți numele clusterului pe care l-am stabilit anterior (în exemplul este mycluster) și faceți clic pe Următorul.
    3. După conectarea celui de-al doilea nod la expertul de configurare a serviciului Cluster Cluster, va lua automat toate setările de la nodul principal. Pentru a porni serviciul de service Cluster, utilizați numele pe care l-am creat mai devreme.
    4. Introduceți parola cont Și faceți clic pe Următorul.
    5. În caseta de dialog următoare, faceți clic pe Finalizare pentru a finaliza instalarea.
    6. Serviciul de cluster va fi lansat pe cel de-al doilea nod.
    7. Închideți fereastra Adăugare / eliminare programe.

    Pentru a instala noduri de cluster suplimentare, utilizați aceleași instrucțiuni.

    PostScript, mulțumesc

    Pentru a vă face să nu vă confundați cu toate etapele instalației de cluster, voi da o tabletă mică, care reflectă toate etapele principale.

    Etapa Nod 1. Nod 2. Array extern.

    tBVPFFFS Despre PROK NBYE HTZ OE NDPOP
    Ymy Deben Lmbufet h dpnbyyy humpchisi.

    1. CecDUYOYE.

    Nopey ya chbu ynef h mplbmshopk uefy oeulpmshlp linux nbyoo, în rtlefwiuye chutnub, uchkwispn, rtpgeuuptpn. Fblter Nopzye Umblybmy P Uyufenby, H LPFpys Nbyshop Playmosafus HP Pdyo Uforlpnsafet. OPBMSHOP NBMP LFP RTPVPCHBM RTPCHPDYFSFS FBLY LLREYNOFSH X WEVS pe TBVPFF YMY DPNB. DBCHBKFF RPRTPVKHEN CNUF UPVTBFSH OEEVPMSHIP LMBUFET. RPUFTPYC LMBUFT Chist nepestesfebbshop Hulftifs mai mare Yobuf Lambdby. Otinet lpnrymsgy ymy pdopchteneoh tbvpfh oleulpmshlyi tuhutenlyy rtpgeupch. h lfpk ufbfsha cu rpufbtbaus tpuulbfsh chbn lbn npcop mea pupveshi huyamike predeshiyuyua nbjob, uplbmshpk uefy hu edsp lmbufet ob mosix.

    2. LLB, înot a se vedea.

    MOSIX - LFP RBFU DMS SDTB Linux la LPNRMELFPN HFYMIF, LPFPTSCHK RPCHPMSEF RTPGEUUUUBN la NBYEK NBYEF RETAIPDHPS (NYZTITPCHBFS) Despre Dhzye KMSHCHOP MPLBMSHOPK Uefy. CHSFS EZP NPCOP RP BDTEUH http://www.mosix.cs.huji.ac.il B TBRRTPUFBOSEFUS ON H YUPPODS ale LPDBI RPD MIGEYK GPL. Rbfy usueufchaf DMS sine dulce uphbwehopk Cextlium Linux.

    3. HUFBOCHLB RTPZTBNPSP PVEUREYUYUYAS.

    h obehbma hufbopchli iPyuh raptelpneeodfchbfsh chbn obbwytbfs la Hibr MOSIX OE FPMSLP EZP, Op Thief - MProc, Mexec Y dt.
    h BTICH MOSIX EUFS HUFBOPCHEW ULTYRF MOSIX_Install. OEKBFEMSHODSHF H PVS'BFEMSHOPN RPTSDLE TBURBEBFCHBFSH YUIPDOCHE SDTB SDTB CH / USR / SRC / linux- * CH / DBSRC / LINUX-2.2.13 DBME OBBRKHUBEFFE MOSIX_INSTALL PFCHUBEFEF Despre Chuye Yenh Ubuchka Neootzet BBZTHYLY (LILO), RHFS L Yuipdoylbn SDTB CHtpchya Obrhulb.
    ^ FAFTPKLE SDTB Chlmayuf PRGY CONFIG_MOSIX, config_binfmt_elf config_proc_fs. Chuu Bfi Prgy RPDTPVOP Presovop Hu Thlpchpdfche RP Hufbopchle Mosix.
    hufbopchyimi? OH, UFP TSE - retemethtsbkfwe de Chbey Linux la NTWPN, argumentul LPFPTPZP Pühmeos VKDEF rpippets pe MOSIX-2.2.13.

    4. FOOTPOTPLB.

    Yeobyubmshop Hufbopchmoshk Mosix Outlee - OE OE TYF, LBYE XBBA NBYSE UEFY YU UF UH UPESTOSFUS. Oh B Shotsbikefus LFP Pühmeos RTPUPP. Emum chist fpmshlp rpufbchimy mosix emuy chbe dyuftavhfych - suse ymy redhat - uphefunisk, fp bipdife h lbfbmz /etc/rc.d/init.d dbchbcff lfbodh mosix start. Itchpn obprhula lfpf ultyrf rtpuff cbu fakhaktpyfs mosix y bbrulbef felufpchck tdbfulbef/mosix.map, h lpfptpn opppymphus URIUPL KHIZHMPS & LMBUFETB. FCDB RTPRYUSCHBEN: H UMKHYUBY, EUMY X CBU Chuzp DCHEZ-FTY NBYSHOY YI IP BDTEUB Utelhaf
    DTHZ BB DTHZPN RP Opnabgy Ryyen FBL:



    1 10.152.1.1 5

    zea RetchchChk RBTBneft Pvpobubububef deschide Obushpmsp Hikhm, ChPTPK - IP BDTEU Retchpzp Khikmbi RPUMEDYAK - LPMYUEUFCHP KHIZHMPS la Felhasep. F.E. Khizhmpch, IP BDTEUBFUS RSFS KHIZHMPCH, IP BDTEUB LPFTSCHK oblobyuchbafus aproximativ 1, 2, 3, 4 Y 5.
    yMY DTHZPK RTLENet:

    oops Hibrh IP LPMYUEUUUFPHP KHIZHMPS la Felhasep
    ______________________________________
    1 10.152.1.1 1
    2 10.150.1.55 2
    4 10.150.1.223 1

    h lpzhtbhyy nsh rpmhyun folosithaeik tbohmbd:
    IP 1-PZP Hibber 10.150.1.1
    IP 2-PZP Hibber 10.150.1.55
    IP 3-PZP CHBMB 10.150.1.56
    IP 4-PZP CHBMB 10.150.1.223
    ferretsh Okhtsop Despre Self NBIOBI VKHDHEZP LMBUFETB HUFBOPCHYFS MOSIX TH DREAPLAL TRADES PD Lyoblpchchkchtchtbyposhk Zbkm /etc/mosix.map.

    ferretsh rpume retabrhulb mosix chubb nbiob hzze vkhdef tbvpfbfs h lmbufet, yufp npcop hthidefs npubrkhufych npoofpt lpnbodpk mon. h Umkhyube, HountIFE HOUNTIFE H NPIOFAPT FPMSLP, Nyohohoh Ymy Chppve, OE Hhufife OilpzP, FP, LB Zpchptyfus - VPDP Tshfsh. Ulptej Chuzp X Chir PyIVLB yneoop h /etc/mosix.map.
    Oh chpf, hchidimy, op e rppvedimy. Ufp dbmsh? B DBMSH PÜHMEOS RTPUPP :-) - Okhtsop Ustbfsh HFYMIPHS DMS TBVPFSH în junoomeoshchny / procy rblefb mproc. h YUBUFOPUFY B FPN RBLEFE YDEF OERMPIBS NPDYZHYLBGYS top - mtop, B LPFPTSCHK DPVBCHYMY CHPNPTSOPUFSH PFPVTBTSEOYS HMB (nod), UPTFYTPCHLY RP HMBN, RETEOPUB RTPGEUUB au FELHEEZP HMB ON DTHZPK J HUFBOPCHMEOYS NYOYNBMSHOPK BZTHLY RTPGEUUPTB HMB, RPUME LPFPTPK RTPGEUUSCH OBYUYOBAF NYZTYTPCHBFSH ON DTHZYE MOSIX - HMSCH .
    BRHULBEN mtop, CHSCHVYTBEN RPOTBCHYCHYYKUS OE URSEYK RTPGEUU (TELPNEODHA BRHUFYFSH bzip) J UNEMP DBCHYN LMBCHYYH "g" ON CHBYEK LMBCHYBFHTE, RPUME YUEZP CHCHPDYN ON BRTPU PID CHSCHVTBOOPZP B LBYUEUFCHE TSETFCHSCH RTPGEUUB J BFEN - OPNET HMB, LHDB NShch IPFYN EZP PFRTBCHYFSH. B HCC RPUME BFFPFFFFFFF pe TheUhMSHMSFFSH, PFPTBCENSCH LPNBODPK MON - FB NBYAB DPMCOB Obubfsh VTBFSH OVS OVROWHLKH CHISTBLBEPPP RTPGEUB.
    Client MTOP - H RPME #N PFPTBCBFSH va deschide Hikb, Zede pentru Honorpus.
    oP BF UEE OE Chuh - CEDSH CHBN RTBCHDB OE IPYUFUS PFTBCHMSFSF Despre Dhzye KMSHCHU RTLEGUIGHING CHÂSHUYUHA? New ObbipfempushPush. X MOSIX EUFS Ochelpibes Chowpeoobs WBMBUYTPCHLB ChCHFT LMBUFETB, LPFPTBS RPCHPMSEF Neme-Ney TBCHOPETOP TBDRUTEMSFSH OZTHLCH Despre Chu KMSHCH. Oh CHPF Otdefus Onn Otyfus RPFthdyfus. DMS Obubm cu TPUULBCH, LLB UDMBFS FPLHA SHAKHAKTPKLS (TUNE) DMS DMS DCHI HDC LMBUFETB? H RTPGUUUE LPFTPK MOSIX RPMKUBEF YOZHPTNBGY P ULPTPUFSI RTPGEUUTPPCH UEFY:
    Burpnife TB TH THOGH - Tune NPCOP ChSCPOSFS FPMSLP H Single-Mod. Yobyuyu Mivp RPMKHUYFE OE Aplicarea LPTTTTPCC TECHMSSFBF, MIVP Chibb NBIOB NPCCFR RTPUP BCHYUKHFSH.
    yfbl, ton Chschpposen. Rpume retoshpdb pretglippopk uyufenshch h un singur mod ottillină lpnbodpk init 1 yy init s bbrulbene ultyrf prep_tune, LPFTSK RADOYNEF CEF
    Yofhekheki y burghufyf mosix. PPUME BPFPP pe pdopk y nbyo obscrculben tune, Cchpden Yeh Deschide Dtzpzp Khumb DMS Fit plightă TSEDEN THECHMSFBF - HFYMIFB DPMTSB CHISDBFSH BBRTPU OHUFY YUYUM, RPMKHYUEOPY PF HSCPMYYS LPBODHCH TUNE -A<ХЪЕМ> Despre Dtzpn el. Contractepue plastifus rpchfptyfsh Despre DTHZPN HOME LPNBODPK TUNE -A<ХЪЕМ>, B TeachMShff Yyufy Uuyem Chechufi despre un retrochkki trage. PPUME RPDPVPSP FAOAOZB H CHBESHEK UYUFEN DPMTSO RPSCHYFUS ZBCM / etc / Overheads, Upesbake Yozhptnbha DMS MOSIX H Chede Olei Yuumpchei Brown. h Umkhyube, Eumy RP LBLN-FP RTLEUYOBN TUNE OE UNPZ ULPRTHKFE, RTPUP ULPRTHKFU Ye Felhasep LBFBMB ZBQM MOSIX.COST H / etc / Overheads. Lfp rpnpsf ;-).
    ^ FAOSE LMBUFETB YA NMEY YUEN DCHHI NBMYO OKHTSI YUPMSHPCHBFS HFYMIFH, LPFPTBS FBBFBCHMSEFUS la MOSIX - TUNE_KERNELN. DBCOBS HFYMIFB RPCHPMSEF.
    Chbn h sub RTPUPN în ileulphopn chede shedem Lmbufet, Pfchych Despre oleulpmshlp chprtPupch RTPHSS FAOYOZA LA DCHNES NBYOBNY LMBUFETB.
    Lufgfi, RP de particularodCooppn Zhvkhh Ulbbfsh, YUFP ^ Detyaklpkl Lmbufetb cu TVPNEODOODHA CHBN OE ЕBBZTHTSBFS UEFSH, ObpvptPF - Răspuns #

    5. HTBCHMEOY LMBUFETPN.

    DMS Horthbchmeoise HIPN LMBUFETB UMEUUFFF OEEVPMSHAKK OBPT LPNBOD, Teym LPFCTSI:

    mOSCTL. - LPOSTPMSH OBD HJPN. RPCHPMSEF YENOSFSFSFS RBTBNESTECH Khumb - Flite, Lgock, Stay, Lstay, întârziere F.D
    dBCHBKFE TPUUUMPFIN OETULPMSLP RBTBNFFCH LFP HFYMIFSHCHCHCH:
    stau. - RPCHPMSEF PUFBOBCHMICHBS Nyztbgya RTPGEUPCH despre Dtusee Kmshchi la Felhake Nbyosezhek. Pfnosefus rbtbnefpn nostay ymy -stay
    lstay. - Britagebef FPMSLP MPLBMSOSHKN RTPGUUUUUBN NYZTBGYA, BTPgeuuuchukh Dthzyy Nbyo NPZHF RTPDPMCSBFS LFPD DEMBFSH. Pfnosephus rbtbnefpn nolstay ymy -lstay.
    bloc - Britagebef Hdbmoshchny / Zpuchchchenchenchny RTPguuuubn Chracposfus pe Bifn Khem. Pfnosephus rbtbneftpn noblock ymy -block.
    aduce - CHPCTBEBF Pvtbfop Chu RTPgeucuchu în Felhasep Khbrovsya Khschpmossechko Despre Dhzyi Nbiobi Lmbufetb. Lfpf rbtbnext npccf utbvbfchbfsh, rplb nyztthbchbchbchbufffff Rtttschekue pf uyufenc.
    setdelay. HUFBOCCHMICHBF KUBA, RTPGUUU obbfpfpef nyzttpchbfsp.
    cEDSH UPRUBUFUSH - H UMKHYUBY, EUMY COVEN CZHATMOISUS RTPGEUUUUUB NONOYE LEVERSKI NEVCHUM RETOPUFSH EZP Despre DTSEE NBJOSE UEFY YUYUEBEF. Ynoop Oipp chekhmymfbchmsefus hfymifpk mosctl la rbtbnefpn setdecay. RTLENET:
    MOSCTL SETDECAY 1 500 200
    HUFBOCCHMICHBF KUBA RETAIPDB Despre Dthzye Kmusch 500 Nymayhelizh H Umkhyube, Eumy RTPGEUU OBRKEOO LONB LOW Y 200 NYMIALEGE DMS Fast RTPgeupch. Pvtbfife choinbaeye, UFP rbtbnext lent chutsub dpmtso vssfs nmy ymy tbcheo rbtbnerrt rapid.

    mosrun. - Obrohulbef italye h Lmbufet. Ottinet Mosrun -E-J5 face OBBRUFYF face aproximativ 5-Mon Hime Lmbufetb, ^ BFP Chu EZP DPGEUTY RTPGUUUCH VHDHF FBLDCE CHSCHPOSFUS pe 5-PN Kheme. RTBCHDB OTDEUS EUFSH PDY OUBOCKU, ITH YUEN DPCHPMSHOP Uleufchopchop:
    H umkhyube, eumy dyutuya rtpguuuschukh chshrpmosafus Spetinoase Yuen Hufbopchmobs Hfimifpk Mosctl Lambytzlb (întârziere) FP Rtleguuu Oe Vkhdaf Nyztpchbfsh Despre DTHSEE KHATHCHC LMBUFETB. X Mosrun eee dpchpmshop nppp tbmysures yofteets rbtbneftpch, op rpdtpvoop chobfsh
    P oiu chist nepetsfe ye thlpchpduffb rp lfp hfämife. (MAN MOSRUN)

    mon. - LBL NShch HTSE OBEN, FP NPOYFPT LMBUFETB, LPFPTSCHK B RUECHDPZTBZHYYUEULPN CHYDE PFPVTBTSBEF BZTHLH LBTSDPZP TBVPYUEZP HMB CHBYEZP LMBUFETB, LPMYYUEUFCHP UCHPVPDOPK J BOSFPK RBNSFY HMPCH J CHSCHDBEF NOPZP DTHZPK, OE NEOEE YOFETEUOPK YOZHPTNBGYY.

    mTOP. - NPDJJAGYTPCHBBBS DMS YURPMSCHBEKHS Despre Khmeby Lmbufetb Chetuis LFBODCH Top. Pfpvtbcbef pe Ltbte Dyognyuyulha Yozhptnbgya PtpgeuuUby, obroheeo-obbrehui, Chemb, LHDBM, LHDBMI Rtlegueusch.

    parlamentari. - FPCA NPDYZHYTPCHBOBOBES CHETUIS LFBODSHCH PS. DPVBCHMEOP EEE PDOP RPME - OPNO HIKB, Despre LPFTSCHK NYZTYTPCHBM RTPGUUU.

    cHPP pe NPK Châzzda Chue Pugchpick Hfymiph. Despre UBNPN DEME LPEYOP NPCP PVPKFYUUS DBCA OEI. Ottinet Yurpmshkhs DMS LPFFTPMS PFD LMBUFETPN / PROC / MOSIX.
    fBN Ltpne FPZP, YUFP NPCPP Obcph Pupcho Yozhptnbha Po Pootpklby Hibrh, RTPGEUUBI BRHEEOFI la DTHZYI KHIZHMPSY F.D., B Fbblem RPNESPSH YUBIUFSH RBTBNEFSPH.

    6. Ylotheneofytchen.

    L Upsbmea, Neo HDBMPUSHPUBCHYFSHFSHPSPOSFUS LBPPK-FP PDY RTPGUUU PDOPCHTENOOPOPOGA DESPRE OLEULPMSHLII KHMBY. Nbluinkhn, Jesp cu DPUFIZH H RTPGuuue Olrytyneophpch în Lmbufetpn-Yurpmshptoma DMS KHSPHPMUYUIYUI Tehuztenlyy rtpguuufush Despre DTHZPN HIMME.
    DBCHBFFF TPUUUMPFIN PDYY YEY ™NENDPH:
    dPRHUFNE, YUFP X LMBUFET TBVPFBAF Tekhezheba (DCHB KHBB), PDJA LPFPTCHA la OpnetPN 1 (366 Celeron), DTHZPK - OPNPN 5 (PIII450). Olretinofitpchbfsh nwby vshden aproximativ 5-mon hime. 1-la CPF TTLES RTPUFBYCHBM. ;-)
    yfbl, brhulben pe 5 ore hfymyfh crak lca rpdvptb rbtpms un dv rar btiychh.eumy lfp chbu rtpvpchbm tbvpfbfsh are rpdposhny hfymyfbny, software FP DPMTSEO obfsh, yufp rtpgeuu rpdvptb rbtpms "LHIF" DP 99 RTPGEOFPCH RTPGEUUTBPPTB. OF, UFP Tse - RPUME Obmadben, YFP RTPGuuu Pufbefus pe LFPN, 5-PN Himme. TBKHNOP - CEDSH YNOOP XFPZP CHBIM RTPYCHPDIFEMSHOPUFSFUM RTURCHESKEFF 1-K RPUFY CLUE CB TVB.
    dbmee rtpupp obtlh kde 2.0. Unpftin fbvmighkh rtpguuupch yufein, yufp crak khureyop nyztytfchbm despre o lovitură de 1 cameră, PUCHPVPEC RTPGEUPT RBNSFSFS (DB, DB - RBNSFS FPLAY FBCPBFBFBUS) DMS fac. B llb fpmslp face clarpuyum tbvff - crak chetokhmus putffop, despre TPDOP Chex 5-K.
    jOFTEETHEK LZHELF RPMKHUBUS, EMUY CRAK OBBRKHULBFSH pe NemeoPn 1-Heme.
    fBN NWBY Oblumadben RTLEFYUEULI RTPFJPRPMPSUCC TECHMSFBF - RTPGUEU UTBH-TSE NyZyThthf Despre 5-K, magazinul Neme Schodcht. ^ DFPN PTCTBEBUS PVTBFOP, LPDB IPSYO RSFPZP LPNRSHAFETB Obuisobhef LBUYE-FP Dekufchys la Uyufenpk.

    7. YUPMSHPPCHBOY.

    DBCHBKFE H LPOKA TB Lady, LMBMSHPHBFSH LMBUFF HUMB RPCHEYTOPK Tsyoya.
    LCA OBYUBMB OHTSOP TB J OBCHUEZDB BRPNOYFSH - LMBUFET CHSCHZPDEO FPMSHLP B FPN UMHYUBE, LPZDB B CHBYEK UEFY EUFSH OOPE LPMYYUEUFCHP NBYYO, LPFPTSCHE YUBUFEOSHLP RTPUFBYCHBAF J BL IPFYFE YURPMSHPCHBFSH YEE TEUHTUSCH OBRTYNET LCA UVPTLY KDE YMY LCA MAVSCHI UETSHEOSCHI RTPGEUUPCH. Cedhsbzpdbts lmbuteth ye 10 nbyo npcop pradchtenoopop
    LPNRYMYTPCHBFS DP 10 Fstsita RTPZTBNN Despre FPN-TSA C ++. Ymy rpdvytbfsh lbpk-fp rbtpmsh,
    OE RTTTBBBS Oh Despre taxele LFPP RTPGUUUUB OEBCHILYYUNP PF OzThli despre LPNRSHAFFT CHBA.
    db cppvee - lfp rtpup jofetuop ;-).

    8. Bablmayuoyee.

    h bablmayuoye iPyuh ulbbfsh, yufp h bfk ufbfsha oe tbuunpftekshu chue-chpnptsopufy mosix, fl Cu RTPUP DP OEI EEE OE DPTBMUS. Eumy Dpiverhush - Central RTPDPMTSOYCE. :-)